Data Secrets
78.8K subscribers
6.42K photos
667 videos
20 files
2.7K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Итак, только что закончилась свежая презентация Apple. Рассказываем, что там у них новенького по теме ИИ:

⚪️ В новые Apple Watch Series 10 встроили Neural Engine с ML. Теперь часы можно использовать для перевода или распознавания голоса.

⚪️ AirPods 4 научились принимать и отклонять вызовы по движению головы. А еще они смогут проводить клинически проверенный тест на слух.

⚪️ Ну и, конечно, новый iPhone с Apple Intelligence. Neural Engine стал в два раза быстрее. Также прилично добавилось к пропускной способности, а GPU на A18 летает на 40% быстрее. Видимо немало пришлось поработать, чтобы айфон тащил Apple Intelligence.

⚪️ Siri стала умнее и персонализированнее (правда русский язык не завезли) и теперь может вести нормальный осознанный диалог или помочь найти что-то в телефоне. А еще можно суммаризировать все уведомления в ленте и генерировать текст и эмоджи.

⚪️ Многим понравилась новая кнопка. Ее можно настроить под нужную задачу: например, запись голосовых заметок, распознавание музыки, ключение автопереводчика и прочее. Кстати, в камере будет ИИ-автофокус, встроенное удаление людей и объекты с фото, и авто-переработка галереи (можно попросить удалить все фотки с бывшими, например). В Pro модель в камеру и диктофон еще добавили заглушку фоновых шумов в видео.

⚪️ Visual Intelligence! Можно навести камеру на любой объект и получить о нём всю информацию (будь это ресторан, собака, велосипед и тд). Ну и для решения школьных задачек по фото тоже сойдет: лучший подарок школьникам в сентябре.

⚪️ В общем, Apple запихнули ИИ абсолютно везде, где могли: наушники, часы, уведомления, чаты, камера. При этом разработчики утверждают, что все будет крутится в локальном облаке пользователя. Верим 👍
Please open Telegram to view this post
VIEW IN TELEGRAM
42🤨19👍18🔥87🤪5😁3❤‍🔥1👌1
Исследователи из Microsoft изобрели что-то между RAG и few-shot промптингом

Обычный few-shot промптинг обычно подразумевает добавление некоторых примеров ответов прямо в промпт. Он доказал свою эффективность, но если вам нужно добавить много примеров, то промпт будет громоздким. Да и каждый раз добавлять примеры в промпт лень не очень-то удобно.

В Microsoft предложили вместо промпта хранить примеры в векторной БД. Тогда система будет сама извлекать самые релевантные примеры для каждого пользовательского ввода, сохраняя при этом запрос лаконичным. Назвали подход Dynamic few-shot prompting.

Преимуществ получается несколько: снижение костов, улучшенная точность и релевантность как извлекаемых примеров, так и самих ответов модели, а еще масштабируемость для различных задач.

Полный текст блогпоста тут
🔥48👍13😎133
Для тех, кому интересно покопаться в сравнении разных LLM

Artificial Analysis запилили большой отчет со сравнительным анализом ведущих моделей. Тут есть сравнение по чему только хочешь: от цены и длины контекста до скорости инференса, способности кушать PDF-файлы, наличия интерпретаторов кода и качества создания диаграмм. И графики, конечно, в отчете тоже присутствуют. МНОГО графиков.

Кстати, интереснее всего выглядит картинка со сравнением длин эффективных контекстных окон. Аналитики утверждают, что тестировали этот аспект вручную, и что только Claude Pro выдерживает больше, чем 40к токенов: у остальных после этой отметки якобы сильно падает перформанс.

Отчет полностью можно посмотреть здесь
👍299🔥7
МТС Web Services представила ИИ-облако

Помните, мы писали о том, что МТС Web Services увеличила свои GPU мощности на 40%? Оказывается, это были цветочки. Теперь компания запускает новое направление – ИИ-облако. Оно будет включать в себя инфраструктуру и ряд сервисов, которые позволят компаниям ускорить и упростить внедрение искусственного интеллекта.

В основе облака будут находиться сервера с GPU, которые можно использовать для обучения ИИ в облаке. Это позволит компаниям уменьшить инвестиции в инфраструктуру и ускорить запуск проектов.

На основе GPU компании смогут самостоятельно развернуть необходимое для работы с ИИ программное обеспечение, либо использовать уже готовые решения, доступные в ИИ-облаке. Например, ML-платформу – специализированное ПО, позволяющее автоматизировать процесс обучения моделей искусственного интеллекта, а также упрощающее их внедрение в бизнес-процессы компаний и последующую работу с ними.

Также на GPU-мощностях MWS можно будет развернуть и другие готовые к работе «из коробки» сервисы MTS AI:

➡️ Cotype – LLM для работы с корпоративными данными
➡️ Audiogram – платформа синтеза и распознования речи
➡️ WordPulse – сервис речевой аналитики

Мы сделали ИИ-облако максимально персонализированным, чтобы каждая компания могла получить сервис в той конфигурации, который нужен под ее задачи.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍26🔥65😁2🌚2💘1
OpenAI выпустит Strawberry в ближайшие две недели

Об этом сообщает The Information. Они пишут, что отличительная черта новой модели – это умение "думать" перед ответом (в отличие от других моделей, которые сразу начинают генерировать токен за токеном). Ожидается, что именно в помощью этого модель будет меньше галлюцинировать.

Говорят, "думать" перед ответом модель будет в течение 10-20 секунд, а еще по началу будет работать только с текстом, без всяких мультимодальностей.

Ждем (в очередной раз) 🐌
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6317🤪13🔥8😁4
Никогда такого не было и вот опять: Алексис Конноведущий ресерчер, который разрабатывал GPT-4o, покидает OpenAI и открывает собственную компанию

В своем твиттере он пишет, что готовится построить что-то волшебное, и что готов нанимать исследователей.

Где-то опять грустит один Сэм 😭
Please open Telegram to view this post
VIEW IN TELEGRAM
13419👍10😁9
⚡️ Mistral только что выпустили новую модель Pixtral

Точнее, пока только дропнули веса в Твиттере в свойственном им стиле "без комментариев". Судя по названию, это text2image. В общем, мы ушли проверять, что же там такое 🏃‍♂️
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥41👍64❤‍🔥2
Новая Pixtral от Mixtral оказалась мультимодальной LLM

В ней 12В парамеров и она основана на Mistral Nemo 12B. К этой текстовой основе прикрутили GeLU и 2D RoPE. В словаре прибавилось токенов (теперь их 131 072), а также появились три новых специальных токена: img, img_break, img_end. Разрешение картинок 1024х1024. Ждем метрик!

Веса уже есть на HF
👍33🤯11🎉6🔥3👾32
Media is too big
VIEW IN TELEGRAM
Ко-фаундер Google и бывший презедент Alphabet Сергей Брин дал большое интервью в рамках All-In Summit в Лос-Анджелесе

⚪️ «Сейчас я почти каждый день занимаюсь в Google разными проектами, связанными с ИИ. Для меня, как для ученого это время прорывов, и я не хочу ничего упустить. До этого я не видел ничего более захватывающего и одновременно настолько важного для человечества.»

⚪️ Брин говорил, что не уверен, что для обучения более эффективных моделей потребуется существенное увеличение вычислительных ресурсов. «Я читал некоторые статьи, в которых говорится об экстраполяции вычислений. Возможно, я в это верю, потому что оптимизация алгоритмов, произошедшая за последние несколько лет, возможно, в действительности даже опережает рост вычислительных мощностей, заложенных в модели».

⚪️ Сергей признал, что Google затормозился. «После изобретения в Google трансформеров в 2017 году у компании были все шансы вырваться вперед на несколько лет, но мы были слишком робкими. Сейчас нам нужно больше рисковать.»
Please open Telegram to view this post
VIEW IN TELEGRAM
👍54🎉13🔥8😁41
Тем временем Патриарх Кирилл предрек апокалипсис из-за развития ИИ

«Если человечество теряет религиозную веру, особенно в условиях нарастания технологий, связанных с появлением искусственного интеллекта, то мы действительно входим в эпоху апокалипсиса», — сказал он.
😁111🤪57👻25👍16🙈12🔥6👾54🗿3🤯2🦄1
OpenAI привлекает новые инвестиции: на этот раз $6.5 млрд

Среди инвесторов Microsoft, Apple и Nvidia, но на первом месте по вложениям опять Thrive Capital (как и в прошлом раунде). Также утверждается, что кроме вложений от инвесторов стартап откроет еще и кредитную линию в банках на $5 млрд.

При этом оценка компании приближается к $150 млрд. Напомним, что еще в начале года она составляла $86 млрд. И кстати, совсем недавно, буквально в конце августа, СМИ сообщали о другой сумме: тогда утверждалось, что OpenAI оценивается в $100 млрд.

Кто больше? 😏
Please open Telegram to view this post
VIEW IN TELEGRAM
🎉3824😁7👍6🤪3🦄2
Приготовьтесь: Meta, Alphabet, Microsoft и Amazon только за последний квартал в сумме потратили почти $53 млрд на ИИ

* данные из свежего исследования Wall Street Journal «Расходы на ИИ в диаграммах»
😁27🔥15🤯12👍7
Откуда не ждали: Oracle запустила вычислительный кластер на 131 072 видеокарты Nvidia

И GPU там непростые, а новейшие Nvidia Blackwell. Это первый кластер таких размеров, основанный на этой модели видеокарт.

Сейчас Oracle уже принимает заказы на суперкомпьютер. Интересно, кто заберет такой лакомый кусочек
🤯69👍14🔥13👌1👾1
Google только что релизнули Data Gemma

Это, по сути, та же Gemma 2, но с прикрученной к ней системой проверки фактов (данные берут из Data Common).

Под капотом RIG (Retrieval-Interleaved Generation) и RAG. Когда модель генерирует ответ, она обучена выделять из него «фактические» сущности и проверять их на соответствие фактам из Data Common (это RIG). А RAG позволяет извлекать из датасета ту информацию, которую модель изначально не знала.

Все в опенсорс. Вот блогпост, а больше технических деталей можно найти в статье.
👍50🔥175
🍓 OpenAI выпустили новую модель o1 (ту самую Strawberry)

По сравнению с GPT-4o она выбивает 6х точность на олимпиадных задачах по математике и 8х точность на задачах с CodeForces.

Вся соль модели – в умении рассуждать. Ей требуется некоторое время перед ответом: внутри себя она гоняет CoT, прежде чем вернуть ответ пользователю. Но, конечно, при этом она требует больше мощностей на инференсе.

Сейчас ее уже раскатывают на пользователей с подпиской. Больше деталей – в пресс-релизе.
👍68🔥24🍓159
Еще некоторые детали про o1 aka Strawberry aka Q*

➡️ Сейчас на юзерах с подписков крутится не сама o1, а ее preview версия. Также для ChatGPT Plus будет доступна модель o1-mini (более дешевая и шустрая). o1-mini также обещают раскатить и для бесплатных аккаунтов.

➡️ Даже несмотря на то, что самой o1 пока на проде нет, лимиты в чате и цены в API уже достаточно жестокие: 30 сообщений в неделю для o1-preview, 50 для o1-mini 😳. В API вообще песня: 20 запросов в минуту, и при этом платить придется не только за коллы, но и за сами размышления модели (reasoning tokens).

➡️ Саму o1 тоже обещают раскатить скоро. Она уже дообучена и протестирована, но, видимо, OpenAI все еще приходится решать вопросы связанные с затратами на ее инференс, и (может быть) безопасностью.

➡️ OpenAI обращают внимание на то, что промптинг с новой моделью отличается от промптинга со старыми. Они даже выкатили свой гайд с советами о том, как правильно общаться с o1. Основная мысль сводится к «Больше не надо уловок вроде "думай шаг за шагом" или "построй план решения". Формулируйте свои инструкции ясно и прямолинейно, а дальше модель все сделает сама.»

➡️Ну и напоследок то, на что могло ускользнуть от глаз: OpenAI решили скрыть от пользователей мыслительный процесс модели. То есть те рассуждения, которые видны в чате – это выборочный материал. Остальные необработанные цепочки мыслей пользователям не видны.

🍓🍓🍓
Please open Telegram to view this post
VIEW IN TELEGRAM
🍓88👍128😁3