Data Secrets
78.8K subscribers
6.42K photos
666 videos
20 files
2.7K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Google добавили в Notebook LM возможность обработки YouTube видео

Notebook LM – это тот самый инструмент от Google, который может превратить любой pdf в подкаст, объяснить любой текст (включая сайты по ссылке) и ответить на вопросы по нему.

Инструменту уже год, но его постоянно развивают: функцию с подкастами вот добавили меньше месяца назад. А теперь в подкаст или текстовую объяснялку/гайд можно превратить не только текст, но и видео/аудио.

Выглядит супер удобно и попробовать можно бесплатно.

P.S. Кстати буквально вчера на Hugging Face появился опенсорс аналог Notebook LM на основе Llama 3.1. С видео пока не работает, но c PDF-to-podcast справляется вроде неплохо.
🔥34👍157❤‍🔥2😁2
Media is too big
VIEW IN TELEGRAM
Замкнутый круг by Дженсен Хуанг: CEO Nvidia сказал, что нам потребуются AI агенты, чтобы противостоять темной стороне AI агентов

Мысль вот в чем: AI будет производить фейки и взламывать ресурсы с нечеловеческой скоростью, поэтому справиться с этим люди не смогут сами, и им понадобятся другие "добрые" ИИ. "Это похоже на белых хакеров", – говорит Хуанг.

И кстати, вы заметили, что в этот раз он не в своей кожанке? Может это уже не он, а его AI копия? 😅
Please open Telegram to view this post
VIEW IN TELEGRAM
😁115👍13🎃74🤩1
⚡️ Google DeepMind выпустили работу про самоисправление моделей с помощью RL (в стиле o1)

Они разработали систему под названием SCoRe (Self-Correction via Reinforcement Learning). SCoRe работает как бы в два этапа:

1. Учится генерировать first try, исправления и second try. При этом используется специальный лосс, учитывающий и качество самих ответов, и качество критики. Получается своеобразный претрейн.
2. На втором этапе подключается multi-stage reinforcement learning. Тут лосс (с помощью регуляризации) больше поощряет существенные улучшения между first try и second try.

При этом учится SCoRe только на сгенерированных данных: это сделано специально, чтобы избежать проблемы разницы распределений в генерациях и трейне. Это, кстати, одна из причин того, что обычный файнтюнинг перформит не так хорошо, как хотелось бы.

Итог: SCoRe существенно улучшил self-correction гугловских моделей на бенчмарках. Например, на HumanEval случился скачок на 9,1 пп, а на MATH – на целых 16.

Статья полностью лежит тут.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍37🤯159🔥4
Как вам такая литература?
😁199🔥30👍20😎99🤔2🕊2
OpenAI неожиданно вспомнили молодость и опенсорснули третью версию whisper (типа «смотрите, все еще open») 😐
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8938👍9🌚53😁2
Liquid AI представили новое семейство моделей с оригальной архитектурой: они выбивают SOTA метрики в своих классах

Самое интересное: это НЕ трансформеры, а так называемые ликвидные сети. Ликвидными (то есть жидкими) их называют потому, что, в отличие от обычных нейросетей, где веса – это просто числа, в ликвидных моделях веса вообще может не быть: здесь обмен сигналами между нейронами — вероятностный процесс, управляемый нелинейной функцией. Такие подходят для моделирования любых последовательных данных, включая видео, аудио, текст, временные ряды и сигналы.

Всего доступно три модели: 1.3B, 3.1B, 40.3B MoE. Все они, судя по бенчмаркам в релизе, показывают себя очень неплохо, особенно на математике и длинном контексте. На схеме наверху – метрики по MMLU, а более детально можно посмотреть здесь. Если все действительно так, как представлено, то перед нами очень многообещающая альтернатива трансформерам (спойлер: r в "Strawberry" все равно посчитать не может).

Еще одна хорошая новость: модели уже можно попробовать. Они доступны в Liquid Playground и Perplexity Labs.

P.S. Если хотите почитать про архитуктуру подробнее, то вам сюда. По этой ссылке ресерчеры Liquid AI оставили упорядоченную подборку статей (собственных и не только) о том, как развивались ликвидные нейросети.
🔥65👍2012🤯4😎2
LMAO
😁170👍1310
This media is not supported in your browser
VIEW IN TELEGRAM
Тем временем в Сан-Франциско прямо сейчас проходит OpenAI DevDay. Вот что уже показали:

➡️ Realtime api с минимальной задержкой. Это возможность встроить в свое приложение настоящий speech-to-speech. Будет доступно по цене базовой модели.

➡️ Vision файнтюнинг. Теперь можно тюнить свои модели с использованием изображений.

➡️ Завозят набор инструментов для кастомных дистилляций и ускорения моделей.

➡️ Finally: кэширование промптов, которое уже давно появилось у DeepSeek и Anthropic. На кэшированные промпты цена будет в половину меньше.

➡️ Интрумент для оценки моделей: можно будет нормально эвалить свои приложения.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍32🔥1211🤯3
Ой как неожиданно и приятно: бесплатные аккаунты в ChatGPT на этой неделе получат доступ к Advanced Voice 🎉
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1081512👍2😁2
OpenAI: проводит DevDay

Anthropic в тот же день: выпускает пресс-релиз о том, что нанимает бывшего ко-фаундера OpenAI Дюрка Кингма

Дюрк – один из наименее известных, но все-таки учредитель OpenAI. Теперь он присоединится к Anthropic. В своем посте в Твиттере он написал что «не может дождаться встречи с огромным количеством бывших коллег из OpenAI» 😁
Please open Telegram to view this post
VIEW IN TELEGRAM
😁143❤‍🔥12👍1
Как работает новый Prompt Caching OpenAI

Краткий ликбез: Prompt Caching – штука, позволяющая кешировать промпты, которые используются часто, а не кормить их модели заново при каждом запросе. Основная цель – понижать косты. Вчера OpenAI добавили его в свое API, а у Anthropic этой фичей можно пользоваться уже полтора месяца.

Однако, в отличие от Anthropic, у OpenAI запросы к моделям (это относится к GPT-4o, GPT-4o mini, o1-preview, o1-mini) будут кэшироваться автоматически. Экономия получается хорошая: можно скостить 50% затрат и 80% задержки ответов.

Разберемся, как этим пользоваться:

1) Чтобы у вас заработал Prompt Caching, запрос должен быть не короче 1024 токенов. Кстати, далее каждые 128 токенов размер максимально возможного кэша увеличивается.

2) Кроме того, кэширование заведется только если префиксы промптов, которые и будут кешироваться, совпадали идеально (фича ориентирована именно на какие-то системные промпты вашего приложения).

3) Система отправляет запросы на серверы, которые недавно обрабатывали идентичные запросы, и кэширует longest prefix. При этом кэш очищается через 5–10 минут бездействия, а максимальный срок хранения – 1 час.
🔥31👍117🤨4🤯1
Как выигрывать Kaggle соревнования: LLM-анализ выигрышных решений

Примерно год назад энтузиаст с Kaggle по имени Дарек Клечек провел интересный эксперимент: он собрал все доступные описания (writeups) побеждавших на Kaggle за последние годы решений, пропустил их через LLM и свел по ним статистику о том, какие механики и алгоритмы оказываются "наиболее победными". Отчет у парня получился достаточно объемный, интересный, а местами и непредсказуемый.

Ну а мы не смогли пройти мимо и сделали разбор анализа Дарека на Хабр. В нем вы найдете:

➡️ много графиков
➡️ детали того, как все это было реализовано
➡️ кучу полезных выводов АКА ваш чек-лист для следующего ML-соревнования

Обязательно сохраняйте: https://habr.com/ru/articles/847462/
Please open Telegram to view this post
VIEW IN TELEGRAM
59👍27
Media is too big
VIEW IN TELEGRAM
На случай, вы еще не видели демку полноценной модели o1 с DevDay, которая просто взяла и на ходу за один промпт написала рабочее приложение для управления квадрокоптером.
👍55🤨40🔥21👀11🫡5😁2🤯211
А еще сразу после DevDay OpenAI сразу закрыла новый раунд финансирования: они привлекли $6.6 миллиаров

Это больше, чем бюджет некоторых африканских стран. При этом оценка стартапа составила $157 миллиардов. Раунд возглавила Thrive Capital, и, включая эти $6.6 миллиаров, валовые инвестиции в OpenAI достигли $17.9 миллиардов.

Самое интересное: OpenAI попросила инвесторов избегать вложений в кокурентов, таких как Anthropic и xAI. Вот она, здоровая конкуренция.
😁59👍15😐31😎1
Продолжение истории про Reflection

Для тех, кто успел подзабыть: Reflection – это та самая модель Шредингера, которая породила так много споров в начале сентября (мы писали об этом случае тут). Вкратце, авторы наобещали невероятные метрики, а потом модель сдулась. Разрабы при этом написали, что у них почему-то "не получается воспроизвети результаты экспериментов".

Месяц про модель ничего не было слышно. А сегодня тот самый разработчик, у которого не воспроизводились эксперименты, написал, что готов "исправить ошибку".

Он выложил веса, код и другие артефакты и написал, что воспроизвел все, кроме двух показателей на MATH и GSM8K ("Scores differ due to a bug in the initial benchmarking code").

"Надеюсь, этот постмортем внесет ясность в то, что произошло", – написал он.
😁33👍94🤨3
Тайна модели blueberry раскрыта!

Контекст: примерно неделю назад на text-to-image арене появилась загадочная модель 🫐, точнее целых две. Они с отрывом порвали всех остальных и вышли на первое место по ELO. Все думали, что это новый Dall-E или SORA, но это оказалась…

Свежая FLUX1.1 от Black Forest Lab. Стартап анонсировал модель в Твиттере в в блогпосте, и ходят слухи, что раскатить ее могут уже сегодня 🥳
Please open Telegram to view this post
VIEW IN TELEGRAM
😎61👍1564
В дополнение к утренней новости про новый раунд финансирования OpenAI стало известно, что для компании еще и открыли кредитную линию на $4 млрд

Это возобновляемые деньги, стартап будет платить по ним примерно 6% (+- айти ипотека в России).

Получается, что общие инвестиции этого раунда перешагнули за $10 миллиардов 😨
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥44🤯14😁8👍1
Media is too big
VIEW IN TELEGRAM
🚀 OpenAI выпустили Canvas – надстройку над ChatGPT для работы с кодом и текстом

По дизайну Canvas походит на Anthropic Artefacts: это отдельное окно рядом с чатом. Инструмент предназначен для задач, где нужно много править или пересматривать один и тот же проект. Он, в отличие от чата, будет лучше запоминать контекст + работать над конкретными разделами.

Например, при работе с текстом он может предложить правки конкретных кусочков, отредактирует длину, тон повествования или грамматику.

Но самое интересное – это, конечно же, код. Canvas просто идеально подходит для программирования:
— исправление багов
— код-ревью
— добавить комментарии
— перевести на любой другой ЯП
— добавить логи

В общем, мини VSCode прямо в чате на основе GPT-4o. И уже раскатили на Plus и Team!
Please open Telegram to view this post
VIEW IN TELEGRAM
59🔥22👍10🤨4
Что ни день, то новость про то, что кто-то ушел из OpenAI

На этот раз компанию покинул Тим Брукс. Он был одним из руководителей проекта SORA. Ушел он в DeepMind, где будет также работать над генерацией видео и "world simulators"
🤔60😁217🫡4👍2🔥1🙈1