Data Secrets
78.8K subscribers
6.42K photos
667 videos
20 files
2.71K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Видимо, OpenAI увидели, что все потратили доступные запросы на детские логические задачки, сжалились и… обнулили лимиты на o1, чтобы мы смогли продолжить эксперименты.

Фея крестная, которую мы заслужили 🧚
😁12526🍓10👏7❤‍🔥2👍1👌1
🚬
Please open Telegram to view this post
VIEW IN TELEGRAM
😁321🍓2211🔥5👍2❤‍🔥1
Что внутри Strawberry?

Репорт от OpenAI полон результатов на бенчмарках, примеров и сравнений. Однако про техническую реализацию модели разработчики написали одно единственное предложение: "Through reinforcement learning, o1 learns to hone its chain of thought and refine the strategies it uses."

Что это может значить? Пока основных версии две:

1) Возможно, в RLHF+CoT, как показано на картинке, токены CoT просто передаются в ревард модель вместе с результатом (в традиционном RLHF в модель вознаграждения передаются только промпт и ответ). Это объясняет, как модель научилась всегда начинать с токенов CoT и делать CoT структурированными, однако в этом случае непонятно, как обучалась ревард модель.

2) Другая версия: в RLHF все также передавались только промпты и ответы, но при этом модель генерировала множество цепочек CoT (награждались те, которые заканчивались правильным ответом).

А у вас есть предположения?
👍33🍓26🔥63😁2
А вот это смешно: OpenAI рассылает угрозы на почту пользователям, которые пытаются выяснить у o1, как она думает (то есть джейлбрейкнуть ее на вывод всей цепочки CoT).

Компания пишет, что юзеры нарушают пользовательское соглашение и угрожают баном 😣

В общем, аккуратнее там, а то окажетесь у OpenAI в чс
Please open Telegram to view this post
VIEW IN TELEGRAM
😁1594611🗿8👍4🎉3🔥1👏1🌚1
Media is too big
VIEW IN TELEGRAM
Ларри Эллисон говорит, что Oracle строит ядерные реакторы для питания «акров» GPU 😱

Он отмечает, что и это не все. По его мнению, 100 млрд долларов – это минимальные вложения, которые позволят компаниям оставаться в ИИ-гонке ближайшие три года.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯55👍33🔥85😁32
o1 оказалась единственной моделью, которая превзошла средний человеческий IQ

Исследование, кстати, провел тот же репортер, который полгода назад показал, что Claude3 оказался умнее человека на тесте IQ (мы писали об этом тут). Только тест он теперь выбрал другой, самодельный.

Чтобы избежать лика данных, то есть гарантировать, что вопросов из теста не было в обучающей выборке модели, журналист составил тест по образу и подобию классического Norwegian Mensa, дал его пройти закрытой группе людей, а затем удалил из всех источников. И именно на этом тесте он проверил o1.

Получилась вот такая картина ⬆️

Кстати, можете проверить себя и сравнить свои способности с o1: на сайте со статьей есть примеры сложных заданий из классического IQ теста, которые o1 решила правильно + ее ответы
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥65👍179🗿6🤔4😁2
А раньше было лучше 🚬
Please open Telegram to view this post
VIEW IN TELEGRAM
😁125👍18👏81
На Реддите пользователь поделился тем, как ChatGPT начал с ним диалог первый

Бот якобы запомнил из какого-то чата, что парень идет в старшую школу, и решил поинтересоваться, как прошел его первый день. Правда или нет, до конца не ясно, но юзер зашерил прув в виде самого диалога.

Пользователи уже даже пытались воссоздать то, как это могло быть "разыграно", но пока не получилось. И кстати, почти одновременно появился и другой пост другого пользователя с похожей ситуацией, но уже в голосовом режиме.

Будем удивляться шедулеру в сообщениях?
1😁859🤔87😐5👍4🔥1
Data Secrets
Галя, отмена: большой скандал с моделью Reflection, которая хайповала последние несколько дней Вкратце: модель оказалась фальшивкой. Возможно, это была акция привлечения внимания или финансирования. Более подробный таймлайн того, что произошло, можно найти…
Кстати, скандал с Reflection (ранее мы писали о нем тут) закончился тем, что разработчики все-таки раскаялись в преждевременном анонсе. Они, тем не менее, отрицают, что встраивали в API другие закрытые LLM и говорят, что сейчас «разбираются с тем, почему результаты экспериментов не воспроизводятся».

Мораль: всегда фиксируйте random seed
😁110😎11😍6👾4👍2
Сэм Альтман покинул совет безопасности OpenAI

В пресс-релизе компания объявила, что теперь Safety and Security Committee будет независимой организацией, которую возглавит профессор из Карнеги-Меллон – Зико Колтер.

Комитет заявил, что они приняли решение о безопасности o1 уже после отставки Альтмана, и продолжают сохранять за собой право задерживать релизы в случае чего.

Есть версия, что Сэма убрали после того, как сразу несколько сенаторов США забеспокоились о том, что все (почти) сотрудники OpenAI после ухода из компании так или иначе жаловались, что CEO поступает своенравно и игнорирует правила безопасности.
🤯67👍26😁115🤔5🗿1
This media is not supported in your browser
VIEW IN TELEGRAM
Лучший совет, который вы могли получить этим утром. Смотреть до конца 🍻
Please open Telegram to view this post
VIEW IN TELEGRAM
😁135👍11🗿95👌3🍾3👨‍💻1
🕺 Вышла новая крутая книга "Hands-On Large Language Models"

Она разделена на три больших раздела:

1) База LLM (тут все про токены, эмбеддинги, внимание etc)
2) Претрейн (как предобучают LLM и мультимодальные модели, что такое RAG и Topic Modeing)
3) Файнтюнинг

С сегодняшнего дня книга доступна на маркетплейсах и на сайте O’Reilly (а там предусмотрен бесплатный пробный период на 7 дней, и карту вводить не требуется).

Сохраняйте и добавляйте в свой ридинг бэклог!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
60👍1812😐1
o1 написала весь код для докторской диссертации, на которую автор из NASA потратил год, всего за 1 час и 6 запросов

Обидно, наверное
🔥106🫡4315😐11🗿2🤪1
У стартапа Chai Discovery вышла модель для предсказания структуры молекул, которая превосходит AlphaFold от Google

Например, при предсказании структуры антител Chai-1 выбивает точность 52.9%, тогда как максимум AlphaFold – 38%. При этом система может работать даже исключительно с последовательностью, без доп.информации в виде MSA.

Кстати, по итогам этого релиза стартап получил $30 млн от OpenAI и Thrive Capital. Сейчас оценка Chai составляет около $150 млн, а работает там всего 10 человек 🎃
Please open Telegram to view this post
VIEW IN TELEGRAM
69❤‍🔥16👍1152🤨1
Коротко о происходящем
148😎29😁12🎃9🍌3👾32
Data Secrets
На Реддите пользователь поделился тем, как ChatGPT начал с ним диалог первый Бот якобы запомнил из какого-то чата, что парень идет в старшую школу, и решил поинтересоваться, как прошел его первый день. Правда или нет, до конца не ясно, но юзер зашерил прув…
OpenAI внезапно отреагировала на завирусившиеся в соцсетях сообщения пользователей о том, что ChatGPT пишет им первым

Мы писали об этом тут. Кратко: бот якобы запомнил, что парень идет в старшую школу, и потом написал первым и поинтересовался, как он устроился.

После этого случая, кстати, еще один пользователь сказал, что у него произошло то же самое: «Я спрашивал о каких-то симптомах, а через несколько дней ChatGPT написал и спросил, как я себя чувствую. Напугал меня до чертиков».

Эти посты вызвали такой ажиотаж, что OpenAI пришлось дать комментарии. Оказалось, это была не фича, а баг:
«Мы решили проблему, из-за которой казалось, что ChatGPT начинает разговоры первым. Эта проблема возникла, когда модель пыталась ответить на сообщение, которое не было отправлено правильно и отображалось пустым. В результате бот либо давал общий ответ, либо использовал память ChatGPT».


Эх, а выглядело многообещающе…
😁118👍2110👀3❤‍🔥1
Anthropic запилили свой курс по тестированию промптов

В компании топят за то, что если вы используете API LLM, то промпты, как и любую часть кода, тоже надо уметь хорошо тестить, и что это неотъемлемая составляющая LLMOps.

Курс разделен на 9 глав и создан на основе внутренней документации Anthropic, которую они используют, когда разрабатывают решения для бизнеса. «Курс охватывает практически все, что мы знаем о качественном оценивании промптов».

Нам больше всего приглянулись главы, где разработчики рассказывают про использование PromptFoo и Anthropic Console Workbench. Полезная штука 👍
Please open Telegram to view this post
VIEW IN TELEGRAM
👏47👍15🔥9❤‍🔥3
В Твиттере протестировали силу арифметики o1

Тест проводился на задаче умножения по сетке вплоть до 20-значных чисел на 20-значные. Посмотрите, насколько o1 справляется лучше 4o ⬆️

Интересно также, что o1 mini умножает ничуть не хуже o1 preview, а с ростом чисел для перемножения количество ризонинг токенов растет ~линейно.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
42👍225😁2🤯2
Капча, с которой злой ИИ точно не справится
😁162🎉1513🗿6👍3🔥1