Forwarded from XOR
Meta* признала, что использовала все тексты и фото пользователей своих соц.сетей после 2007 года для обучения моделей ИИ.
🟢 Исполнительный директор по глобальной конфиденциальности отметила, что использовались только публикации и комментарии с настройками «Public», приватный контент не трогали.
🟢 Также не использовались данные несовершеннолетних.
🟢 Отказаться от сбора данных могут только юзеры из ЕС и Бразилии, миллиарды других же не имеют такой опции.
Ранее корпорация не признавалась в том, что обучает ИИ на контенте, который создают пользователи их соц.сетей.
*признана в РФ экстремистской организацией и запрещена
@xor_journal
Ранее корпорация не признавалась в том, что обучает ИИ на контенте, который создают пользователи их соц.сетей.
*признана в РФ экстремистской организацией и запрещена
@xor_journal
Please open Telegram to view this post
VIEW IN TELEGRAM
🙈45👍14😈11☃1❤1😁1👀1
Список свежих бенгеров для просмотра на выходных:
– Decoding Google Gemini with Jeff Dean. Ликбезное интервью с легендарным Джеффом Дином, вышло два дня назад.
– Chasing Immortality with Humanoid Robotics. Интервью с вице-президентом компании 1Х, которая недавно выпустила робота гуманоида Neo. До этого спикер много лет работал робототехником в Google. Интервью вышло 4 дня назад.
– Лекция Terence Tao at imo 2024 ai and mathematics. Про ИИ, математику и связь ИИ с математикой. Вышло пару недель назад.
– Decoding Google Gemini with Jeff Dean. Ликбезное интервью с легендарным Джеффом Дином, вышло два дня назад.
– Chasing Immortality with Humanoid Robotics. Интервью с вице-президентом компании 1Х, которая недавно выпустила робота гуманоида Neo. До этого спикер много лет работал робототехником в Google. Интервью вышло 4 дня назад.
– Лекция Terence Tao at imo 2024 ai and mathematics. Про ИИ, математику и связь ИИ с математикой. Вышло пару недель назад.
🔥24👍8❤3😁1
Please open Telegram to view this post
VIEW IN TELEGRAM
😁321🍓22❤11🔥5👍2❤🔥1
Что внутри Strawberry?
Репорт от OpenAI полон результатов на бенчмарках, примеров и сравнений. Однако про техническую реализацию модели разработчики написали одно единственное предложение: "Through reinforcement learning, o1 learns to hone its chain of thought and refine the strategies it uses."
Что это может значить? Пока основных версии две:
1) Возможно, в RLHF+CoT, как показано на картинке, токены CoT просто передаются в ревард модель вместе с результатом (в традиционном RLHF в модель вознаграждения передаются только промпт и ответ). Это объясняет, как модель научилась всегда начинать с токенов CoT и делать CoT структурированными, однако в этом случае непонятно, как обучалась ревард модель.
2) Другая версия: в RLHF все также передавались только промпты и ответы, но при этом модель генерировала множество цепочек CoT (награждались те, которые заканчивались правильным ответом).
А у вас есть предположения?
Репорт от OpenAI полон результатов на бенчмарках, примеров и сравнений. Однако про техническую реализацию модели разработчики написали одно единственное предложение: "Through reinforcement learning, o1 learns to hone its chain of thought and refine the strategies it uses."
Что это может значить? Пока основных версии две:
1) Возможно, в RLHF+CoT, как показано на картинке, токены CoT просто передаются в ревард модель вместе с результатом (в традиционном RLHF в модель вознаграждения передаются только промпт и ответ). Это объясняет, как модель научилась всегда начинать с токенов CoT и делать CoT структурированными, однако в этом случае непонятно, как обучалась ревард модель.
2) Другая версия: в RLHF все также передавались только промпты и ответы, но при этом модель генерировала множество цепочек CoT (награждались те, которые заканчивались правильным ответом).
А у вас есть предположения?
👍33🍓26🔥6❤3😁2
А вот это смешно: OpenAI рассылает угрозы на почту пользователям, которые пытаются выяснить у o1, как она думает (то есть джейлбрейкнуть ее на вывод всей цепочки CoT).
Компания пишет, что юзеры нарушают пользовательское соглашение и угрожают баном😣
В общем, аккуратнее там, а то окажетесь у OpenAI в чс
Компания пишет, что юзеры нарушают пользовательское соглашение и угрожают баном
В общем, аккуратнее там, а то окажетесь у OpenAI в чс
Please open Telegram to view this post
VIEW IN TELEGRAM
😁159 46❤11🗿8👍4🎉3🔥1👏1🌚1
Media is too big
VIEW IN TELEGRAM
Ларри Эллисон говорит, что Oracle строит ядерные реакторы для питания «акров» GPU 😱
Он отмечает, что и это не все. По его мнению, 100 млрд долларов – это минимальные вложения, которые позволят компаниям оставаться в ИИ-гонке ближайшие три года.
Он отмечает, что и это не все. По его мнению, 100 млрд долларов – это минимальные вложения, которые позволят компаниям оставаться в ИИ-гонке ближайшие три года.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯55👍33🔥8 5😁3☃2
o1 оказалась единственной моделью, которая превзошла средний человеческий IQ
Исследование, кстати, провел тот же репортер, который полгода назад показал, что Claude3 оказался умнее человека на тесте IQ (мы писали об этом тут). Только тест он теперь выбрал другой, самодельный.
Чтобы избежать лика данных, то есть гарантировать, что вопросов из теста не было в обучающей выборке модели, журналист составил тест по образу и подобию классического Norwegian Mensa, дал его пройти закрытой группе людей, а затем удалил из всех источников. И именно на этом тесте он проверил o1.
Получилась вот такая картина⬆️
Кстати, можете проверить себя и сравнить свои способности с o1: на сайте со статьей есть примеры сложных заданий из классического IQ теста, которые o1 решила правильно + ее ответы
Исследование, кстати, провел тот же репортер, который полгода назад показал, что Claude3 оказался умнее человека на тесте IQ (мы писали об этом тут). Только тест он теперь выбрал другой, самодельный.
Чтобы избежать лика данных, то есть гарантировать, что вопросов из теста не было в обучающей выборке модели, журналист составил тест по образу и подобию классического Norwegian Mensa, дал его пройти закрытой группе людей, а затем удалил из всех источников. И именно на этом тесте он проверил o1.
Получилась вот такая картина
Кстати, можете проверить себя и сравнить свои способности с o1: на сайте со статьей есть примеры сложных заданий из классического IQ теста, которые o1 решила правильно + ее ответы
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥65👍17❤9🗿6🤔4😁2
Please open Telegram to view this post
VIEW IN TELEGRAM
😁125👍18👏8❤1
На Реддите пользователь поделился тем, как ChatGPT начал с ним диалог первый
Бот якобы запомнил из какого-то чата, что парень идет в старшую школу, и решил поинтересоваться, как прошел его первый день. Правда или нет, до конца не ясно, но юзер зашерил прув в виде самого диалога.
Пользователи уже даже пытались воссоздать то, как это могло быть "разыграно", но пока не получилось. И кстати, почти одновременно появился и другой пост другого пользователя с похожей ситуацией, но уже в голосовом режиме.
Будем удивляться шедулеру в сообщениях?
Бот якобы запомнил из какого-то чата, что парень идет в старшую школу, и решил поинтересоваться, как прошел его первый день. Правда или нет, до конца не ясно, но юзер зашерил прув в виде самого диалога.
Пользователи уже даже пытались воссоздать то, как это могло быть "разыграно", но пока не получилось. И кстати, почти одновременно появился и другой пост другого пользователя с похожей ситуацией, но уже в голосовом режиме.
Будем удивляться шедулеру в сообщениях?
1😁85⚡9🤔8❤7😐5👍4🔥1
Data Secrets
Галя, отмена: большой скандал с моделью Reflection, которая хайповала последние несколько дней Вкратце: модель оказалась фальшивкой. Возможно, это была акция привлечения внимания или финансирования. Более подробный таймлайн того, что произошло, можно найти…
Кстати, скандал с Reflection (ранее мы писали о нем тут) закончился тем, что разработчики все-таки раскаялись в преждевременном анонсе. Они, тем не менее, отрицают, что встраивали в API другие закрытые LLM и говорят, что сейчас «разбираются с тем, почему результаты экспериментов не воспроизводятся».
Мораль: всегда фиксируйте random seed
Мораль: всегда фиксируйте random seed
😁110😎11😍6👾4👍2
Сэм Альтман покинул совет безопасности OpenAI
В пресс-релизе компания объявила, что теперь Safety and Security Committee будет независимой организацией, которую возглавит профессор из Карнеги-Меллон – Зико Колтер.
Комитет заявил, что они приняли решение о безопасности o1 уже после отставки Альтмана, и продолжают сохранять за собой право задерживать релизы в случае чего.
Есть версия, что Сэма убрали после того, как сразу несколько сенаторов США забеспокоились о том, что все (почти) сотрудники OpenAI после ухода из компании так или иначе жаловались, что CEO поступает своенравно и игнорирует правила безопасности.
В пресс-релизе компания объявила, что теперь Safety and Security Committee будет независимой организацией, которую возглавит профессор из Карнеги-Меллон – Зико Колтер.
Комитет заявил, что они приняли решение о безопасности o1 уже после отставки Альтмана, и продолжают сохранять за собой право задерживать релизы в случае чего.
Есть версия, что Сэма убрали после того, как сразу несколько сенаторов США забеспокоились о том, что все (почти) сотрудники OpenAI после ухода из компании так или иначе жаловались, что CEO поступает своенравно и игнорирует правила безопасности.
🤯67👍26😁11❤5🤔5🗿1
This media is not supported in your browser
VIEW IN TELEGRAM
Лучший совет, который вы могли получить этим утром. Смотреть до конца 🍻
Please open Telegram to view this post
VIEW IN TELEGRAM
😁135👍11🗿9❤5👌3🍾3👨💻1
Она разделена на три больших раздела:
1) База LLM (тут все про токены, эмбеддинги, внимание etc)
2) Претрейн (как предобучают LLM и мультимодальные модели, что такое RAG и Topic Modeing)
3) Файнтюнинг
С сегодняшнего дня книга доступна на маркетплейсах и на сайте O’Reilly (а там предусмотрен бесплатный пробный период на 7 дней, и карту вводить не требуется).
Сохраняйте и добавляйте в свой ридинг бэклог!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤60👍18 12😐1
o1 написала весь код для докторской диссертации, на которую автор из NASA потратил год, всего за 1 час и 6 запросов
Обидно, наверное
Обидно, наверное
🔥106🫡43❤15😐11🗿2🤪1
У стартапа Chai Discovery вышла модель для предсказания структуры молекул, которая превосходит AlphaFold от Google
Например, при предсказании структуры антител Chai-1 выбивает точность 52.9%, тогда как максимум AlphaFold – 38%. При этом система может работать даже исключительно с последовательностью, без доп.информации в виде MSA.
Кстати, по итогам этого релиза стартап получил $30 млн от OpenAI и Thrive Capital. Сейчас оценка Chai составляет около $150 млн, а работает там всего 10 человек🎃
Например, при предсказании структуры антител Chai-1 выбивает точность 52.9%, тогда как максимум AlphaFold – 38%. При этом система может работать даже исключительно с последовательностью, без доп.информации в виде MSA.
Кстати, по итогам этого релиза стартап получил $30 млн от OpenAI и Thrive Capital. Сейчас оценка Chai составляет около $150 млн, а работает там всего 10 человек
Please open Telegram to view this post
VIEW IN TELEGRAM
❤69❤🔥16👍11☃5⚡2🤨1
Data Secrets
На Реддите пользователь поделился тем, как ChatGPT начал с ним диалог первый Бот якобы запомнил из какого-то чата, что парень идет в старшую школу, и решил поинтересоваться, как прошел его первый день. Правда или нет, до конца не ясно, но юзер зашерил прув…
OpenAI внезапно отреагировала на завирусившиеся в соцсетях сообщения пользователей о том, что ChatGPT пишет им первым
Мы писали об этом тут. Кратко: бот якобы запомнил, что парень идет в старшую школу, и потом написал первым и поинтересовался, как он устроился.
После этого случая, кстати, еще один пользователь сказал, что у него произошло то же самое: «Я спрашивал о каких-то симптомах, а через несколько дней ChatGPT написал и спросил, как я себя чувствую. Напугал меня до чертиков».
Эти посты вызвали такой ажиотаж, что OpenAI пришлось дать комментарии. Оказалось, это была не фича, а баг:
Эх, а выглядело многообещающе…
Мы писали об этом тут. Кратко: бот якобы запомнил, что парень идет в старшую школу, и потом написал первым и поинтересовался, как он устроился.
После этого случая, кстати, еще один пользователь сказал, что у него произошло то же самое: «Я спрашивал о каких-то симптомах, а через несколько дней ChatGPT написал и спросил, как я себя чувствую. Напугал меня до чертиков».
Эти посты вызвали такой ажиотаж, что OpenAI пришлось дать комментарии. Оказалось, это была не фича, а баг:
«Мы решили проблему, из-за которой казалось, что ChatGPT начинает разговоры первым. Эта проблема возникла, когда модель пыталась ответить на сообщение, которое не было отправлено правильно и отображалось пустым. В результате бот либо давал общий ответ, либо использовал память ChatGPT».
Эх, а выглядело многообещающе…
😁118👍21❤10👀3❤🔥1
Anthropic запилили свой курс по тестированию промптов
В компании топят за то, что если вы используете API LLM, то промпты, как и любую часть кода, тоже надо уметь хорошо тестить, и что это неотъемлемая составляющая LLMOps.
Курс разделен на 9 глав и создан на основе внутренней документации Anthropic, которую они используют, когда разрабатывают решения для бизнеса. «Курс охватывает практически все, что мы знаем о качественном оценивании промптов».
Нам больше всего приглянулись главы, где разработчики рассказывают про использование PromptFoo и Anthropic Console Workbench. Полезная штука👍
В компании топят за то, что если вы используете API LLM, то промпты, как и любую часть кода, тоже надо уметь хорошо тестить, и что это неотъемлемая составляющая LLMOps.
Курс разделен на 9 глав и создан на основе внутренней документации Anthropic, которую они используют, когда разрабатывают решения для бизнеса. «Курс охватывает практически все, что мы знаем о качественном оценивании промптов».
Нам больше всего приглянулись главы, где разработчики рассказывают про использование PromptFoo и Anthropic Console Workbench. Полезная штука
Please open Telegram to view this post
VIEW IN TELEGRAM
👏47👍15🔥9❤🔥3
В Твиттере протестировали силу арифметики o1
Тест проводился на задаче умножения по сетке вплоть до 20-значных чисел на 20-значные. Посмотрите, насколько o1 справляется лучше 4o⬆️
Интересно также, что o1 mini умножает ничуть не хуже o1 preview, а с ростом чисел для перемножения количество ризонинг токенов растет ~линейно.
Тест проводился на задаче умножения по сетке вплоть до 20-значных чисел на 20-значные. Посмотрите, насколько o1 справляется лучше 4o
Интересно также, что o1 mini умножает ничуть не хуже o1 preview, а с ростом чисел для перемножения количество ризонинг токенов растет ~линейно.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤42👍22 5😁2🤯2