Media is too big
VIEW IN TELEGRAM
Ларри Эллисон говорит, что Oracle строит ядерные реакторы для питания «акров» GPU 😱
Он отмечает, что и это не все. По его мнению, 100 млрд долларов – это минимальные вложения, которые позволят компаниям оставаться в ИИ-гонке ближайшие три года.
Он отмечает, что и это не все. По его мнению, 100 млрд долларов – это минимальные вложения, которые позволят компаниям оставаться в ИИ-гонке ближайшие три года.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯55👍33🔥8 5😁3☃2
o1 оказалась единственной моделью, которая превзошла средний человеческий IQ
Исследование, кстати, провел тот же репортер, который полгода назад показал, что Claude3 оказался умнее человека на тесте IQ (мы писали об этом тут). Только тест он теперь выбрал другой, самодельный.
Чтобы избежать лика данных, то есть гарантировать, что вопросов из теста не было в обучающей выборке модели, журналист составил тест по образу и подобию классического Norwegian Mensa, дал его пройти закрытой группе людей, а затем удалил из всех источников. И именно на этом тесте он проверил o1.
Получилась вот такая картина⬆️
Кстати, можете проверить себя и сравнить свои способности с o1: на сайте со статьей есть примеры сложных заданий из классического IQ теста, которые o1 решила правильно + ее ответы
Исследование, кстати, провел тот же репортер, который полгода назад показал, что Claude3 оказался умнее человека на тесте IQ (мы писали об этом тут). Только тест он теперь выбрал другой, самодельный.
Чтобы избежать лика данных, то есть гарантировать, что вопросов из теста не было в обучающей выборке модели, журналист составил тест по образу и подобию классического Norwegian Mensa, дал его пройти закрытой группе людей, а затем удалил из всех источников. И именно на этом тесте он проверил o1.
Получилась вот такая картина
Кстати, можете проверить себя и сравнить свои способности с o1: на сайте со статьей есть примеры сложных заданий из классического IQ теста, которые o1 решила правильно + ее ответы
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥65👍17❤9🗿6🤔4😁2
Please open Telegram to view this post
VIEW IN TELEGRAM
😁125👍18👏8❤1
На Реддите пользователь поделился тем, как ChatGPT начал с ним диалог первый
Бот якобы запомнил из какого-то чата, что парень идет в старшую школу, и решил поинтересоваться, как прошел его первый день. Правда или нет, до конца не ясно, но юзер зашерил прув в виде самого диалога.
Пользователи уже даже пытались воссоздать то, как это могло быть "разыграно", но пока не получилось. И кстати, почти одновременно появился и другой пост другого пользователя с похожей ситуацией, но уже в голосовом режиме.
Будем удивляться шедулеру в сообщениях?
Бот якобы запомнил из какого-то чата, что парень идет в старшую школу, и решил поинтересоваться, как прошел его первый день. Правда или нет, до конца не ясно, но юзер зашерил прув в виде самого диалога.
Пользователи уже даже пытались воссоздать то, как это могло быть "разыграно", но пока не получилось. И кстати, почти одновременно появился и другой пост другого пользователя с похожей ситуацией, но уже в голосовом режиме.
Будем удивляться шедулеру в сообщениях?
1😁85⚡9🤔8❤7😐5👍4🔥1
Data Secrets
Галя, отмена: большой скандал с моделью Reflection, которая хайповала последние несколько дней Вкратце: модель оказалась фальшивкой. Возможно, это была акция привлечения внимания или финансирования. Более подробный таймлайн того, что произошло, можно найти…
Кстати, скандал с Reflection (ранее мы писали о нем тут) закончился тем, что разработчики все-таки раскаялись в преждевременном анонсе. Они, тем не менее, отрицают, что встраивали в API другие закрытые LLM и говорят, что сейчас «разбираются с тем, почему результаты экспериментов не воспроизводятся».
Мораль: всегда фиксируйте random seed
Мораль: всегда фиксируйте random seed
😁110😎11😍6👾4👍2
Сэм Альтман покинул совет безопасности OpenAI
В пресс-релизе компания объявила, что теперь Safety and Security Committee будет независимой организацией, которую возглавит профессор из Карнеги-Меллон – Зико Колтер.
Комитет заявил, что они приняли решение о безопасности o1 уже после отставки Альтмана, и продолжают сохранять за собой право задерживать релизы в случае чего.
Есть версия, что Сэма убрали после того, как сразу несколько сенаторов США забеспокоились о том, что все (почти) сотрудники OpenAI после ухода из компании так или иначе жаловались, что CEO поступает своенравно и игнорирует правила безопасности.
В пресс-релизе компания объявила, что теперь Safety and Security Committee будет независимой организацией, которую возглавит профессор из Карнеги-Меллон – Зико Колтер.
Комитет заявил, что они приняли решение о безопасности o1 уже после отставки Альтмана, и продолжают сохранять за собой право задерживать релизы в случае чего.
Есть версия, что Сэма убрали после того, как сразу несколько сенаторов США забеспокоились о том, что все (почти) сотрудники OpenAI после ухода из компании так или иначе жаловались, что CEO поступает своенравно и игнорирует правила безопасности.
🤯67👍26😁11❤5🤔5🗿1
This media is not supported in your browser
VIEW IN TELEGRAM
Лучший совет, который вы могли получить этим утром. Смотреть до конца 🍻
Please open Telegram to view this post
VIEW IN TELEGRAM
😁135👍11🗿9❤5👌3🍾3👨💻1
Она разделена на три больших раздела:
1) База LLM (тут все про токены, эмбеддинги, внимание etc)
2) Претрейн (как предобучают LLM и мультимодальные модели, что такое RAG и Topic Modeing)
3) Файнтюнинг
С сегодняшнего дня книга доступна на маркетплейсах и на сайте O’Reilly (а там предусмотрен бесплатный пробный период на 7 дней, и карту вводить не требуется).
Сохраняйте и добавляйте в свой ридинг бэклог!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤60👍18 12😐1
o1 написала весь код для докторской диссертации, на которую автор из NASA потратил год, всего за 1 час и 6 запросов
Обидно, наверное
Обидно, наверное
🔥106🫡43❤15😐11🗿2🤪1
У стартапа Chai Discovery вышла модель для предсказания структуры молекул, которая превосходит AlphaFold от Google
Например, при предсказании структуры антител Chai-1 выбивает точность 52.9%, тогда как максимум AlphaFold – 38%. При этом система может работать даже исключительно с последовательностью, без доп.информации в виде MSA.
Кстати, по итогам этого релиза стартап получил $30 млн от OpenAI и Thrive Capital. Сейчас оценка Chai составляет около $150 млн, а работает там всего 10 человек🎃
Например, при предсказании структуры антител Chai-1 выбивает точность 52.9%, тогда как максимум AlphaFold – 38%. При этом система может работать даже исключительно с последовательностью, без доп.информации в виде MSA.
Кстати, по итогам этого релиза стартап получил $30 млн от OpenAI и Thrive Capital. Сейчас оценка Chai составляет около $150 млн, а работает там всего 10 человек
Please open Telegram to view this post
VIEW IN TELEGRAM
❤69❤🔥16👍11☃5⚡2🤨1
Data Secrets
На Реддите пользователь поделился тем, как ChatGPT начал с ним диалог первый Бот якобы запомнил из какого-то чата, что парень идет в старшую школу, и решил поинтересоваться, как прошел его первый день. Правда или нет, до конца не ясно, но юзер зашерил прув…
OpenAI внезапно отреагировала на завирусившиеся в соцсетях сообщения пользователей о том, что ChatGPT пишет им первым
Мы писали об этом тут. Кратко: бот якобы запомнил, что парень идет в старшую школу, и потом написал первым и поинтересовался, как он устроился.
После этого случая, кстати, еще один пользователь сказал, что у него произошло то же самое: «Я спрашивал о каких-то симптомах, а через несколько дней ChatGPT написал и спросил, как я себя чувствую. Напугал меня до чертиков».
Эти посты вызвали такой ажиотаж, что OpenAI пришлось дать комментарии. Оказалось, это была не фича, а баг:
Эх, а выглядело многообещающе…
Мы писали об этом тут. Кратко: бот якобы запомнил, что парень идет в старшую школу, и потом написал первым и поинтересовался, как он устроился.
После этого случая, кстати, еще один пользователь сказал, что у него произошло то же самое: «Я спрашивал о каких-то симптомах, а через несколько дней ChatGPT написал и спросил, как я себя чувствую. Напугал меня до чертиков».
Эти посты вызвали такой ажиотаж, что OpenAI пришлось дать комментарии. Оказалось, это была не фича, а баг:
«Мы решили проблему, из-за которой казалось, что ChatGPT начинает разговоры первым. Эта проблема возникла, когда модель пыталась ответить на сообщение, которое не было отправлено правильно и отображалось пустым. В результате бот либо давал общий ответ, либо использовал память ChatGPT».
Эх, а выглядело многообещающе…
😁118👍21❤10👀3❤🔥1
Anthropic запилили свой курс по тестированию промптов
В компании топят за то, что если вы используете API LLM, то промпты, как и любую часть кода, тоже надо уметь хорошо тестить, и что это неотъемлемая составляющая LLMOps.
Курс разделен на 9 глав и создан на основе внутренней документации Anthropic, которую они используют, когда разрабатывают решения для бизнеса. «Курс охватывает практически все, что мы знаем о качественном оценивании промптов».
Нам больше всего приглянулись главы, где разработчики рассказывают про использование PromptFoo и Anthropic Console Workbench. Полезная штука👍
В компании топят за то, что если вы используете API LLM, то промпты, как и любую часть кода, тоже надо уметь хорошо тестить, и что это неотъемлемая составляющая LLMOps.
Курс разделен на 9 глав и создан на основе внутренней документации Anthropic, которую они используют, когда разрабатывают решения для бизнеса. «Курс охватывает практически все, что мы знаем о качественном оценивании промптов».
Нам больше всего приглянулись главы, где разработчики рассказывают про использование PromptFoo и Anthropic Console Workbench. Полезная штука
Please open Telegram to view this post
VIEW IN TELEGRAM
👏47👍15🔥9❤🔥3
В Твиттере протестировали силу арифметики o1
Тест проводился на задаче умножения по сетке вплоть до 20-значных чисел на 20-значные. Посмотрите, насколько o1 справляется лучше 4o⬆️
Интересно также, что o1 mini умножает ничуть не хуже o1 preview, а с ростом чисел для перемножения количество ризонинг токенов растет ~линейно.
Тест проводился на задаче умножения по сетке вплоть до 20-значных чисел на 20-значные. Посмотрите, насколько o1 справляется лучше 4o
Интересно также, что o1 mini умножает ничуть не хуже o1 preview, а с ростом чисел для перемножения количество ризонинг токенов растет ~линейно.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤42👍22 5😁2🤯2
Data Secrets
Розыгрыш Machine Learning футболок В честь запуска сайта с ML-вакансиями команда Data Secrets запускает розыгрыш 10 футболок для истинных любителей глубокого обучения. Это лимитированная линейка нашего бренда. Каждая футболка – целый альманах, на котором…
🎉 Результаты розыгрыша:
Победители:
1. Екатерина (@Ekaterina_Vorobevaa)
2. Mikhail (@MikhailRepkin)
3. Никита (@zitrnika)
4. Artem (@yoru_main)
5. Lucky (@gribochek_dasha)
6. Y (@nervumoons)
7. Антон (@orionu)
8. Arkady (@SomnambuIus)
9. Азим (@azim_analyst)
10. Bob (@boris_2001_light)
Проверить результаты
Победители:
1. Екатерина (@Ekaterina_Vorobevaa)
2. Mikhail (@MikhailRepkin)
3. Никита (@zitrnika)
4. Artem (@yoru_main)
5. Lucky (@gribochek_dasha)
6. Y (@nervumoons)
7. Антон (@orionu)
8. Arkady (@SomnambuIus)
9. Азим (@azim_analyst)
10. Bob (@boris_2001_light)
Проверить результаты
🫡36❤13🤯7🎉5👍4🤓3❤🔥2
Nvidia выпустила NVLM 1.0 – собственную мультимодальную LLM, которая на некоторых тестах опережает GPT-4o
NVLM 1.0 (NVIDIA Vision Language Model) – это семейство открытых мультимодальных LLM, состоящее из моделей NVLM-D (Decoder-only Model), NVLM-X (X-attention Model) и NVLM-H (Hybrid Model) на 34B и 72B.
Модели особенно хорошо показывают себя на визуальных задачах. Например, на OCRBench NVLM-D обогнала даже GPT-4o. На вопросах по математике модель тоже выделяется: обгоняет Gemini и всего на 3 пункта отстает от Claude 3.5.
Архитектура у всех трех примерно одинковая, не считая обработку изображений. NVLM-D использует для картинок предобученный энкодер, который соединен с обычным двухслойным перцептроном (эффективно по параметрам, но кушает много GPU). NVLM-Х же для обработки токенов изображения использует cross-attention (не очень эффективно, зато лучше обрабатывает картинки с высоким разрешением). NVLM-H стала чем-то средним.
Больше технических деталей можно найти в статье. Веса самих моделей скоро можно будет найти на Hugging Face, а в этом репозитории лежит код.
NVLM 1.0 (NVIDIA Vision Language Model) – это семейство открытых мультимодальных LLM, состоящее из моделей NVLM-D (Decoder-only Model), NVLM-X (X-attention Model) и NVLM-H (Hybrid Model) на 34B и 72B.
Модели особенно хорошо показывают себя на визуальных задачах. Например, на OCRBench NVLM-D обогнала даже GPT-4o. На вопросах по математике модель тоже выделяется: обгоняет Gemini и всего на 3 пункта отстает от Claude 3.5.
Архитектура у всех трех примерно одинковая, не считая обработку изображений. NVLM-D использует для картинок предобученный энкодер, который соединен с обычным двухслойным перцептроном (эффективно по параметрам, но кушает много GPU). NVLM-Х же для обработки токенов изображения использует cross-attention (не очень эффективно, зато лучше обрабатывает картинки с высоким разрешением). NVLM-H стала чем-то средним.
Больше технических деталей можно найти в статье. Веса самих моделей скоро можно будет найти на Hugging Face, а в этом репозитории лежит код.
⚡47👍14❤13 2