Data Secrets
78.8K subscribers
6.42K photos
667 videos
20 files
2.71K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Лучший совет, который вы могли получить этим утром. Смотреть до конца 🍻
Please open Telegram to view this post
VIEW IN TELEGRAM
😁135👍11🗿95👌3🍾3👨‍💻1
🕺 Вышла новая крутая книга "Hands-On Large Language Models"

Она разделена на три больших раздела:

1) База LLM (тут все про токены, эмбеддинги, внимание etc)
2) Претрейн (как предобучают LLM и мультимодальные модели, что такое RAG и Topic Modeing)
3) Файнтюнинг

С сегодняшнего дня книга доступна на маркетплейсах и на сайте O’Reilly (а там предусмотрен бесплатный пробный период на 7 дней, и карту вводить не требуется).

Сохраняйте и добавляйте в свой ридинг бэклог!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
60👍1812😐1
o1 написала весь код для докторской диссертации, на которую автор из NASA потратил год, всего за 1 час и 6 запросов

Обидно, наверное
🔥106🫡4315😐11🗿2🤪1
У стартапа Chai Discovery вышла модель для предсказания структуры молекул, которая превосходит AlphaFold от Google

Например, при предсказании структуры антител Chai-1 выбивает точность 52.9%, тогда как максимум AlphaFold – 38%. При этом система может работать даже исключительно с последовательностью, без доп.информации в виде MSA.

Кстати, по итогам этого релиза стартап получил $30 млн от OpenAI и Thrive Capital. Сейчас оценка Chai составляет около $150 млн, а работает там всего 10 человек 🎃
Please open Telegram to view this post
VIEW IN TELEGRAM
69❤‍🔥16👍1152🤨1
Коротко о происходящем
148😎29😁12🎃9🍌3👾32
Data Secrets
На Реддите пользователь поделился тем, как ChatGPT начал с ним диалог первый Бот якобы запомнил из какого-то чата, что парень идет в старшую школу, и решил поинтересоваться, как прошел его первый день. Правда или нет, до конца не ясно, но юзер зашерил прув…
OpenAI внезапно отреагировала на завирусившиеся в соцсетях сообщения пользователей о том, что ChatGPT пишет им первым

Мы писали об этом тут. Кратко: бот якобы запомнил, что парень идет в старшую школу, и потом написал первым и поинтересовался, как он устроился.

После этого случая, кстати, еще один пользователь сказал, что у него произошло то же самое: «Я спрашивал о каких-то симптомах, а через несколько дней ChatGPT написал и спросил, как я себя чувствую. Напугал меня до чертиков».

Эти посты вызвали такой ажиотаж, что OpenAI пришлось дать комментарии. Оказалось, это была не фича, а баг:
«Мы решили проблему, из-за которой казалось, что ChatGPT начинает разговоры первым. Эта проблема возникла, когда модель пыталась ответить на сообщение, которое не было отправлено правильно и отображалось пустым. В результате бот либо давал общий ответ, либо использовал память ChatGPT».


Эх, а выглядело многообещающе…
😁118👍2110👀3❤‍🔥1
Anthropic запилили свой курс по тестированию промптов

В компании топят за то, что если вы используете API LLM, то промпты, как и любую часть кода, тоже надо уметь хорошо тестить, и что это неотъемлемая составляющая LLMOps.

Курс разделен на 9 глав и создан на основе внутренней документации Anthropic, которую они используют, когда разрабатывают решения для бизнеса. «Курс охватывает практически все, что мы знаем о качественном оценивании промптов».

Нам больше всего приглянулись главы, где разработчики рассказывают про использование PromptFoo и Anthropic Console Workbench. Полезная штука 👍
Please open Telegram to view this post
VIEW IN TELEGRAM
👏47👍15🔥9❤‍🔥3
В Твиттере протестировали силу арифметики o1

Тест проводился на задаче умножения по сетке вплоть до 20-значных чисел на 20-значные. Посмотрите, насколько o1 справляется лучше 4o ⬆️

Интересно также, что o1 mini умножает ничуть не хуже o1 preview, а с ростом чисел для перемножения количество ризонинг токенов растет ~линейно.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
42👍225😁2🤯2
Капча, с которой злой ИИ точно не справится
😁162🎉1513🗿6👍3🔥1
Data Secrets
Розыгрыш Machine Learning футболок В честь запуска сайта с ML-вакансиями команда Data Secrets запускает розыгрыш 10 футболок для истинных любителей глубокого обучения. Это лимитированная линейка нашего бренда. Каждая футболка – целый альманах, на котором…
🎉 Результаты розыгрыша:

Победители:
1. Екатерина (@Ekaterina_Vorobevaa)
2. Mikhail (@MikhailRepkin)
3. Никита (@zitrnika)
4. Artem (@yoru_main)
5. Lucky (@gribochek_dasha)
6. Y (@nervumoons)
7. Антон (@orionu)
8. Arkady (@SomnambuIus)
9. Азим (@azim_analyst)
10. Bob (@boris_2001_light)

Проверить результаты
🫡3613🤯7🎉5👍4🤓3❤‍🔥2
Nvidia выпустила NVLM 1.0 – собственную мультимодальную LLM, которая на некоторых тестах опережает GPT-4o

NVLM 1.0 (NVIDIA Vision Language Model) – это семейство открытых мультимодальных LLM, состоящее из моделей NVLM-D (Decoder-only Model), NVLM-X (X-attention Model) и NVLM-H (Hybrid Model) на 34B и 72B.

Модели особенно хорошо показывают себя на визуальных задачах. Например, на OCRBench NVLM-D обогнала даже GPT-4o. На вопросах по математике модель тоже выделяется: обгоняет Gemini и всего на 3 пункта отстает от Claude 3.5.

Архитектура у всех трех примерно одинковая, не считая обработку изображений. NVLM-D использует для картинок предобученный энкодер, который соединен с обычным двухслойным перцептроном (эффективно по параметрам, но кушает много GPU). NVLM-Х же для обработки токенов изображения использует cross-attention (не очень эффективно, зато лучше обрабатывает картинки с высоким разрешением). NVLM-H стала чем-то средним.

Больше технических деталей можно найти в статье. Веса самих моделей скоро можно будет найти на Hugging Face, а в этом репозитории лежит код.
47👍14132
Там o1 порвала LMSYS арену

o1-preview взяла 1 место в общем лидерборде, а также с большим отрывом заняла лидерскую позицию в Math, Hard Prompts и Coding вкладках. o1-mini также #1 на тех.лидербордах, и #2 в общем.
61🔥26🍓20👍5
Выиграть $5000 и стать соавтором в статье с CEO ScaleAI в обмен всего на один вопрос?

Да запросто. CAIS и ScaleAI запустили конкурс вопросов для сложнейшего в мире бенчмарка для LLM. За каждый подходящий вопрос они обещают 500 до 5000 долларов, а также соавторство в статье.

Название конкурса, кстати, заслуживает отдельного внимания: Humanity’s Last Exam. Нельзя сабмитить вопросы, которые придумали не вы, вопросы, на которые легко ответить с помощью поисковика, вопросы без однозначного ответа или вопросы про оружие. В остальном – дело фантазии.

Все правила можно прочитать здесь. Пробовать будете? 😉
Please open Telegram to view this post
VIEW IN TELEGRAM
👍467🔥6😁2🤪1
This media is not supported in your browser
VIEW IN TELEGRAM
Сэм Альтман в новом выступлении пояснил за уровни развития ИИ. По его мнению, ступеней всего пять:

1. Чат-боты
2. Ризонеры (рассуждающие чат-боты) <- после выхода o1 вы находитесь здесь
3. Агенты
4. Инноваторы (ИИ, который может делать научные открытия)
5. И, наконец, целые организации, состоящие из ИИ-агентов

Переход c уровня один на уровень два занял у нас очень много времени, но благодаря этому сейчас мы ускоренно двигаемся на уровень три.
👍8825🤔19😁9🤯2👻2❤‍🔥1🔥1
No Context Russia
😁11816❤‍🔥10👍3🎃3👌1👨‍💻1
Тем временем что-то надвигается: CEO GitHub твитнул прозначнейший намек на o1
1🍓8224😁133👻1
🚀 Разыгрываем футболку за вопрос в комментариях

После последних розыгрышей многие спрашивали, продается ли наш мерч. Отвечаем: пока нет. Но есть хорошая новость: мы вдохновились новым конкурсом вопросов для бенчмарков LLM и решили провести свой собственный!

5000 долларов не обещаем, но победитель получит ту самую нашу Deep Learning футболку-альманах!

Правила просты: пишите под этим постом один вопрос, который вы бы задали модели, чтобы точно определить, AGI перед вами или еще нет. В финал пройдут самые залайканные комменты, а победителя выберем завтра вечером с помощью опроса в канале.

Ждем в комментариях именно твой остроумный вариант! Погнали 🏃‍♂️
Please open Telegram to view this post
VIEW IN TELEGRAM
1026🔥86👍2