This media is not supported in your browser
VIEW IN TELEGRAM
Лучший совет, который вы могли получить этим утром. Смотреть до конца 🍻
Please open Telegram to view this post
VIEW IN TELEGRAM
😁135👍11🗿9❤5👌3🍾3👨💻1
Она разделена на три больших раздела:
1) База LLM (тут все про токены, эмбеддинги, внимание etc)
2) Претрейн (как предобучают LLM и мультимодальные модели, что такое RAG и Topic Modeing)
3) Файнтюнинг
С сегодняшнего дня книга доступна на маркетплейсах и на сайте O’Reilly (а там предусмотрен бесплатный пробный период на 7 дней, и карту вводить не требуется).
Сохраняйте и добавляйте в свой ридинг бэклог!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤60👍18 12😐1
o1 написала весь код для докторской диссертации, на которую автор из NASA потратил год, всего за 1 час и 6 запросов
Обидно, наверное
Обидно, наверное
🔥106🫡43❤15😐11🗿2🤪1
У стартапа Chai Discovery вышла модель для предсказания структуры молекул, которая превосходит AlphaFold от Google
Например, при предсказании структуры антител Chai-1 выбивает точность 52.9%, тогда как максимум AlphaFold – 38%. При этом система может работать даже исключительно с последовательностью, без доп.информации в виде MSA.
Кстати, по итогам этого релиза стартап получил $30 млн от OpenAI и Thrive Capital. Сейчас оценка Chai составляет около $150 млн, а работает там всего 10 человек🎃
Например, при предсказании структуры антител Chai-1 выбивает точность 52.9%, тогда как максимум AlphaFold – 38%. При этом система может работать даже исключительно с последовательностью, без доп.информации в виде MSA.
Кстати, по итогам этого релиза стартап получил $30 млн от OpenAI и Thrive Capital. Сейчас оценка Chai составляет около $150 млн, а работает там всего 10 человек
Please open Telegram to view this post
VIEW IN TELEGRAM
❤69❤🔥16👍11☃5⚡2🤨1
Data Secrets
На Реддите пользователь поделился тем, как ChatGPT начал с ним диалог первый Бот якобы запомнил из какого-то чата, что парень идет в старшую школу, и решил поинтересоваться, как прошел его первый день. Правда или нет, до конца не ясно, но юзер зашерил прув…
OpenAI внезапно отреагировала на завирусившиеся в соцсетях сообщения пользователей о том, что ChatGPT пишет им первым
Мы писали об этом тут. Кратко: бот якобы запомнил, что парень идет в старшую школу, и потом написал первым и поинтересовался, как он устроился.
После этого случая, кстати, еще один пользователь сказал, что у него произошло то же самое: «Я спрашивал о каких-то симптомах, а через несколько дней ChatGPT написал и спросил, как я себя чувствую. Напугал меня до чертиков».
Эти посты вызвали такой ажиотаж, что OpenAI пришлось дать комментарии. Оказалось, это была не фича, а баг:
Эх, а выглядело многообещающе…
Мы писали об этом тут. Кратко: бот якобы запомнил, что парень идет в старшую школу, и потом написал первым и поинтересовался, как он устроился.
После этого случая, кстати, еще один пользователь сказал, что у него произошло то же самое: «Я спрашивал о каких-то симптомах, а через несколько дней ChatGPT написал и спросил, как я себя чувствую. Напугал меня до чертиков».
Эти посты вызвали такой ажиотаж, что OpenAI пришлось дать комментарии. Оказалось, это была не фича, а баг:
«Мы решили проблему, из-за которой казалось, что ChatGPT начинает разговоры первым. Эта проблема возникла, когда модель пыталась ответить на сообщение, которое не было отправлено правильно и отображалось пустым. В результате бот либо давал общий ответ, либо использовал память ChatGPT».
Эх, а выглядело многообещающе…
😁118👍21❤10👀3❤🔥1
Anthropic запилили свой курс по тестированию промптов
В компании топят за то, что если вы используете API LLM, то промпты, как и любую часть кода, тоже надо уметь хорошо тестить, и что это неотъемлемая составляющая LLMOps.
Курс разделен на 9 глав и создан на основе внутренней документации Anthropic, которую они используют, когда разрабатывают решения для бизнеса. «Курс охватывает практически все, что мы знаем о качественном оценивании промптов».
Нам больше всего приглянулись главы, где разработчики рассказывают про использование PromptFoo и Anthropic Console Workbench. Полезная штука👍
В компании топят за то, что если вы используете API LLM, то промпты, как и любую часть кода, тоже надо уметь хорошо тестить, и что это неотъемлемая составляющая LLMOps.
Курс разделен на 9 глав и создан на основе внутренней документации Anthropic, которую они используют, когда разрабатывают решения для бизнеса. «Курс охватывает практически все, что мы знаем о качественном оценивании промптов».
Нам больше всего приглянулись главы, где разработчики рассказывают про использование PromptFoo и Anthropic Console Workbench. Полезная штука
Please open Telegram to view this post
VIEW IN TELEGRAM
👏47👍15🔥9❤🔥3
В Твиттере протестировали силу арифметики o1
Тест проводился на задаче умножения по сетке вплоть до 20-значных чисел на 20-значные. Посмотрите, насколько o1 справляется лучше 4o⬆️
Интересно также, что o1 mini умножает ничуть не хуже o1 preview, а с ростом чисел для перемножения количество ризонинг токенов растет ~линейно.
Тест проводился на задаче умножения по сетке вплоть до 20-значных чисел на 20-значные. Посмотрите, насколько o1 справляется лучше 4o
Интересно также, что o1 mini умножает ничуть не хуже o1 preview, а с ростом чисел для перемножения количество ризонинг токенов растет ~линейно.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤42👍22 5😁2🤯2
Data Secrets
Розыгрыш Machine Learning футболок В честь запуска сайта с ML-вакансиями команда Data Secrets запускает розыгрыш 10 футболок для истинных любителей глубокого обучения. Это лимитированная линейка нашего бренда. Каждая футболка – целый альманах, на котором…
🎉 Результаты розыгрыша:
Победители:
1. Екатерина (@Ekaterina_Vorobevaa)
2. Mikhail (@MikhailRepkin)
3. Никита (@zitrnika)
4. Artem (@yoru_main)
5. Lucky (@gribochek_dasha)
6. Y (@nervumoons)
7. Антон (@orionu)
8. Arkady (@SomnambuIus)
9. Азим (@azim_analyst)
10. Bob (@boris_2001_light)
Проверить результаты
Победители:
1. Екатерина (@Ekaterina_Vorobevaa)
2. Mikhail (@MikhailRepkin)
3. Никита (@zitrnika)
4. Artem (@yoru_main)
5. Lucky (@gribochek_dasha)
6. Y (@nervumoons)
7. Антон (@orionu)
8. Arkady (@SomnambuIus)
9. Азим (@azim_analyst)
10. Bob (@boris_2001_light)
Проверить результаты
🫡36❤13🤯7🎉5👍4🤓3❤🔥2
Nvidia выпустила NVLM 1.0 – собственную мультимодальную LLM, которая на некоторых тестах опережает GPT-4o
NVLM 1.0 (NVIDIA Vision Language Model) – это семейство открытых мультимодальных LLM, состоящее из моделей NVLM-D (Decoder-only Model), NVLM-X (X-attention Model) и NVLM-H (Hybrid Model) на 34B и 72B.
Модели особенно хорошо показывают себя на визуальных задачах. Например, на OCRBench NVLM-D обогнала даже GPT-4o. На вопросах по математике модель тоже выделяется: обгоняет Gemini и всего на 3 пункта отстает от Claude 3.5.
Архитектура у всех трех примерно одинковая, не считая обработку изображений. NVLM-D использует для картинок предобученный энкодер, который соединен с обычным двухслойным перцептроном (эффективно по параметрам, но кушает много GPU). NVLM-Х же для обработки токенов изображения использует cross-attention (не очень эффективно, зато лучше обрабатывает картинки с высоким разрешением). NVLM-H стала чем-то средним.
Больше технических деталей можно найти в статье. Веса самих моделей скоро можно будет найти на Hugging Face, а в этом репозитории лежит код.
NVLM 1.0 (NVIDIA Vision Language Model) – это семейство открытых мультимодальных LLM, состоящее из моделей NVLM-D (Decoder-only Model), NVLM-X (X-attention Model) и NVLM-H (Hybrid Model) на 34B и 72B.
Модели особенно хорошо показывают себя на визуальных задачах. Например, на OCRBench NVLM-D обогнала даже GPT-4o. На вопросах по математике модель тоже выделяется: обгоняет Gemini и всего на 3 пункта отстает от Claude 3.5.
Архитектура у всех трех примерно одинковая, не считая обработку изображений. NVLM-D использует для картинок предобученный энкодер, который соединен с обычным двухслойным перцептроном (эффективно по параметрам, но кушает много GPU). NVLM-Х же для обработки токенов изображения использует cross-attention (не очень эффективно, зато лучше обрабатывает картинки с высоким разрешением). NVLM-H стала чем-то средним.
Больше технических деталей можно найти в статье. Веса самих моделей скоро можно будет найти на Hugging Face, а в этом репозитории лежит код.
⚡47👍14❤13 2
Выиграть $5000 и стать соавтором в статье с CEO ScaleAI в обмен всего на один вопрос?
Да запросто. CAIS и ScaleAI запустили конкурс вопросов для сложнейшего в мире бенчмарка для LLM. За каждый подходящий вопрос они обещают 500 до 5000 долларов, а также соавторство в статье.
Название конкурса, кстати, заслуживает отдельного внимания: Humanity’s Last Exam. Нельзя сабмитить вопросы, которые придумали не вы, вопросы, на которые легко ответить с помощью поисковика, вопросы без однозначного ответа или вопросы про оружие. В остальном – дело фантазии.
Все правила можно прочитать здесь. Пробовать будете?😉
Да запросто. CAIS и ScaleAI запустили конкурс вопросов для сложнейшего в мире бенчмарка для LLM. За каждый подходящий вопрос они обещают 500 до 5000 долларов, а также соавторство в статье.
Название конкурса, кстати, заслуживает отдельного внимания: Humanity’s Last Exam. Нельзя сабмитить вопросы, которые придумали не вы, вопросы, на которые легко ответить с помощью поисковика, вопросы без однозначного ответа или вопросы про оружие. В остальном – дело фантазии.
Все правила можно прочитать здесь. Пробовать будете?
Please open Telegram to view this post
VIEW IN TELEGRAM
👍46❤7🔥6😁2🤪1
This media is not supported in your browser
VIEW IN TELEGRAM
Сэм Альтман в новом выступлении пояснил за уровни развития ИИ. По его мнению, ступеней всего пять:
1. Чат-боты
2. Ризонеры (рассуждающие чат-боты) <- после выхода o1 вы находитесь здесь
3. Агенты
4. Инноваторы (ИИ, который может делать научные открытия)
5. И, наконец, целые организации, состоящие из ИИ-агентов
1. Чат-боты
2. Ризонеры (рассуждающие чат-боты) <- после выхода o1 вы находитесь здесь
3. Агенты
4. Инноваторы (ИИ, который может делать научные открытия)
5. И, наконец, целые организации, состоящие из ИИ-агентов
Переход c уровня один на уровень два занял у нас очень много времени, но благодаря этому сейчас мы ускоренно двигаемся на уровень три.
👍88❤25🤔19😁9🤯2👻2❤🔥1🔥1
После последних розыгрышей многие спрашивали, продается ли наш мерч. Отвечаем: пока нет. Но есть хорошая новость: мы вдохновились новым конкурсом вопросов для бенчмарков LLM и решили провести свой собственный!
5000 долларов не обещаем, но победитель получит ту самую нашу Deep Learning футболку-альманах!
Правила просты: пишите под этим постом один вопрос, который вы бы задали модели, чтобы точно определить, AGI перед вами или еще нет. В финал пройдут самые залайканные комменты, а победителя выберем завтра вечером с помощью опроса в канале.
Ждем в комментариях именно твой остроумный вариант! Погнали
Please open Telegram to view this post
VIEW IN TELEGRAM
10❤26🔥8⚡6👍2