Data Secrets
78.8K subscribers
6.42K photos
666 videos
20 files
2.7K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Nvidia выпустила NVLM 1.0 – собственную мультимодальную LLM, которая на некоторых тестах опережает GPT-4o

NVLM 1.0 (NVIDIA Vision Language Model) – это семейство открытых мультимодальных LLM, состоящее из моделей NVLM-D (Decoder-only Model), NVLM-X (X-attention Model) и NVLM-H (Hybrid Model) на 34B и 72B.

Модели особенно хорошо показывают себя на визуальных задачах. Например, на OCRBench NVLM-D обогнала даже GPT-4o. На вопросах по математике модель тоже выделяется: обгоняет Gemini и всего на 3 пункта отстает от Claude 3.5.

Архитектура у всех трех примерно одинковая, не считая обработку изображений. NVLM-D использует для картинок предобученный энкодер, который соединен с обычным двухслойным перцептроном (эффективно по параметрам, но кушает много GPU). NVLM-Х же для обработки токенов изображения использует cross-attention (не очень эффективно, зато лучше обрабатывает картинки с высоким разрешением). NVLM-H стала чем-то средним.

Больше технических деталей можно найти в статье. Веса самих моделей скоро можно будет найти на Hugging Face, а в этом репозитории лежит код.
47👍14132
Там o1 порвала LMSYS арену

o1-preview взяла 1 место в общем лидерборде, а также с большим отрывом заняла лидерскую позицию в Math, Hard Prompts и Coding вкладках. o1-mini также #1 на тех.лидербордах, и #2 в общем.
61🔥26🍓20👍5
Выиграть $5000 и стать соавтором в статье с CEO ScaleAI в обмен всего на один вопрос?

Да запросто. CAIS и ScaleAI запустили конкурс вопросов для сложнейшего в мире бенчмарка для LLM. За каждый подходящий вопрос они обещают 500 до 5000 долларов, а также соавторство в статье.

Название конкурса, кстати, заслуживает отдельного внимания: Humanity’s Last Exam. Нельзя сабмитить вопросы, которые придумали не вы, вопросы, на которые легко ответить с помощью поисковика, вопросы без однозначного ответа или вопросы про оружие. В остальном – дело фантазии.

Все правила можно прочитать здесь. Пробовать будете? 😉
Please open Telegram to view this post
VIEW IN TELEGRAM
👍467🔥6😁2🤪1
This media is not supported in your browser
VIEW IN TELEGRAM
Сэм Альтман в новом выступлении пояснил за уровни развития ИИ. По его мнению, ступеней всего пять:

1. Чат-боты
2. Ризонеры (рассуждающие чат-боты) <- после выхода o1 вы находитесь здесь
3. Агенты
4. Инноваторы (ИИ, который может делать научные открытия)
5. И, наконец, целые организации, состоящие из ИИ-агентов

Переход c уровня один на уровень два занял у нас очень много времени, но благодаря этому сейчас мы ускоренно двигаемся на уровень три.
👍8825🤔19😁9🤯2👻2❤‍🔥1🔥1
No Context Russia
😁11816❤‍🔥10👍3🎃3👌1👨‍💻1
Тем временем что-то надвигается: CEO GitHub твитнул прозначнейший намек на o1
1🍓8224😁133👻1
🚀 Разыгрываем футболку за вопрос в комментариях

После последних розыгрышей многие спрашивали, продается ли наш мерч. Отвечаем: пока нет. Но есть хорошая новость: мы вдохновились новым конкурсом вопросов для бенчмарков LLM и решили провести свой собственный!

5000 долларов не обещаем, но победитель получит ту самую нашу Deep Learning футболку-альманах!

Правила просты: пишите под этим постом один вопрос, который вы бы задали модели, чтобы точно определить, AGI перед вами или еще нет. В финал пройдут самые залайканные комменты, а победителя выберем завтра вечером с помощью опроса в канале.

Ждем в комментариях именно твой остроумный вариант! Погнали 🏃‍♂️
Please open Telegram to view this post
VIEW IN TELEGRAM
1026🔥86👍2
Наконец-то нормальное объяснения ризонинга
😁177😎14👏9
Честное слово, это для учебы...

Размер рынка графических процессоров оценивается в 3,23 млрд долларов на 2023 год. По прогнозам, он вырастет с 4,31 млрд долларов в 2024 году до 49,84 млрд долларов к 2032 году. Средний темп роста составит 35,8% по оценкам аналитиков.

Ключевыми факторами, оказывающими наибольшее влияние на рынок графических процессоров, являются блокчейн, сфера игр и искусственный интеллект, в частности генеративные модели.
😁38👍15
О – отчаяние
😁149💯22🕊103👍2🏆1
Хорошая попытка, но нет
😁155🤯23🤔75👌2❤‍🔥1👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Как-то давно про скандальный Калифорнийский законопроект про регуляцию ИИ не слышно. Что там с ним?

➡️ Сейчас законопроект на стадии подписания у губернатора Калифорнии. До 30 сентября (то есть совсем скоро) он должен сделать однозначный и окончательный выбор: отклонить или принять.

➡️ Буквально на днях в сенате США появилась Хелен Тонер, печально известная за то, что год назад пыталась вышвырнуть Альтмана из OpenAI. Она высказывалась за законопроект, а еще говорила о том, что правительству пора сосредоточиться не на дипфейках, а на том, что они вообще не готовы к появлению AGI (а он появится, по словам Хелен, вот-вот).

➡️ Вероятнее всего, закон все-таки примут. Но вряд ли он останется жить в текущих формулировках. Например, правительство недавно достаточно легко пошло на встречу Anthropic, которые предложили правки. Однако пока что так запарились одни Anthropic: остальные компании в основном просто высказываются против. Поэтому, очень вероятно, некоторые важные правки последуют уже после подписания.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤪247🫡54👍2🤯1
Microsoft оценили рост популярности ИИ

И самое интересное, что сделали они это очень крутой метрикой: не объемами рынка, не числом новых стартапов, не суммой инвестиций и вот этим всем, а с помощью простого человеческого количества ИИ-контрибьютов на GitHub в минуту.

Получился вот такой симпатичный график. Как всегда, видна четкая граница до/после релиза ChatGPT. Всего с этого момента рост метрики произошел на 230% (!!!), и это действительно показательно (потому что где, как не на гитхабе, сейчас наблюдать тренды экономики?)

Красивое, в общем 😍
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥55👍2010
Ох уж эта токенизация
87😁35🔥18👍3
Вышла полная версия интервью с разработчиками o1. Основное и самое интересное:

⚪️ Вдохновлялись RL из AlphaGo. Название o1 символизирует, что это новое поколение моделей: от есть не очередная gpt, а полная смена подхода и парадигмы. Кстати, лого модели символизирует пришельца- сверхразума.

⚪️ Разработка o1 была большим вызовом: разработчики столкнулись с кучей проблем с масштабированием рассуждений и оптимизацией. Также много внимания пришлось уделить этике (так они назвали то, что скрывают от пользователей большую часть рассуждений 😍)

⚪️ Оказывается o1 mini на большинстве тестов не отстает от o1 preview, потому что обучена рассуждать ничуть не хуже, просто знает меньше фактов. Очень важный тейк с точки зрения скейлинга.

⚪️ Во время тестирования модели был выявлен огромный потенциал модели к философским рассуждениям, творческому подходу и, самое главное, самокритике. Это, по словам разработчиков, и есть поворотные фичи для ИИ.

⚪️ В планах у OpenAI прикрутить к модели интерпретатор, сделать ее мультимодальной и более управляемой для пользователя.

Смотреть полностью тут
Please open Telegram to view this post
VIEW IN TELEGRAM
👍58🔥14126🎃3
Какой-то фанат OpenAI собрал на гитхабе целую коллекцию статей, блогпостов и проектов, которые помогут понять, как устроена о1

Вот ссылка. В разделе блогпостов – ссылки на отчеты OpenAI, суммаризации интервью, интересные блоги экспертов.

В статьях (это самый крутой раздел!) – списки работ ученых, которые работали над o1 и немного related works.

Есть даже небольшая коллекция твиттов на тему o1. В общем, идеально, если хотите погрузиться глубоко и надолго (ну или просто сохранить крутых статей в бэклог) 🥰
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥72👍158❤‍🔥2
Там The Washington Post насчитали, что для того, чтобы сгенерировать 100 слов, GPT-4 требуется целая бутылка воды на охлаждение серверов 🤔

Верим и идем подключать к ноуту с локальной Llama 3.1 кулер?
Please open Telegram to view this post
VIEW IN TELEGRAM
😁79🔥85
Нашли отличный курс от преподавателей ВШЭ, который поможет в деталях разобраться в устройстве LLM

Он начинается с емкого освоения пререквизитов, а затем вы углубляетесь в особенности архитектур. В курсе предполагается большое количество практики, а к концу у вас даже будет готовый продукт – самодельный GPT from scratch (Андрей Карпаты одобряет).

Но что особенно круто – так это сильная команда преподавателей из топовых университетов и компаний. Это, кстати, те самые эксперты, которые делали AI магистратуру во ВШЭ.

Курс рассчитан примерно на 15-20 часов в неделю и начинается в октябре. Мест всего 50, так что скорее записывайтесь!
👍22😁14🤯5🗿41
Андрей Карпаты выложил видео с 20-минутным рассказом о том, как он создавал знаменитый llm.c проект

Кратко: его не устраивал PyTorch и метод compile и он решил переписать все сам на C 😃

Сейчас llm.c – космически популярный для петпроекта релиз. Разработчики продолжают добавлять туда оптимизации, а в скором времени обещают завезти поддержку llama-3.1

Идеально для просмотра в воскресенье
Please open Telegram to view this post
VIEW IN TELEGRAM
👍55🔥1812😁1