Nvidia выпустила NVLM 1.0 – собственную мультимодальную LLM, которая на некоторых тестах опережает GPT-4o
NVLM 1.0 (NVIDIA Vision Language Model) – это семейство открытых мультимодальных LLM, состоящее из моделей NVLM-D (Decoder-only Model), NVLM-X (X-attention Model) и NVLM-H (Hybrid Model) на 34B и 72B.
Модели особенно хорошо показывают себя на визуальных задачах. Например, на OCRBench NVLM-D обогнала даже GPT-4o. На вопросах по математике модель тоже выделяется: обгоняет Gemini и всего на 3 пункта отстает от Claude 3.5.
Архитектура у всех трех примерно одинковая, не считая обработку изображений. NVLM-D использует для картинок предобученный энкодер, который соединен с обычным двухслойным перцептроном (эффективно по параметрам, но кушает много GPU). NVLM-Х же для обработки токенов изображения использует cross-attention (не очень эффективно, зато лучше обрабатывает картинки с высоким разрешением). NVLM-H стала чем-то средним.
Больше технических деталей можно найти в статье. Веса самих моделей скоро можно будет найти на Hugging Face, а в этом репозитории лежит код.
NVLM 1.0 (NVIDIA Vision Language Model) – это семейство открытых мультимодальных LLM, состоящее из моделей NVLM-D (Decoder-only Model), NVLM-X (X-attention Model) и NVLM-H (Hybrid Model) на 34B и 72B.
Модели особенно хорошо показывают себя на визуальных задачах. Например, на OCRBench NVLM-D обогнала даже GPT-4o. На вопросах по математике модель тоже выделяется: обгоняет Gemini и всего на 3 пункта отстает от Claude 3.5.
Архитектура у всех трех примерно одинковая, не считая обработку изображений. NVLM-D использует для картинок предобученный энкодер, который соединен с обычным двухслойным перцептроном (эффективно по параметрам, но кушает много GPU). NVLM-Х же для обработки токенов изображения использует cross-attention (не очень эффективно, зато лучше обрабатывает картинки с высоким разрешением). NVLM-H стала чем-то средним.
Больше технических деталей можно найти в статье. Веса самих моделей скоро можно будет найти на Hugging Face, а в этом репозитории лежит код.
⚡47👍14❤13 2
Выиграть $5000 и стать соавтором в статье с CEO ScaleAI в обмен всего на один вопрос?
Да запросто. CAIS и ScaleAI запустили конкурс вопросов для сложнейшего в мире бенчмарка для LLM. За каждый подходящий вопрос они обещают 500 до 5000 долларов, а также соавторство в статье.
Название конкурса, кстати, заслуживает отдельного внимания: Humanity’s Last Exam. Нельзя сабмитить вопросы, которые придумали не вы, вопросы, на которые легко ответить с помощью поисковика, вопросы без однозначного ответа или вопросы про оружие. В остальном – дело фантазии.
Все правила можно прочитать здесь. Пробовать будете?😉
Да запросто. CAIS и ScaleAI запустили конкурс вопросов для сложнейшего в мире бенчмарка для LLM. За каждый подходящий вопрос они обещают 500 до 5000 долларов, а также соавторство в статье.
Название конкурса, кстати, заслуживает отдельного внимания: Humanity’s Last Exam. Нельзя сабмитить вопросы, которые придумали не вы, вопросы, на которые легко ответить с помощью поисковика, вопросы без однозначного ответа или вопросы про оружие. В остальном – дело фантазии.
Все правила можно прочитать здесь. Пробовать будете?
Please open Telegram to view this post
VIEW IN TELEGRAM
👍46❤7🔥6😁2🤪1
This media is not supported in your browser
VIEW IN TELEGRAM
Сэм Альтман в новом выступлении пояснил за уровни развития ИИ. По его мнению, ступеней всего пять:
1. Чат-боты
2. Ризонеры (рассуждающие чат-боты) <- после выхода o1 вы находитесь здесь
3. Агенты
4. Инноваторы (ИИ, который может делать научные открытия)
5. И, наконец, целые организации, состоящие из ИИ-агентов
1. Чат-боты
2. Ризонеры (рассуждающие чат-боты) <- после выхода o1 вы находитесь здесь
3. Агенты
4. Инноваторы (ИИ, который может делать научные открытия)
5. И, наконец, целые организации, состоящие из ИИ-агентов
Переход c уровня один на уровень два занял у нас очень много времени, но благодаря этому сейчас мы ускоренно двигаемся на уровень три.
👍88❤25🤔19😁9🤯2👻2❤🔥1🔥1
После последних розыгрышей многие спрашивали, продается ли наш мерч. Отвечаем: пока нет. Но есть хорошая новость: мы вдохновились новым конкурсом вопросов для бенчмарков LLM и решили провести свой собственный!
5000 долларов не обещаем, но победитель получит ту самую нашу Deep Learning футболку-альманах!
Правила просты: пишите под этим постом один вопрос, который вы бы задали модели, чтобы точно определить, AGI перед вами или еще нет. В финал пройдут самые залайканные комменты, а победителя выберем завтра вечером с помощью опроса в канале.
Ждем в комментариях именно твой остроумный вариант! Погнали
Please open Telegram to view this post
VIEW IN TELEGRAM
10❤26🔥8⚡6👍2
Forwarded from Data Secrets | Карьера
Честное слово, это для учебы...
Размер рынка графических процессоров оценивается в 3,23 млрд долларов на 2023 год. По прогнозам, он вырастет с 4,31 млрд долларов в 2024 году до 49,84 млрд долларов к 2032 году. Средний темп роста составит 35,8% по оценкам аналитиков.
Ключевыми факторами, оказывающими наибольшее влияние на рынок графических процессоров, являются блокчейн, сфера игр и искусственный интеллект, в частности генеративные модели.
Размер рынка графических процессоров оценивается в 3,23 млрд долларов на 2023 год. По прогнозам, он вырастет с 4,31 млрд долларов в 2024 году до 49,84 млрд долларов к 2032 году. Средний темп роста составит 35,8% по оценкам аналитиков.
Ключевыми факторами, оказывающими наибольшее влияние на рынок графических процессоров, являются блокчейн, сфера игр и искусственный интеллект, в частности генеративные модели.
😁38👍15
This media is not supported in your browser
VIEW IN TELEGRAM
Как-то давно про скандальный Калифорнийский законопроект про регуляцию ИИ не слышно. Что там с ним?
➡️ Сейчас законопроект на стадии подписания у губернатора Калифорнии. До 30 сентября (то есть совсем скоро) он должен сделать однозначный и окончательный выбор: отклонить или принять.
➡️ Буквально на днях в сенате США появилась Хелен Тонер, печально известная за то, что год назад пыталась вышвырнуть Альтмана из OpenAI. Она высказывалась за законопроект, а еще говорила о том, что правительству пора сосредоточиться не на дипфейках, а на том, что они вообще не готовы к появлению AGI (а он появится, по словам Хелен, вот-вот).
➡️ Вероятнее всего, закон все-таки примут. Но вряд ли он останется жить в текущих формулировках. Например, правительство недавно достаточно легко пошло на встречу Anthropic, которые предложили правки. Однако пока что так запарились одни Anthropic: остальные компании в основном просто высказываются против. Поэтому, очень вероятно, некоторые важные правки последуют уже после подписания.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤪24❤7🫡5⚡4👍2🤯1
Microsoft оценили рост популярности ИИ
И самое интересное, что сделали они это очень крутой метрикой: не объемами рынка, не числом новых стартапов, не суммой инвестиций и вот этим всем, а с помощью простого человеческого количества ИИ-контрибьютов на GitHub в минуту.
Получился вот такой симпатичный график. Как всегда, видна четкая граница до/после релиза ChatGPT. Всего с этого момента рост метрики произошел на 230% (!!!), и это действительно показательно (потому что где, как не на гитхабе, сейчас наблюдать тренды экономики?)
Красивое, в общем😍
И самое интересное, что сделали они это очень крутой метрикой: не объемами рынка, не числом новых стартапов, не суммой инвестиций и вот этим всем, а с помощью простого человеческого количества ИИ-контрибьютов на GitHub в минуту.
Получился вот такой симпатичный график. Как всегда, видна четкая граница до/после релиза ChatGPT. Всего с этого момента рост метрики произошел на 230% (!!!), и это действительно показательно (потому что где, как не на гитхабе, сейчас наблюдать тренды экономики?)
Красивое, в общем
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥55👍20❤10
Вышла полная версия интервью с разработчиками o1. Основное и самое интересное:
⚪️ Вдохновлялись RL из AlphaGo. Название o1 символизирует, что это новое поколение моделей: от есть не очередная gpt, а полная смена подхода и парадигмы. Кстати, лого модели символизирует пришельца- сверхразума.
⚪️ Разработка o1 была большим вызовом: разработчики столкнулись с кучей проблем с масштабированием рассуждений и оптимизацией. Также много внимания пришлось уделить этике (так они назвали то, что скрывают от пользователей большую часть рассуждений 😍 )
⚪️ Оказывается o1 mini на большинстве тестов не отстает от o1 preview, потому что обучена рассуждать ничуть не хуже, просто знает меньше фактов. Очень важный тейк с точки зрения скейлинга.
⚪️ Во время тестирования модели был выявлен огромный потенциал модели к философским рассуждениям, творческому подходу и, самое главное, самокритике. Это, по словам разработчиков, и есть поворотные фичи для ИИ.
⚪️ В планах у OpenAI прикрутить к модели интерпретатор, сделать ее мультимодальной и более управляемой для пользователя.
Смотреть полностью тут
Смотреть полностью тут
Please open Telegram to view this post
VIEW IN TELEGRAM
👍58🔥14❤12 6🎃3
Какой-то фанат OpenAI собрал на гитхабе целую коллекцию статей, блогпостов и проектов, которые помогут понять, как устроена о1
Вот ссылка. В разделе блогпостов – ссылки на отчеты OpenAI, суммаризации интервью, интересные блоги экспертов.
В статьях (это самый крутой раздел!) – списки работ ученых, которые работали над o1 и немного related works.
Есть даже небольшая коллекция твиттов на тему o1. В общем, идеально, если хотите погрузиться глубоко и надолго (ну или просто сохранить крутых статей в бэклог)🥰
Вот ссылка. В разделе блогпостов – ссылки на отчеты OpenAI, суммаризации интервью, интересные блоги экспертов.
В статьях (это самый крутой раздел!) – списки работ ученых, которые работали над o1 и немного related works.
Есть даже небольшая коллекция твиттов на тему o1. В общем, идеально, если хотите погрузиться глубоко и надолго (ну или просто сохранить крутых статей в бэклог)
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥72👍15❤8❤🔥2
Там The Washington Post насчитали, что для того, чтобы сгенерировать 100 слов, GPT-4 требуется целая бутылка воды на охлаждение серверов 🤔
Верим и идем подключать к ноуту с локальной Llama 3.1 кулер?
Верим и идем подключать к ноуту с локальной Llama 3.1 кулер?
Please open Telegram to view this post
VIEW IN TELEGRAM
😁79🔥8❤5
Нашли отличный курс от преподавателей ВШЭ, который поможет в деталях разобраться в устройстве LLM
Он начинается с емкого освоения пререквизитов, а затем вы углубляетесь в особенности архитектур. В курсе предполагается большое количество практики, а к концу у вас даже будет готовый продукт – самодельный GPT from scratch (Андрей Карпаты одобряет).
Но что особенно круто – так это сильная команда преподавателей из топовых университетов и компаний. Это, кстати, те самые эксперты, которые делали AI магистратуру во ВШЭ.
Курс рассчитан примерно на 15-20 часов в неделю и начинается в октябре. Мест всего 50, так что скорее записывайтесь!
Он начинается с емкого освоения пререквизитов, а затем вы углубляетесь в особенности архитектур. В курсе предполагается большое количество практики, а к концу у вас даже будет готовый продукт – самодельный GPT from scratch (Андрей Карпаты одобряет).
Но что особенно круто – так это сильная команда преподавателей из топовых университетов и компаний. Это, кстати, те самые эксперты, которые делали AI магистратуру во ВШЭ.
Курс рассчитан примерно на 15-20 часов в неделю и начинается в октябре. Мест всего 50, так что скорее записывайтесь!
👍22😁14🤯5🗿4❤1
Андрей Карпаты выложил видео с 20-минутным рассказом о том, как он создавал знаменитый llm.c проект
Кратко: его не устраивал PyTorch и метод compile и он решил переписать все сам на C😃
Сейчас llm.c – космически популярный для петпроекта релиз. Разработчики продолжают добавлять туда оптимизации, а в скором времени обещают завезти поддержку llama-3.1
Идеально для просмотра в воскресенье
Кратко: его не устраивал PyTorch и метод compile и он решил переписать все сам на C
Сейчас llm.c – космически популярный для петпроекта релиз. Разработчики продолжают добавлять туда оптимизации, а в скором времени обещают завезти поддержку llama-3.1
Идеально для просмотра в воскресенье
Please open Telegram to view this post
VIEW IN TELEGRAM
👍55🔥18❤12😁1