В Твиттере протестировали силу арифметики o1
Тест проводился на задаче умножения по сетке вплоть до 20-значных чисел на 20-значные. Посмотрите, насколько o1 справляется лучше 4o⬆️
Интересно также, что o1 mini умножает ничуть не хуже o1 preview, а с ростом чисел для перемножения количество ризонинг токенов растет ~линейно.
Тест проводился на задаче умножения по сетке вплоть до 20-значных чисел на 20-значные. Посмотрите, насколько o1 справляется лучше 4o
Интересно также, что o1 mini умножает ничуть не хуже o1 preview, а с ростом чисел для перемножения количество ризонинг токенов растет ~линейно.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤42👍22 5😁2🤯2
Data Secrets
Розыгрыш Machine Learning футболок В честь запуска сайта с ML-вакансиями команда Data Secrets запускает розыгрыш 10 футболок для истинных любителей глубокого обучения. Это лимитированная линейка нашего бренда. Каждая футболка – целый альманах, на котором…
🎉 Результаты розыгрыша:
Победители:
1. Екатерина (@Ekaterina_Vorobevaa)
2. Mikhail (@MikhailRepkin)
3. Никита (@zitrnika)
4. Artem (@yoru_main)
5. Lucky (@gribochek_dasha)
6. Y (@nervumoons)
7. Антон (@orionu)
8. Arkady (@SomnambuIus)
9. Азим (@azim_analyst)
10. Bob (@boris_2001_light)
Проверить результаты
Победители:
1. Екатерина (@Ekaterina_Vorobevaa)
2. Mikhail (@MikhailRepkin)
3. Никита (@zitrnika)
4. Artem (@yoru_main)
5. Lucky (@gribochek_dasha)
6. Y (@nervumoons)
7. Антон (@orionu)
8. Arkady (@SomnambuIus)
9. Азим (@azim_analyst)
10. Bob (@boris_2001_light)
Проверить результаты
🫡36❤13🤯7🎉5👍4🤓3❤🔥2
Nvidia выпустила NVLM 1.0 – собственную мультимодальную LLM, которая на некоторых тестах опережает GPT-4o
NVLM 1.0 (NVIDIA Vision Language Model) – это семейство открытых мультимодальных LLM, состоящее из моделей NVLM-D (Decoder-only Model), NVLM-X (X-attention Model) и NVLM-H (Hybrid Model) на 34B и 72B.
Модели особенно хорошо показывают себя на визуальных задачах. Например, на OCRBench NVLM-D обогнала даже GPT-4o. На вопросах по математике модель тоже выделяется: обгоняет Gemini и всего на 3 пункта отстает от Claude 3.5.
Архитектура у всех трех примерно одинковая, не считая обработку изображений. NVLM-D использует для картинок предобученный энкодер, который соединен с обычным двухслойным перцептроном (эффективно по параметрам, но кушает много GPU). NVLM-Х же для обработки токенов изображения использует cross-attention (не очень эффективно, зато лучше обрабатывает картинки с высоким разрешением). NVLM-H стала чем-то средним.
Больше технических деталей можно найти в статье. Веса самих моделей скоро можно будет найти на Hugging Face, а в этом репозитории лежит код.
NVLM 1.0 (NVIDIA Vision Language Model) – это семейство открытых мультимодальных LLM, состоящее из моделей NVLM-D (Decoder-only Model), NVLM-X (X-attention Model) и NVLM-H (Hybrid Model) на 34B и 72B.
Модели особенно хорошо показывают себя на визуальных задачах. Например, на OCRBench NVLM-D обогнала даже GPT-4o. На вопросах по математике модель тоже выделяется: обгоняет Gemini и всего на 3 пункта отстает от Claude 3.5.
Архитектура у всех трех примерно одинковая, не считая обработку изображений. NVLM-D использует для картинок предобученный энкодер, который соединен с обычным двухслойным перцептроном (эффективно по параметрам, но кушает много GPU). NVLM-Х же для обработки токенов изображения использует cross-attention (не очень эффективно, зато лучше обрабатывает картинки с высоким разрешением). NVLM-H стала чем-то средним.
Больше технических деталей можно найти в статье. Веса самих моделей скоро можно будет найти на Hugging Face, а в этом репозитории лежит код.
⚡47👍14❤13 2
Выиграть $5000 и стать соавтором в статье с CEO ScaleAI в обмен всего на один вопрос?
Да запросто. CAIS и ScaleAI запустили конкурс вопросов для сложнейшего в мире бенчмарка для LLM. За каждый подходящий вопрос они обещают 500 до 5000 долларов, а также соавторство в статье.
Название конкурса, кстати, заслуживает отдельного внимания: Humanity’s Last Exam. Нельзя сабмитить вопросы, которые придумали не вы, вопросы, на которые легко ответить с помощью поисковика, вопросы без однозначного ответа или вопросы про оружие. В остальном – дело фантазии.
Все правила можно прочитать здесь. Пробовать будете?😉
Да запросто. CAIS и ScaleAI запустили конкурс вопросов для сложнейшего в мире бенчмарка для LLM. За каждый подходящий вопрос они обещают 500 до 5000 долларов, а также соавторство в статье.
Название конкурса, кстати, заслуживает отдельного внимания: Humanity’s Last Exam. Нельзя сабмитить вопросы, которые придумали не вы, вопросы, на которые легко ответить с помощью поисковика, вопросы без однозначного ответа или вопросы про оружие. В остальном – дело фантазии.
Все правила можно прочитать здесь. Пробовать будете?
Please open Telegram to view this post
VIEW IN TELEGRAM
👍46❤7🔥6😁2🤪1
This media is not supported in your browser
VIEW IN TELEGRAM
Сэм Альтман в новом выступлении пояснил за уровни развития ИИ. По его мнению, ступеней всего пять:
1. Чат-боты
2. Ризонеры (рассуждающие чат-боты) <- после выхода o1 вы находитесь здесь
3. Агенты
4. Инноваторы (ИИ, который может делать научные открытия)
5. И, наконец, целые организации, состоящие из ИИ-агентов
1. Чат-боты
2. Ризонеры (рассуждающие чат-боты) <- после выхода o1 вы находитесь здесь
3. Агенты
4. Инноваторы (ИИ, который может делать научные открытия)
5. И, наконец, целые организации, состоящие из ИИ-агентов
Переход c уровня один на уровень два занял у нас очень много времени, но благодаря этому сейчас мы ускоренно двигаемся на уровень три.
👍88❤25🤔19😁9🤯2👻2❤🔥1🔥1
После последних розыгрышей многие спрашивали, продается ли наш мерч. Отвечаем: пока нет. Но есть хорошая новость: мы вдохновились новым конкурсом вопросов для бенчмарков LLM и решили провести свой собственный!
5000 долларов не обещаем, но победитель получит ту самую нашу Deep Learning футболку-альманах!
Правила просты: пишите под этим постом один вопрос, который вы бы задали модели, чтобы точно определить, AGI перед вами или еще нет. В финал пройдут самые залайканные комменты, а победителя выберем завтра вечером с помощью опроса в канале.
Ждем в комментариях именно твой остроумный вариант! Погнали
Please open Telegram to view this post
VIEW IN TELEGRAM
10❤26🔥8⚡6👍2
Forwarded from Data Secrets | Карьера
Честное слово, это для учебы...
Размер рынка графических процессоров оценивается в 3,23 млрд долларов на 2023 год. По прогнозам, он вырастет с 4,31 млрд долларов в 2024 году до 49,84 млрд долларов к 2032 году. Средний темп роста составит 35,8% по оценкам аналитиков.
Ключевыми факторами, оказывающими наибольшее влияние на рынок графических процессоров, являются блокчейн, сфера игр и искусственный интеллект, в частности генеративные модели.
Размер рынка графических процессоров оценивается в 3,23 млрд долларов на 2023 год. По прогнозам, он вырастет с 4,31 млрд долларов в 2024 году до 49,84 млрд долларов к 2032 году. Средний темп роста составит 35,8% по оценкам аналитиков.
Ключевыми факторами, оказывающими наибольшее влияние на рынок графических процессоров, являются блокчейн, сфера игр и искусственный интеллект, в частности генеративные модели.
😁38👍15
This media is not supported in your browser
VIEW IN TELEGRAM
Как-то давно про скандальный Калифорнийский законопроект про регуляцию ИИ не слышно. Что там с ним?
➡️ Сейчас законопроект на стадии подписания у губернатора Калифорнии. До 30 сентября (то есть совсем скоро) он должен сделать однозначный и окончательный выбор: отклонить или принять.
➡️ Буквально на днях в сенате США появилась Хелен Тонер, печально известная за то, что год назад пыталась вышвырнуть Альтмана из OpenAI. Она высказывалась за законопроект, а еще говорила о том, что правительству пора сосредоточиться не на дипфейках, а на том, что они вообще не готовы к появлению AGI (а он появится, по словам Хелен, вот-вот).
➡️ Вероятнее всего, закон все-таки примут. Но вряд ли он останется жить в текущих формулировках. Например, правительство недавно достаточно легко пошло на встречу Anthropic, которые предложили правки. Однако пока что так запарились одни Anthropic: остальные компании в основном просто высказываются против. Поэтому, очень вероятно, некоторые важные правки последуют уже после подписания.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤪24❤7🫡5⚡4👍2🤯1
Microsoft оценили рост популярности ИИ
И самое интересное, что сделали они это очень крутой метрикой: не объемами рынка, не числом новых стартапов, не суммой инвестиций и вот этим всем, а с помощью простого человеческого количества ИИ-контрибьютов на GitHub в минуту.
Получился вот такой симпатичный график. Как всегда, видна четкая граница до/после релиза ChatGPT. Всего с этого момента рост метрики произошел на 230% (!!!), и это действительно показательно (потому что где, как не на гитхабе, сейчас наблюдать тренды экономики?)
Красивое, в общем😍
И самое интересное, что сделали они это очень крутой метрикой: не объемами рынка, не числом новых стартапов, не суммой инвестиций и вот этим всем, а с помощью простого человеческого количества ИИ-контрибьютов на GitHub в минуту.
Получился вот такой симпатичный график. Как всегда, видна четкая граница до/после релиза ChatGPT. Всего с этого момента рост метрики произошел на 230% (!!!), и это действительно показательно (потому что где, как не на гитхабе, сейчас наблюдать тренды экономики?)
Красивое, в общем
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥55👍20❤10
Вышла полная версия интервью с разработчиками o1. Основное и самое интересное:
⚪️ Вдохновлялись RL из AlphaGo. Название o1 символизирует, что это новое поколение моделей: от есть не очередная gpt, а полная смена подхода и парадигмы. Кстати, лого модели символизирует пришельца- сверхразума.
⚪️ Разработка o1 была большим вызовом: разработчики столкнулись с кучей проблем с масштабированием рассуждений и оптимизацией. Также много внимания пришлось уделить этике (так они назвали то, что скрывают от пользователей большую часть рассуждений 😍 )
⚪️ Оказывается o1 mini на большинстве тестов не отстает от o1 preview, потому что обучена рассуждать ничуть не хуже, просто знает меньше фактов. Очень важный тейк с точки зрения скейлинга.
⚪️ Во время тестирования модели был выявлен огромный потенциал модели к философским рассуждениям, творческому подходу и, самое главное, самокритике. Это, по словам разработчиков, и есть поворотные фичи для ИИ.
⚪️ В планах у OpenAI прикрутить к модели интерпретатор, сделать ее мультимодальной и более управляемой для пользователя.
Смотреть полностью тут
Смотреть полностью тут
Please open Telegram to view this post
VIEW IN TELEGRAM
👍58🔥14❤12 6🎃3