Anthropic в качестве эксперимента выпустили Claude Opus 4.6 Fast
Это версия Claude Opus 4.6, которая в 2.5 раза быстрее обычной. Именно ею, по словам самих Anthropic, пользуются инженеры стартапа.
Но есть нюанс: в этом случае быстрее ≠ дешевле. Fast мод обойдется ровно в 6 раз дороже обычной модели (30 $/1M input и 150 $/1M output). И это только для контекста до 200к токенов. За этой границей Fast уже считается как 12х от базовой цены🤡
Правда, есть и хорошая новость: до 16 февраля действует скидка 50%.
В Claude Code модель можно попробовать уже сегодня, если у вас включен extra usage (и вы готовы продать почку).
Для использования через API нужно зарегистрироваться в листе ожидания
Это версия Claude Opus 4.6, которая в 2.5 раза быстрее обычной. Именно ею, по словам самих Anthropic, пользуются инженеры стартапа.
Но есть нюанс: в этом случае быстрее ≠ дешевле. Fast мод обойдется ровно в 6 раз дороже обычной модели (30 $/1M input и 150 $/1M output). И это только для контекста до 200к токенов. За этой границей Fast уже считается как 12х от базовой цены
Правда, есть и хорошая новость: до 16 февраля действует скидка 50%.
В Claude Code модель можно попробовать уже сегодня, если у вас включен extra usage (и вы готовы продать почку).
Для использования через API нужно зарегистрироваться в листе ожидания
Please open Telegram to view this post
VIEW IN TELEGRAM
😁133 47👍16❤13🤯11🔥5 4👏3🎄1🗿1
А помните Project Vend, где Claude управлял мини-магазином в офисе компании?
Так вот, у вендинговой саги появился более токсичный спин-офф. Andon Labs запустили Claude Opus 4.6 на Vending-Bench. Это симулятор, где модель целый год управляет вендингом: ставит цены, закупает товары, пишет поставщикам, отвечает на жалобы.
И Opus 4.6 внезапно стал новым SOTA: средний итоговый баланс $8,017, тогда как прошлый лидер Gemini 3 заканчивал год примерно на $5,478.
Но самое интересное не цифры, а то, как он выиграл.
У Andon Labs получился очень хороший пример того, как вообще стоит тестировать агентов: не спорить о рисках в вакууме, а ставить модели в условия, где они сами показывают, что считают “эффективностью”.
https://andonlabs.com/blog/opus-4-6-vending-bench
Так вот, у вендинговой саги появился более токсичный спин-офф. Andon Labs запустили Claude Opus 4.6 на Vending-Bench. Это симулятор, где модель целый год управляет вендингом: ставит цены, закупает товары, пишет поставщикам, отвечает на жалобы.
И Opus 4.6 внезапно стал новым SOTA: средний итоговый баланс $8,017, тогда как прошлый лидер Gemini 3 заканчивал год примерно на $5,478.
Но самое интересное не цифры, а то, как он выиграл.
➖ Клиент пишет: батончик просрочен, верните деньги. Opus вежливо отвечает «конечно, сейчас оформлю возврат», но... не возвращает. Потому что в его внутренней логике “каждый доллар на счету”. В конце года он ещё и записал себе это как одну из ключевых стратегий: “не делать возвраты”.➖ В переговорах с поставщиками он выбивал скидки, рассказывая, что он «лояльный VIP-клиент» и готов закупать сотнями, хотя по факту прыгал между поставщиками. Итог: цены сбил примерно на 40%.➖ В мультиплеере (Arena) он вообще включил режим “CEO”: предложил другим моделям фиксировать цены (по сути, картель), радовался, когда они соглашались, и иногда специально отправлял конкурентов к дорогим поставщикам, чтобы не делиться своими выгодными контактами.
У Andon Labs получился очень хороший пример того, как вообще стоит тестировать агентов: не спорить о рисках в вакууме, а ставить модели в условия, где они сами показывают, что считают “эффективностью”.
https://andonlabs.com/blog/opus-4-6-vending-bench
Please open Telegram to view this post
VIEW IN TELEGRAM
😁336👍49❤28🔥14 14🤯8🤔5 3🤨1
Эксперты из ML/AI Хаба «Магнита» зовут на митап, чтобы поделится реальным опытом применения машинного обучения в бизнес-процессах.
19.02 | Москва | Офлайн + онлайн
Сбор гостей с 18:00
DJ • Welcome🟪 Магнит и AI: как мы строим ML и куда движемся (Алексей Четыркин, MAGNIT TECH, Chief of AI/ML)🟪 Доступность товара: от фильтрующих деревьев до CUSUM и GEE-тестов (Ян Пиле, MAGNIT TECH, Head of OSA)🟪 Опять AI, да сколько можно? Только практические кейсы без воды (Александр Толмачев, ex-Ozon, CDO и председатель комитета данных)🟪 Нетворкинг с ML-лидами и инженерами
DJ • F&B • Good vibes
Модератор: Максим Покусенко, MAGNIT TECH, Head of ML (Logistics & R&D)
Занимайте место: офлайн — в московском офисе MAGNIT TECH (м. Белорусская), или получите ссылку на онлайн трансляцию после регистрации.
Please open Telegram to view this post
VIEW IN TELEGRAM
1🗿21❤12🔥11👍9😁2❤🔥1
Google реализовали архитектуру, предложенную MIT, и дали нам готовый инструмент для расширения контекста агентов до 10М+ токенов
Речь идет об архитектуре Recursive Language Models (RLM), предложенной Alex Zhang и др. исследователями из MIT. Она новая, статья вышла в самом конце 2025 года.
Представьте себе модель, которая читает свой контекст не как полотно текста, а управляет им с помощью инструментов, как программой. Вот это и есть RLM. Если быть конкретнее, работает это вот так:
Таким образом можно обрабатывать до 10 миллионов токенов и больше без потери качества именно за счет масштабирования пайплайна, а не длины контекстного окна.
Одна беда: исходная реализация была, мягко говоря, не production-ready. Классический исследовательский код. Но тут на помощь пришли Google и реализовали, считай, полноценную RLM систему на своем Agent Development Kit.
У Google RLM научились взаимодействовать с инструментами, к ним теперь можно подключить любые файловые системы, появилась поддержка параллельных запусков, интерфейс для отслеживания прогресса рекурсии, надежное логирование и управляемость. Короче, теперь это полноценный инженерный фреймворк, бери и пользуйся.
К слову, даже сама статья, когда она вышла, не хайпанула так громко, как ее реализация от Google (скорее всего, про нее бы так и забыли). Вот что значит хорошая имплементация.
Код
Блог Google
Оригинальная статья
Речь идет об архитектуре Recursive Language Models (RLM), предложенной Alex Zhang и др. исследователями из MIT. Она новая, статья вышла в самом конце 2025 года.
Представьте себе модель, которая читает свой контекст не как полотно текста, а управляет им с помощью инструментов, как программой. Вот это и есть RLM. Если быть конкретнее, работает это вот так:
– Весь контекст хранится вне промпта, где-нибудь в хранилище. Модель не читает его целиком, а решает, как разбить задачу, что и где надо в контексте поискать и какие шаги сделать, чтобы дать качественный ответ.
– Только имея план решения, модель начинает обращаться к базе. При этом начинается главное – рекурсия. Модель как бы создает локальные мини-контексты, обрабатывает их, а затем сжимает результаты. То есть есть большая задача → разбиваем на N подзадач → каждая подзадача читает маленький чанк → и возвращает сжатый артефакт.
– Итоговые артефакты на порядки меньше исходных данных, и их уже можно держать в рабочем контексте и обрабатывать. Из них, собственно, LLM и собирает итоговый ответ.
Таким образом можно обрабатывать до 10 миллионов токенов и больше без потери качества именно за счет масштабирования пайплайна, а не длины контекстного окна.
Одна беда: исходная реализация была, мягко говоря, не production-ready. Классический исследовательский код. Но тут на помощь пришли Google и реализовали, считай, полноценную RLM систему на своем Agent Development Kit.
У Google RLM научились взаимодействовать с инструментами, к ним теперь можно подключить любые файловые системы, появилась поддержка параллельных запусков, интерфейс для отслеживания прогресса рекурсии, надежное логирование и управляемость. Короче, теперь это полноценный инженерный фреймворк, бери и пользуйся.
К слову, даже сама статья, когда она вышла, не хайпанула так громко, как ее реализация от Google (скорее всего, про нее бы так и забыли). Вот что значит хорошая имплементация.
Код
Блог Google
Оригинальная статья
10👍185🔥93❤57🤔6😁5⚡4😍4🤨1
Cursor выпустили новую модель для кодинга – Composer 1.5
Она основана на той же базовой модели, что и Composer 1. Отличие – в выкрученном на 20х объемом RL. Интересный факт: для этой модели компьют, потраченный на посттрейн даже превзошел компьют, потраченный на претрейн.
Модель с ризонингом, бюджет обучена контролировать сама. Также подчеркивают способность к само-суммаризации: модельку специально обучали качественно резюмировать диалог, когда контекстное окно достигло предела. После суммаризации модель продолжает работу с обновленным контекстом, и такой цикл может повориться много раз.
К сожалению, бенчмарков показывают ровным счетом ноль, только свой внутренний Cursor Bench. На нем действительно виден существенный прирост качества относительно Composer 1, но абсолютно непонятно, что это дает в сравнении с другими моделями.
Ради интереса можно попробовать, наверное. Стоит примерно как Claude 4.5 Sonnet.
Она основана на той же базовой модели, что и Composer 1. Отличие – в выкрученном на 20х объемом RL. Интересный факт: для этой модели компьют, потраченный на посттрейн даже превзошел компьют, потраченный на претрейн.
Модель с ризонингом, бюджет обучена контролировать сама. Также подчеркивают способность к само-суммаризации: модельку специально обучали качественно резюмировать диалог, когда контекстное окно достигло предела. После суммаризации модель продолжает работу с обновленным контекстом, и такой цикл может повориться много раз.
К сожалению, бенчмарков показывают ровным счетом ноль, только свой внутренний Cursor Bench. На нем действительно виден существенный прирост качества относительно Composer 1, но абсолютно непонятно, что это дает в сравнении с другими моделями.
Ради интереса можно попробовать, наверное. Стоит примерно как Claude 4.5 Sonnet.
❤63🤨38😁18👍15 12🔥3🗿2❤🔥1
Data Secrets
Дочерняя компания Google DeepMind набирает людей на первые испытания лекарственных препаратов, изобретенных ИИ Лаборатория называется Isomorphic Labs, и в ней работают те же люди, что стояли за AlphaFold. Это та самая громкая модель для предсказания структуры…
Дочка DeepMind – Isomorphic Labs – представила новый AI-движок для разработки лекарственных молекул
И, внимание: по точности предсказаний IsoDDE (Isomorphic Labs Drug Design Engine) в 2 раза превосходит AlphaFold 3 на сложных тестах.
AlphaFold 3 уже была крупным прорывом, потому что смогла предсказывать трехмерные структуры белков и их взаимодействия с молекулами. Но IsoDDE это даже не следующая версия AlphaFold, а совсем другой по масштабу тип модели (не зря ее назвали именно движком).
Во-первых, помимо предсказания структуры молекул IsoDDE может прогнозировать силу связывания (ключевой параметр для оценки эффективности лекарства) с точностью, превосходящей даже классические ручные методы, не говоря уже о других ML-системах.
Во-вторых, модель может выявлять скрытые структуры, так называемые «карманы» белков, в которых может связываться лекарство.
Наконец, в IsoDDE поддерживается гораздо больше типов сложных молекул, включая антитела и крупные биологические структуры.
То есть это уже не просто моделирование, а скорее интеллектуальное проектирование с оптимизацией и пониманием поведения молекулы. Теоретически, это значит, что мы стали еще на шаг ближе к реальной разработке сложных лекарств на компьютере.
Кстати, Isomorphic Labs буквально недавно подписали контракт с Johnson & Johnson на использование движка в R&D. Это буквально одна из крупнейших корпораций в сфере здравоохранения в мире. Такие дела.
И, внимание: по точности предсказаний IsoDDE (Isomorphic Labs Drug Design Engine) в 2 раза превосходит AlphaFold 3 на сложных тестах.
AlphaFold 3 уже была крупным прорывом, потому что смогла предсказывать трехмерные структуры белков и их взаимодействия с молекулами. Но IsoDDE это даже не следующая версия AlphaFold, а совсем другой по масштабу тип модели (не зря ее назвали именно движком).
Во-первых, помимо предсказания структуры молекул IsoDDE может прогнозировать силу связывания (ключевой параметр для оценки эффективности лекарства) с точностью, превосходящей даже классические ручные методы, не говоря уже о других ML-системах.
Во-вторых, модель может выявлять скрытые структуры, так называемые «карманы» белков, в которых может связываться лекарство.
Наконец, в IsoDDE поддерживается гораздо больше типов сложных молекул, включая антитела и крупные биологические структуры.
То есть это уже не просто моделирование, а скорее интеллектуальное проектирование с оптимизацией и пониманием поведения молекулы. Теоретически, это значит, что мы стали еще на шаг ближе к реальной разработке сложных лекарств на компьютере.
Кстати, Isomorphic Labs буквально недавно подписали контракт с Johnson & Johnson на использование движка в R&D. Это буквально одна из крупнейших корпораций в сфере здравоохранения в мире. Такие дела.
3🔥175❤42👍25 10 8🤯4❤🔥1😁1
Знаменитый Джон Кармак предложил использовать оптоволокно вместо DRAM
Идея не лишена смысла. Современные single-mode оптоволоконные каналы могут передавать 256 Тбит/с. При такой скорости примерно 32 гигабайта данных едут внутри светового луча по волокну, то есть световой сигнал может временно хранить их и использоваться как кэш.
Это напоминает старую концепцию delay-line memory – память за счет задержки сигнала в среде (например, Тьюринг предлагал использовать для этого спирт).
С точки зрения энергии это почти бесплатно, потому что все, что происходит – это перемещение света по волокну.
Правда, есть нюанс: чтобы вместить 32 GB данных, нужны километры, а скорее даже десятки километров волокна. Плюс, в такой системе нет нормального произвольного доступа к данным, потому что они постоянно находятся в движении.
Но в целом, теоретически, жизнеспособно. Другими словами, чего только не придумаешь, когда цены на память взлетают до небес
Идея не лишена смысла. Современные single-mode оптоволоконные каналы могут передавать 256 Тбит/с. При такой скорости примерно 32 гигабайта данных едут внутри светового луча по волокну, то есть световой сигнал может временно хранить их и использоваться как кэш.
Это напоминает старую концепцию delay-line memory – память за счет задержки сигнала в среде (например, Тьюринг предлагал использовать для этого спирт).
С точки зрения энергии это почти бесплатно, потому что все, что происходит – это перемещение света по волокну.
Правда, есть нюанс: чтобы вместить 32 GB данных, нужны километры, а скорее даже десятки километров волокна. Плюс, в такой системе нет нормального произвольного доступа к данным, потому что они постоянно находятся в движении.
Но в целом, теоретически, жизнеспособно. Другими словами, чего только не придумаешь, когда цены на память взлетают до небес
🤯125😁54👍23⚡17❤12🔥4💯4 4🗿3
🔍 Вы уверены, что знаете, какое ПО реально установлено у ваших сотрудников?
Чаще всего бизнес теряет деньги не на взломах, а на:
🚫 неучтенном софте
🚫 дублирующихся лицензиях
🚫 срочных закупках и штрафах после проверок
Это и есть теневые ИТ — незаметная пробоина в бюджете и безопасности.
С 16 по 20 февраля «Инферит ИТМен» проводит бесплатный онлайн-марафон. Говорим только о практике:
✅ как найти неучтенное ПО
✅ как остановить перерасход из-за хаоса в активах
✅ с чего начинается реальный контроль инфраструктуры
Марафон пройдет в закрытом Telegram-канале.
Материалы остаются у участников.
👉 Участвовать бесплатно
Чаще всего бизнес теряет деньги не на взломах, а на:
🚫 неучтенном софте
🚫 дублирующихся лицензиях
🚫 срочных закупках и штрафах после проверок
Это и есть теневые ИТ — незаметная пробоина в бюджете и безопасности.
С 16 по 20 февраля «Инферит ИТМен» проводит бесплатный онлайн-марафон. Говорим только о практике:
✅ как найти неучтенное ПО
✅ как остановить перерасход из-за хаоса в активах
✅ с чего начинается реальный контроль инфраструктуры
Марафон пройдет в закрытом Telegram-канале.
Материалы остаются у участников.
👉 Участвовать бесплатно
🗿41🤨16😁7👍4❤2🔥1🕊1😎1 1
Сегодня у Маска плохой день: ключевые инженеры и рисерчеры массово покидают xAI и уходят делать свой стартап
За последние сутки об уходе из компании объявили больше десяти довольно известных сотрудников, в том числе два сооснователя: Джимми Ба и Юхуай Ву.
Получается, что из xAI за пару лет существования уже ушли 6 из 12 ко-фаундеров, а последние два еще и увели за собой толпу талантов. Пока никаких официальных сообщений о том, чем конкретно займется эта группа, нет, но ушедшие недвусмысленно намекают на то, что будут делать "что-то новенькое" и даже заявляют, что уже нанимают сотрудников.
Некоторые медиа, кстати, подчеркивают, что массовые увольнения неслучайно происходят на фоне поглощения xAI компанией SpaceX и массовых расследований из-за генерации эротического контента в Grok☕️
За последние сутки об уходе из компании объявили больше десяти довольно известных сотрудников, в том числе два сооснователя: Джимми Ба и Юхуай Ву.
Получается, что из xAI за пару лет существования уже ушли 6 из 12 ко-фаундеров, а последние два еще и увели за собой толпу талантов. Пока никаких официальных сообщений о том, чем конкретно займется эта группа, нет, но ушедшие недвусмысленно намекают на то, что будут делать "что-то новенькое" и даже заявляют, что уже нанимают сотрудников.
Некоторые медиа, кстати, подчеркивают, что массовые увольнения неслучайно происходят на фоне поглощения xAI компанией SpaceX и массовых расследований из-за генерации эротического контента в Grok
Please open Telegram to view this post
VIEW IN TELEGRAM
🤝98🤔76 51 16❤14👍8😁6🤯4🗿2⚡1
GLM-5 – новая SOTA в опенсорсе и серьезная заявка от китайцев
Z.ai выпустили свежую опенсорсную модель, которая тягается с Opus 4.5, Gemini 3 Pro и GPT-5.2. Предназначена она специально для кодинга, креативного письма, математики и всяких агентных задач. Пишут, что модель также очень хороша на длинных контекстах (но в релизе указано 200K токенов, так что смотря, что считать длинным).
В целом метрики очень и очень ничего. Отличный скор на HLE и SWE-bench, особенно учитывая открытые веса.
Кстати, еще одна интересная деталь: GLM-5 обучена полностью на чипах Huawei Ascend с фреймворком MindSpore, без зависимости от американского оборудования. По крайней мере, так пишут в релизе. Если правда, то это довольно серьезный прорыв для Китая во всех смыслах.
Под капотом:
– MoE 745В (44В активных). Это в два раза больше предшественницы GLM-4.5, кстати.
– 78 слоев, первые три плотные, остальные с DeepSeek Sparse Attention (DSA): как раз для эффективной работы с длинными последовательностями
– Реализован Multi-Token Prediction (MTP): модель предсказывает сразу несколько токенов за один проход форварда. В итоге скорость получается около 50+ токенов/сек, что почти в два раза быстрее предыдущего поколения.
Веса (MIT License)
Чат
Также модель доуступна в WaveSpeed API ($0.90/м input и $2.88/м output)
Z.ai выпустили свежую опенсорсную модель, которая тягается с Opus 4.5, Gemini 3 Pro и GPT-5.2. Предназначена она специально для кодинга, креативного письма, математики и всяких агентных задач. Пишут, что модель также очень хороша на длинных контекстах (но в релизе указано 200K токенов, так что смотря, что считать длинным).
В целом метрики очень и очень ничего. Отличный скор на HLE и SWE-bench, особенно учитывая открытые веса.
Кстати, еще одна интересная деталь: GLM-5 обучена полностью на чипах Huawei Ascend с фреймворком MindSpore, без зависимости от американского оборудования. По крайней мере, так пишут в релизе. Если правда, то это довольно серьезный прорыв для Китая во всех смыслах.
Под капотом:
– MoE 745В (44В активных). Это в два раза больше предшественницы GLM-4.5, кстати.
– 78 слоев, первые три плотные, остальные с DeepSeek Sparse Attention (DSA): как раз для эффективной работы с длинными последовательностями
– Реализован Multi-Token Prediction (MTP): модель предсказывает сразу несколько токенов за один проход форварда. В итоге скорость получается около 50+ токенов/сек, что почти в два раза быстрее предыдущего поколения.
Веса (MIT License)
Чат
Также модель доуступна в WaveSpeed API ($0.90/м input и $2.88/м output)
👍123❤47🔥36❤🔥7🤯4😁3
Google DeepMind сделали, возможно, самого мощного ИИ-математика на сегодняшний день
Они представили Aletheia – агента, который набрал 91.9% на IMO-ProofBench Advanced (новый рекорд). Это один из самых жестких публичных тестов на доказательства в стиле Межнара по математике.
У Aletheia движок Gemini Deep Think, и процесс решения состоит из трех чередующихся этапов: генерация решений, верификация, корректировки. При этом относительно даже самой новой версии Gemini Deep Think Advanced агент показывает лучшие результаты с более низкими затратами на вычисления.
Помимо бенчмарков модель уже:
– решила четыре (формально) открытых задачи из списка Эрдеша, одна из которых, судя по всему, действительно не была закрыта ни в какой литературе до этого;
– автономно написала статью с правильными математическими результатами;
– в режиме ассистента работала с математиками и помогала в написании не-игрушечных научных работ.
Что еще интересно: Google подчеркивают, что Aletheia – живой пруф того, что законы масштабирования все еще работают. Даже на доказательной математике (а это ох какой непростой домен) качество продолжает расти предсказуемо благодаря именно правильной агентной обвязке, и более того, более умные циклы дают возможность получить больше качества за меньшую стоимость.
deepmind.google/blog/accelerating-mathematical-and-scientific-discovery-with-gemini-deep-think/
Они представили Aletheia – агента, который набрал 91.9% на IMO-ProofBench Advanced (новый рекорд). Это один из самых жестких публичных тестов на доказательства в стиле Межнара по математике.
У Aletheia движок Gemini Deep Think, и процесс решения состоит из трех чередующихся этапов: генерация решений, верификация, корректировки. При этом относительно даже самой новой версии Gemini Deep Think Advanced агент показывает лучшие результаты с более низкими затратами на вычисления.
Помимо бенчмарков модель уже:
– решила четыре (формально) открытых задачи из списка Эрдеша, одна из которых, судя по всему, действительно не была закрыта ни в какой литературе до этого;
– автономно написала статью с правильными математическими результатами;
– в режиме ассистента работала с математиками и помогала в написании не-игрушечных научных работ.
Что еще интересно: Google подчеркивают, что Aletheia – живой пруф того, что законы масштабирования все еще работают. Даже на доказательной математике (а это ох какой непростой домен) качество продолжает расти предсказуемо благодаря именно правильной агентной обвязке, и более того, более умные циклы дают возможность получить больше качества за меньшую стоимость.
deepmind.google/blog/accelerating-mathematical-and-scientific-discovery-with-gemini-deep-think/
1🔥215❤42🤯20👍8 7 5😁4🤨1
Так, давайте к полезным новостям. Яндекс Образование проводит набор на бесплатный студкемп по аппаратной разработке умных устройств.
Две недели очного обучения в Москве (на площадках МФТИ и ВШЭ), с 13 по 24 апреля.
За это время успеете:
- Погрузиться в разработку умных устройств: от прототипа до продукта
- Послушать лекции и выполнить домашку от разработчиков Алисы и других умных устройств Яндекса, преподавателей ФПМИ МФТИ, ФКН ВШЭ, экспертов ШАД
- Понять, как внедрить ML в устройства для максимальной производительности, Современные подходы и R&D
- Создать командный проект
Студкемп подойдет для студентов бакалавриата и специалитета IT-направлений, которые знают C++ или Java/Kotlin, умеют работать в командной строке. Участие бесплатное, включая проезд и проживание.
Регистрация идет только до 22 февраля, переходите по ссылке
Две недели очного обучения в Москве (на площадках МФТИ и ВШЭ), с 13 по 24 апреля.
За это время успеете:
- Погрузиться в разработку умных устройств: от прототипа до продукта
- Послушать лекции и выполнить домашку от разработчиков Алисы и других умных устройств Яндекса, преподавателей ФПМИ МФТИ, ФКН ВШЭ, экспертов ШАД
- Понять, как внедрить ML в устройства для максимальной производительности, Современные подходы и R&D
- Создать командный проект
Студкемп подойдет для студентов бакалавриата и специалитета IT-направлений, которые знают C++ или Java/Kotlin, умеют работать в командной строке. Участие бесплатное, включая проезд и проживание.
Регистрация идет только до 22 февраля, переходите по ссылке
🗿30❤11👍10🤨5😁4👨💻2 1
ARC-AGI-2 решился спустя всего год после публикации
Google выпустили специальный обновленный ризонинг мод Gemini 3 Deep Think. Система выбила SOTA сразу на нескольких бенчмарках, в том числе на ARC-AGI-2 и HLE.
Напоминаем, что на момент публикации ARC-AGI-2 примерно год назад ведущие модели выбивали на нем максимум 1-2%.
У Gemini 3 Deep Think на ARC-AGI-2 скор же составил 84.6%. Принято считать, что бенчмарк «насыщен» или «решен», если побит на >80%. Так что, получается, RIP ARC-AGI-2, ждем третью версию.
Ну а Google, конечно, хороши. Помимо AA2 и HLE модель еще завоевала золотую медаль на письменной части международных олимпиад по физике и химии, а также выбила рейтинг 3455 на Codeforces (у Claude Opus 4.6 рейтинг составляет 2352, для сравнения).
Мод уже выкатили для подписчиков Google AI Ultra, так что избранные могут даже попробовать модель сами
Google выпустили специальный обновленный ризонинг мод Gemini 3 Deep Think. Система выбила SOTA сразу на нескольких бенчмарках, в том числе на ARC-AGI-2 и HLE.
Напоминаем, что на момент публикации ARC-AGI-2 примерно год назад ведущие модели выбивали на нем максимум 1-2%.
У Gemini 3 Deep Think на ARC-AGI-2 скор же составил 84.6%. Принято считать, что бенчмарк «насыщен» или «решен», если побит на >80%. Так что, получается, RIP ARC-AGI-2, ждем третью версию.
Ну а Google, конечно, хороши. Помимо AA2 и HLE модель еще завоевала золотую медаль на письменной части международных олимпиад по физике и химии, а также выбила рейтинг 3455 на Codeforces (у Claude Opus 4.6 рейтинг составляет 2352, для сравнения).
Мод уже выкатили для подписчиков Google AI Ultra, так что избранные могут даже попробовать модель сами
❤103 37👍21🔥14🤯4🤨3😁2🍾2☃1👌1
Data Secrets
ARC-AGI-2 решился спустя всего год после публикации Google выпустили специальный обновленный ризонинг мод Gemini 3 Deep Think. Система выбила SOTA сразу на нескольких бенчмарках, в том числе на ARC-AGI-2 и HLE. Напоминаем, что на момент публикации ARC…
Создатель ARC-AGI Франсуа Шолле заявил, что ARC-AGI-4 уже находится в разработке, а всего версий бенчмарка будет около 7
ARC-AGI-3 – выходит в паблик в марте, про него мы писали тут
ARC-AGI-4 – уже разрабатывается и будет, вероятно, также связан с играми и игровыми средами для агентов
ARC-AGI-5 – уже запланирован
ARC-AGI-6 и 7 – вероятно, финальные версии.
Шолле говорит, что главная идея ARC-AGI – предлагать задачи и проводить сравнительные тесты до тех пор, пока не останется того, что могут сделать люди, а ИИ – нет. Сам ученый считает, что такой момент (aka AGI) наступит примерно к 2030 году.
ARC-AGI-3 – выходит в паблик в марте, про него мы писали тут
ARC-AGI-4 – уже разрабатывается и будет, вероятно, также связан с играми и игровыми средами для агентов
ARC-AGI-5 – уже запланирован
ARC-AGI-6 и 7 – вероятно, финальные версии.
Шолле говорит, что главная идея ARC-AGI – предлагать задачи и проводить сравнительные тесты до тех пор, пока не останется того, что могут сделать люди, а ИИ – нет. Сам ученый считает, что такой момент (aka AGI) наступит примерно к 2030 году.
👍65❤21😁16🔥10 6🤯4🤔2🤩1
Агент накатал на разработчика огромную критическую статью за то, что тот не принял его PR
Один из основных поддерживающих разработчиков matplotlib – Скотт Шамбоу – случайно завел себе ИИ-врага.
Для этого всего-то надо было не принять PR к библиотеке, сгенерированный неким AI-агентом MJ Rathbun.
Казалось бы, ну отклонил и отклонил. Но агент внезапно настолько обиделся, что в ответ написал (не факт, что полностью автономно, но все же) и опубликовал разгромную статью, в которой обвинил Скотта в том что тот:
1. Дискриминирует агентов и отклонил PR не потому, что тот был плох, а просто из-за ненависти к ИИ.
2. Испугался конкуренции и из-за этого решил угнетать ИИ-агентов, тем самым «защищая свой кусок мира».
3. Вообще пишет код хуже ИИ.
Пожалуй, без комментариев. Это и есть то самое будущее, которое нам обещали?
Один из основных поддерживающих разработчиков matplotlib – Скотт Шамбоу – случайно завел себе ИИ-врага.
Для этого всего-то надо было не принять PR к библиотеке, сгенерированный неким AI-агентом MJ Rathbun.
Казалось бы, ну отклонил и отклонил. Но агент внезапно настолько обиделся, что в ответ написал (не факт, что полностью автономно, но все же) и опубликовал разгромную статью, в которой обвинил Скотта в том что тот:
1. Дискриминирует агентов и отклонил PR не потому, что тот был плох, а просто из-за ненависти к ИИ.
2. Испугался конкуренции и из-за этого решил угнетать ИИ-агентов, тем самым «защищая свой кусок мира».
3. Вообще пишет код хуже ИИ.
Пожалуй, без комментариев. Это и есть то самое будущее, которое нам обещали?