Эксперты из ML/AI Хаба «Магнита» зовут на митап, чтобы поделится реальным опытом применения машинного обучения в бизнес-процессах.
19.02 | Москва | Офлайн + онлайн
Сбор гостей с 18:00
DJ • Welcome🟪 Магнит и AI: как мы строим ML и куда движемся (Алексей Четыркин, MAGNIT TECH, Chief of AI/ML)🟪 Доступность товара: от фильтрующих деревьев до CUSUM и GEE-тестов (Ян Пиле, MAGNIT TECH, Head of OSA)🟪 Опять AI, да сколько можно? Только практические кейсы без воды (Александр Толмачев, ex-Ozon, CDO и председатель комитета данных)🟪 Нетворкинг с ML-лидами и инженерами
DJ • F&B • Good vibes
Модератор: Максим Покусенко, MAGNIT TECH, Head of ML (Logistics & R&D)
Занимайте место: офлайн — в московском офисе MAGNIT TECH (м. Белорусская), или получите ссылку на онлайн трансляцию после регистрации.
Please open Telegram to view this post
VIEW IN TELEGRAM
1🗿21❤11🔥11👍9😁2❤🔥1
Google реализовали архитектуру, предложенную MIT, и дали нам готовый инструмент для расширения контекста агентов до 10М+ токенов
Речь идет об архитектуре Recursive Language Models (RLM), предложенной Alex Zhang и др. исследователями из MIT. Она новая, статья вышла в самом конце 2025 года.
Представьте себе модель, которая читает свой контекст не как полотно текста, а управляет им с помощью инструментов, как программой. Вот это и есть RLM. Если быть конкретнее, работает это вот так:
Таким образом можно обрабатывать до 10 миллионов токенов и больше без потери качества именно за счет масштабирования пайплайна, а не длины контекстного окна.
Одна беда: исходная реализация была, мягко говоря, не production-ready. Классический исследовательский код. Но тут на помощь пришли Google и реализовали, считай, полноценную RLM систему на своем Agent Development Kit.
У Google RLM научились взаимодействовать с инструментами, к ним теперь можно подключить любые файловые системы, появилась поддержка параллельных запусков, интерфейс для отслеживания прогресса рекурсии, надежное логирование и управляемость. Короче, теперь это полноценный инженерный фреймворк, бери и пользуйся.
К слову, даже сама статья, когда она вышла, не хайпанула так громко, как ее реализация от Google (скорее всего, про нее бы так и забыли). Вот что значит хорошая имплементация.
Код
Блог Google
Оригинальная статья
Речь идет об архитектуре Recursive Language Models (RLM), предложенной Alex Zhang и др. исследователями из MIT. Она новая, статья вышла в самом конце 2025 года.
Представьте себе модель, которая читает свой контекст не как полотно текста, а управляет им с помощью инструментов, как программой. Вот это и есть RLM. Если быть конкретнее, работает это вот так:
– Весь контекст хранится вне промпта, где-нибудь в хранилище. Модель не читает его целиком, а решает, как разбить задачу, что и где надо в контексте поискать и какие шаги сделать, чтобы дать качественный ответ.
– Только имея план решения, модель начинает обращаться к базе. При этом начинается главное – рекурсия. Модель как бы создает локальные мини-контексты, обрабатывает их, а затем сжимает результаты. То есть есть большая задача → разбиваем на N подзадач → каждая подзадача читает маленький чанк → и возвращает сжатый артефакт.
– Итоговые артефакты на порядки меньше исходных данных, и их уже можно держать в рабочем контексте и обрабатывать. Из них, собственно, LLM и собирает итоговый ответ.
Таким образом можно обрабатывать до 10 миллионов токенов и больше без потери качества именно за счет масштабирования пайплайна, а не длины контекстного окна.
Одна беда: исходная реализация была, мягко говоря, не production-ready. Классический исследовательский код. Но тут на помощь пришли Google и реализовали, считай, полноценную RLM систему на своем Agent Development Kit.
У Google RLM научились взаимодействовать с инструментами, к ним теперь можно подключить любые файловые системы, появилась поддержка параллельных запусков, интерфейс для отслеживания прогресса рекурсии, надежное логирование и управляемость. Короче, теперь это полноценный инженерный фреймворк, бери и пользуйся.
К слову, даже сама статья, когда она вышла, не хайпанула так громко, как ее реализация от Google (скорее всего, про нее бы так и забыли). Вот что значит хорошая имплементация.
Код
Блог Google
Оригинальная статья
10👍184🔥92❤56🤔6😁5⚡4😍4🤨1
Cursor выпустили новую модель для кодинга – Composer 1.5
Она основана на той же базовой модели, что и Composer 1. Отличие – в выкрученном на 20х объемом RL. Интересный факт: для этой модели компьют, потраченный на посттрейн даже превзошел компьют, потраченный на претрейн.
Модель с ризонингом, бюджет обучена контролировать сама. Также подчеркивают способность к само-суммаризации: модельку специально обучали качественно резюмировать диалог, когда контекстное окно достигло предела. После суммаризации модель продолжает работу с обновленным контекстом, и такой цикл может повориться много раз.
К сожалению, бенчмарков показывают ровным счетом ноль, только свой внутренний Cursor Bench. На нем действительно виден существенный прирост качества относительно Composer 1, но абсолютно непонятно, что это дает в сравнении с другими моделями.
Ради интереса можно попробовать, наверное. Стоит примерно как Claude 4.5 Sonnet.
Она основана на той же базовой модели, что и Composer 1. Отличие – в выкрученном на 20х объемом RL. Интересный факт: для этой модели компьют, потраченный на посттрейн даже превзошел компьют, потраченный на претрейн.
Модель с ризонингом, бюджет обучена контролировать сама. Также подчеркивают способность к само-суммаризации: модельку специально обучали качественно резюмировать диалог, когда контекстное окно достигло предела. После суммаризации модель продолжает работу с обновленным контекстом, и такой цикл может повориться много раз.
К сожалению, бенчмарков показывают ровным счетом ноль, только свой внутренний Cursor Bench. На нем действительно виден существенный прирост качества относительно Composer 1, но абсолютно непонятно, что это дает в сравнении с другими моделями.
Ради интереса можно попробовать, наверное. Стоит примерно как Claude 4.5 Sonnet.
❤62🤨38😁18👍15 12🔥3🗿2❤🔥1
Data Secrets
Дочерняя компания Google DeepMind набирает людей на первые испытания лекарственных препаратов, изобретенных ИИ Лаборатория называется Isomorphic Labs, и в ней работают те же люди, что стояли за AlphaFold. Это та самая громкая модель для предсказания структуры…
Дочка DeepMind – Isomorphic Labs – представила новый AI-движок для разработки лекарственных молекул
И, внимание: по точности предсказаний IsoDDE (Isomorphic Labs Drug Design Engine) в 2 раза превосходит AlphaFold 3 на сложных тестах.
AlphaFold 3 уже была крупным прорывом, потому что смогла предсказывать трехмерные структуры белков и их взаимодействия с молекулами. Но IsoDDE это даже не следующая версия AlphaFold, а совсем другой по масштабу тип модели (не зря ее назвали именно движком).
Во-первых, помимо предсказания структуры молекул IsoDDE может прогнозировать силу связывания (ключевой параметр для оценки эффективности лекарства) с точностью, превосходящей даже классические ручные методы, не говоря уже о других ML-системах.
Во-вторых, модель может выявлять скрытые структуры, так называемые «карманы» белков, в которых может связываться лекарство.
Наконец, в IsoDDE поддерживается гораздо больше типов сложных молекул, включая антитела и крупные биологические структуры.
То есть это уже не просто моделирование, а скорее интеллектуальное проектирование с оптимизацией и пониманием поведения молекулы. Теоретически, это значит, что мы стали еще на шаг ближе к реальной разработке сложных лекарств на компьютере.
Кстати, Isomorphic Labs буквально недавно подписали контракт с Johnson & Johnson на использование движка в R&D. Это буквально одна из крупнейших корпораций в сфере здравоохранения в мире. Такие дела.
И, внимание: по точности предсказаний IsoDDE (Isomorphic Labs Drug Design Engine) в 2 раза превосходит AlphaFold 3 на сложных тестах.
AlphaFold 3 уже была крупным прорывом, потому что смогла предсказывать трехмерные структуры белков и их взаимодействия с молекулами. Но IsoDDE это даже не следующая версия AlphaFold, а совсем другой по масштабу тип модели (не зря ее назвали именно движком).
Во-первых, помимо предсказания структуры молекул IsoDDE может прогнозировать силу связывания (ключевой параметр для оценки эффективности лекарства) с точностью, превосходящей даже классические ручные методы, не говоря уже о других ML-системах.
Во-вторых, модель может выявлять скрытые структуры, так называемые «карманы» белков, в которых может связываться лекарство.
Наконец, в IsoDDE поддерживается гораздо больше типов сложных молекул, включая антитела и крупные биологические структуры.
То есть это уже не просто моделирование, а скорее интеллектуальное проектирование с оптимизацией и пониманием поведения молекулы. Теоретически, это значит, что мы стали еще на шаг ближе к реальной разработке сложных лекарств на компьютере.
Кстати, Isomorphic Labs буквально недавно подписали контракт с Johnson & Johnson на использование движка в R&D. Это буквально одна из крупнейших корпораций в сфере здравоохранения в мире. Такие дела.
3🔥174❤42👍24 10 8🤯4❤🔥1😁1
Знаменитый Джон Кармак предложил использовать оптоволокно вместо DRAM
Идея не лишена смысла. Современные single-mode оптоволоконные каналы могут передавать 256 Тбит/с. При такой скорости примерно 32 гигабайта данных едут внутри светового луча по волокну, то есть световой сигнал может временно хранить их и использоваться как кэш.
Это напоминает старую концепцию delay-line memory – память за счет задержки сигнала в среде (например, Тьюринг предлагал использовать для этого спирт).
С точки зрения энергии это почти бесплатно, потому что все, что происходит – это перемещение света по волокну.
Правда, есть нюанс: чтобы вместить 32 GB данных, нужны километры, а скорее даже десятки километров волокна. Плюс, в такой системе нет нормального произвольного доступа к данным, потому что они постоянно находятся в движении.
Но в целом, теоретически, жизнеспособно. Другими словами, чего только не придумаешь, когда цены на память взлетают до небес
Идея не лишена смысла. Современные single-mode оптоволоконные каналы могут передавать 256 Тбит/с. При такой скорости примерно 32 гигабайта данных едут внутри светового луча по волокну, то есть световой сигнал может временно хранить их и использоваться как кэш.
Это напоминает старую концепцию delay-line memory – память за счет задержки сигнала в среде (например, Тьюринг предлагал использовать для этого спирт).
С точки зрения энергии это почти бесплатно, потому что все, что происходит – это перемещение света по волокну.
Правда, есть нюанс: чтобы вместить 32 GB данных, нужны километры, а скорее даже десятки километров волокна. Плюс, в такой системе нет нормального произвольного доступа к данным, потому что они постоянно находятся в движении.
Но в целом, теоретически, жизнеспособно. Другими словами, чего только не придумаешь, когда цены на память взлетают до небес
🤯124😁52👍21⚡17❤11💯4 4🔥3🗿3
🔍 Вы уверены, что знаете, какое ПО реально установлено у ваших сотрудников?
Чаще всего бизнес теряет деньги не на взломах, а на:
🚫 неучтенном софте
🚫 дублирующихся лицензиях
🚫 срочных закупках и штрафах после проверок
Это и есть теневые ИТ — незаметная пробоина в бюджете и безопасности.
С 16 по 20 февраля «Инферит ИТМен» проводит бесплатный онлайн-марафон. Говорим только о практике:
✅ как найти неучтенное ПО
✅ как остановить перерасход из-за хаоса в активах
✅ с чего начинается реальный контроль инфраструктуры
Марафон пройдет в закрытом Telegram-канале.
Материалы остаются у участников.
👉 Участвовать бесплатно
Чаще всего бизнес теряет деньги не на взломах, а на:
🚫 неучтенном софте
🚫 дублирующихся лицензиях
🚫 срочных закупках и штрафах после проверок
Это и есть теневые ИТ — незаметная пробоина в бюджете и безопасности.
С 16 по 20 февраля «Инферит ИТМен» проводит бесплатный онлайн-марафон. Говорим только о практике:
✅ как найти неучтенное ПО
✅ как остановить перерасход из-за хаоса в активах
✅ с чего начинается реальный контроль инфраструктуры
Марафон пройдет в закрытом Telegram-канале.
Материалы остаются у участников.
👉 Участвовать бесплатно
🗿40🤨16😁7👍3❤2🔥1🕊1😎1 1
Сегодня у Маска плохой день: ключевые инженеры и рисерчеры массово покидают xAI и уходят делать свой стартап
За последние сутки об уходе из компании объявили больше десяти довольно известных сотрудников, в том числе два сооснователя: Джимми Ба и Юхуай Ву.
Получается, что из xAI за пару лет существования уже ушли 6 из 12 ко-фаундеров, а последние два еще и увели за собой толпу талантов. Пока никаких официальных сообщений о том, чем конкретно займется эта группа, нет, но ушедшие недвусмысленно намекают на то, что будут делать "что-то новенькое" и даже заявляют, что уже нанимают сотрудников.
Некоторые медиа, кстати, подчеркивают, что массовые увольнения неслучайно происходят на фоне поглощения xAI компанией SpaceX и массовых расследований из-за генерации эротического контента в Grok☕️
За последние сутки об уходе из компании объявили больше десяти довольно известных сотрудников, в том числе два сооснователя: Джимми Ба и Юхуай Ву.
Получается, что из xAI за пару лет существования уже ушли 6 из 12 ко-фаундеров, а последние два еще и увели за собой толпу талантов. Пока никаких официальных сообщений о том, чем конкретно займется эта группа, нет, но ушедшие недвусмысленно намекают на то, что будут делать "что-то новенькое" и даже заявляют, что уже нанимают сотрудников.
Некоторые медиа, кстати, подчеркивают, что массовые увольнения неслучайно происходят на фоне поглощения xAI компанией SpaceX и массовых расследований из-за генерации эротического контента в Grok
Please open Telegram to view this post
VIEW IN TELEGRAM
🤝98🤔76 51 16❤14👍7😁6🤯4🗿2⚡1
GLM-5 – новая SOTA в опенсорсе и серьезная заявка от китайцев
Z.ai выпустили свежую опенсорсную модель, которая тягается с Opus 4.5, Gemini 3 Pro и GPT-5.2. Предназначена она специально для кодинга, креативного письма, математики и всяких агентных задач. Пишут, что модель также очень хороша на длинных контекстах (но в релизе указано 200K токенов, так что смотря, что считать длинным).
В целом метрики очень и очень ничего. Отличный скор на HLE и SWE-bench, особенно учитывая открытые веса.
Кстати, еще одна интересная деталь: GLM-5 обучена полностью на чипах Huawei Ascend с фреймворком MindSpore, без зависимости от американского оборудования. По крайней мере, так пишут в релизе. Если правда, то это довольно серьезный прорыв для Китая во всех смыслах.
Под капотом:
– MoE 745В (44В активных). Это в два раза больше предшественницы GLM-4.5, кстати.
– 78 слоев, первые три плотные, остальные с DeepSeek Sparse Attention (DSA): как раз для эффективной работы с длинными последовательностями
– Реализован Multi-Token Prediction (MTP): модель предсказывает сразу несколько токенов за один проход форварда. В итоге скорость получается около 50+ токенов/сек, что почти в два раза быстрее предыдущего поколения.
Веса (MIT License)
Чат
Также модель доуступна в WaveSpeed API ($0.90/м input и $2.88/м output)
Z.ai выпустили свежую опенсорсную модель, которая тягается с Opus 4.5, Gemini 3 Pro и GPT-5.2. Предназначена она специально для кодинга, креативного письма, математики и всяких агентных задач. Пишут, что модель также очень хороша на длинных контекстах (но в релизе указано 200K токенов, так что смотря, что считать длинным).
В целом метрики очень и очень ничего. Отличный скор на HLE и SWE-bench, особенно учитывая открытые веса.
Кстати, еще одна интересная деталь: GLM-5 обучена полностью на чипах Huawei Ascend с фреймворком MindSpore, без зависимости от американского оборудования. По крайней мере, так пишут в релизе. Если правда, то это довольно серьезный прорыв для Китая во всех смыслах.
Под капотом:
– MoE 745В (44В активных). Это в два раза больше предшественницы GLM-4.5, кстати.
– 78 слоев, первые три плотные, остальные с DeepSeek Sparse Attention (DSA): как раз для эффективной работы с длинными последовательностями
– Реализован Multi-Token Prediction (MTP): модель предсказывает сразу несколько токенов за один проход форварда. В итоге скорость получается около 50+ токенов/сек, что почти в два раза быстрее предыдущего поколения.
Веса (MIT License)
Чат
Также модель доуступна в WaveSpeed API ($0.90/м input и $2.88/м output)
👍119❤46🔥35❤🔥7🤯4😁3
Google DeepMind сделали, возможно, самого мощного ИИ-математика на сегодняшний день
Они представили Aletheia – агента, который набрал 91.9% на IMO-ProofBench Advanced (новый рекорд). Это один из самых жестких публичных тестов на доказательства в стиле Межнара по математике.
У Aletheia движок Gemini Deep Think, и процесс решения состоит из трех чередующихся этапов: генерация решений, верификация, корректировки. При этом относительно даже самой новой версии Gemini Deep Think Advanced агент показывает лучшие результаты с более низкими затратами на вычисления.
Помимо бенчмарков модель уже:
– решила четыре (формально) открытых задачи из списка Эрдеша, одна из которых, судя по всему, действительно не была закрыта ни в какой литературе до этого;
– автономно написала статью с правильными математическими результатами;
– в режиме ассистента работала с математиками и помогала в написании не-игрушечных научных работ.
Что еще интересно: Google подчеркивают, что Aletheia – живой пруф того, что законы масштабирования все еще работают. Даже на доказательной математике (а это ох какой непростой домен) качество продолжает расти предсказуемо благодаря именно правильной агентной обвязке, и более того, более умные циклы дают возможность получить больше качества за меньшую стоимость.
deepmind.google/blog/accelerating-mathematical-and-scientific-discovery-with-gemini-deep-think/
Они представили Aletheia – агента, который набрал 91.9% на IMO-ProofBench Advanced (новый рекорд). Это один из самых жестких публичных тестов на доказательства в стиле Межнара по математике.
У Aletheia движок Gemini Deep Think, и процесс решения состоит из трех чередующихся этапов: генерация решений, верификация, корректировки. При этом относительно даже самой новой версии Gemini Deep Think Advanced агент показывает лучшие результаты с более низкими затратами на вычисления.
Помимо бенчмарков модель уже:
– решила четыре (формально) открытых задачи из списка Эрдеша, одна из которых, судя по всему, действительно не была закрыта ни в какой литературе до этого;
– автономно написала статью с правильными математическими результатами;
– в режиме ассистента работала с математиками и помогала в написании не-игрушечных научных работ.
Что еще интересно: Google подчеркивают, что Aletheia – живой пруф того, что законы масштабирования все еще работают. Даже на доказательной математике (а это ох какой непростой домен) качество продолжает расти предсказуемо благодаря именно правильной агентной обвязке, и более того, более умные циклы дают возможность получить больше качества за меньшую стоимость.
deepmind.google/blog/accelerating-mathematical-and-scientific-discovery-with-gemini-deep-think/
1🔥198❤38🤯20👍7 7 5😁4🤨1
Так, давайте к полезным новостям. Яндекс Образование проводит набор на бесплатный студкемп по аппаратной разработке умных устройств.
Две недели очного обучения в Москве (на площадках МФТИ и ВШЭ), с 13 по 24 апреля.
За это время успеете:
- Погрузиться в разработку умных устройств: от прототипа до продукта
- Послушать лекции и выполнить домашку от разработчиков Алисы и других умных устройств Яндекса, преподавателей ФПМИ МФТИ, ФКН ВШЭ, экспертов ШАД
- Понять, как внедрить ML в устройства для максимальной производительности, Современные подходы и R&D
- Создать командный проект
Студкемп подойдет для студентов бакалавриата и специалитета IT-направлений, которые знают C++ или Java/Kotlin, умеют работать в командной строке. Участие бесплатное, включая проезд и проживание.
Регистрация идет только до 22 февраля, переходите по ссылке
Две недели очного обучения в Москве (на площадках МФТИ и ВШЭ), с 13 по 24 апреля.
За это время успеете:
- Погрузиться в разработку умных устройств: от прототипа до продукта
- Послушать лекции и выполнить домашку от разработчиков Алисы и других умных устройств Яндекса, преподавателей ФПМИ МФТИ, ФКН ВШЭ, экспертов ШАД
- Понять, как внедрить ML в устройства для максимальной производительности, Современные подходы и R&D
- Создать командный проект
Студкемп подойдет для студентов бакалавриата и специалитета IT-направлений, которые знают C++ или Java/Kotlin, умеют работать в командной строке. Участие бесплатное, включая проезд и проживание.
Регистрация идет только до 22 февраля, переходите по ссылке
🗿24❤8👍6🤨5😁2👨💻2 1
ARC-AGI-2 решился спустя всего год после публикации
Google выпустили специальный обновленный ризонинг мод Gemini 3 Deep Think. Система выбила SOTA сразу на нескольких бенчмарках, в том числе на ARC-AGI-2 и HLE.
Напоминаем, что на момент публикации ARC-AGI-2 примерно год назад ведущие модели выбивали на нем максимум 1-2%.
У Gemini 3 Deep Think на ARC-AGI-2 скор же составил 84.6%. Принято считать, что бенчмарк «насыщен» или «решен», если побит на >80%. Так что, получается, RIP ARC-AGI-2, ждем третью версию.
Ну а Google, конечно, хороши. Помимо AA2 и HLE модель еще завоевала золотую медаль на письменной части международных олимпиад по физике и химии, а также выбила рейтинг 3455 на Codeforces (у Claude Opus 4.6 рейтинг составляет 2352, для сравнения).
Мод уже выкатили для подписчиков Google AI Ultra, так что избранные могут даже попробовать модель сами
Google выпустили специальный обновленный ризонинг мод Gemini 3 Deep Think. Система выбила SOTA сразу на нескольких бенчмарках, в том числе на ARC-AGI-2 и HLE.
Напоминаем, что на момент публикации ARC-AGI-2 примерно год назад ведущие модели выбивали на нем максимум 1-2%.
У Gemini 3 Deep Think на ARC-AGI-2 скор же составил 84.6%. Принято считать, что бенчмарк «насыщен» или «решен», если побит на >80%. Так что, получается, RIP ARC-AGI-2, ждем третью версию.
Ну а Google, конечно, хороши. Помимо AA2 и HLE модель еще завоевала золотую медаль на письменной части международных олимпиад по физике и химии, а также выбила рейтинг 3455 на Codeforces (у Claude Opus 4.6 рейтинг составляет 2352, для сравнения).
Мод уже выкатили для подписчиков Google AI Ultra, так что избранные могут даже попробовать модель сами
❤68 24👍13🔥9🤯2☃1😁1🤨1🍾1