ИИ-исследователи всё более полного цикла.
ASI-Evolve: AI Accelerates AI
Weixian Xu, Tiantian Mi, Yixiu Liu, Yang Nan, Zhimeng Zhou, Lyumanshan Ye, Lin Zhang, Yu Qiao, Pengfei Liu
Paper: https://arxiv.org/abs/2603.29640
Code: https://github.com/GAIR-NLP/ASI-Evolve
Review: https://arxiviq.substack.com/p/asi-evolve-ai-accelerates-ai
# TL;DR
ЧТО сделали: Авторы представили ASI-EVOLVE — агентный фреймворк, созданный для автоматизации дорогих и длительных исследовательских циклов, которые двигают вперёд фундаментальный прогресс в ИИ. Система реализует непрерывную петлю «обучение–дизайн–эксперимент–анализ», усиленную когнитивной базой из априорных человеческих знаний и отдельным модулем-анализатором. Этот анализатор умеет дистиллировать многомерные логи обучения в понятные причинно-следственные инсайты.
ПОЧЕМУ это важно: Хотя предыдущие эволюционные агенты преуспевали в узких алгоритмических задачах или автоматической генерации статей, этот фреймворк демонстрирует унифицированный и полностью автономный поиск сразу в трёх главных столпах современного ИИ: архитектурах моделей, курировании датасетов предобучения и алгоритмах обучения с подкреплением (RL). Успешно перекладывая бремя оптимизации с плеч исследователей на агентный пайплайн, работа создаёт прецедент для рекурсивного самосовершенствования ИИ с замкнутым циклом.
Для практиков: Для опытных специалистов и руководителей, управляющих масштабными исследованиями, ASI-EVOLVE представляет собой структурный сдвиг в подходе к разработке ИИ. Вместо ручной настройки механизмов внимания или формул функции потерь (лосса) в RL, можно развернуть этот фреймворк для автоматического прочёсывания огромных пространств гипотез. Используя семантический поиск по прошлой литературе и программный анализ логов, система уже нашла 105 новых архитектур линейного внимания, превосходящих устоявшиеся бейзлайны, вывела стратегии курирования данных, которые подняли MMLU более чем на 18 пунктов, и сформулировала новые правила обновления для RL. Это прямо указывает на ближайшее будущее, где роль человека сведётся не к инженерному решению задач, а к заданию правильных ограничений для автономного поиска.
Исследовать тут: https://t.me/gonzo_ML_podcasts/3157
ASI-Evolve: AI Accelerates AI
Weixian Xu, Tiantian Mi, Yixiu Liu, Yang Nan, Zhimeng Zhou, Lyumanshan Ye, Lin Zhang, Yu Qiao, Pengfei Liu
Paper: https://arxiv.org/abs/2603.29640
Code: https://github.com/GAIR-NLP/ASI-Evolve
Review: https://arxiviq.substack.com/p/asi-evolve-ai-accelerates-ai
# TL;DR
ЧТО сделали: Авторы представили ASI-EVOLVE — агентный фреймворк, созданный для автоматизации дорогих и длительных исследовательских циклов, которые двигают вперёд фундаментальный прогресс в ИИ. Система реализует непрерывную петлю «обучение–дизайн–эксперимент–анализ», усиленную когнитивной базой из априорных человеческих знаний и отдельным модулем-анализатором. Этот анализатор умеет дистиллировать многомерные логи обучения в понятные причинно-следственные инсайты.
ПОЧЕМУ это важно: Хотя предыдущие эволюционные агенты преуспевали в узких алгоритмических задачах или автоматической генерации статей, этот фреймворк демонстрирует унифицированный и полностью автономный поиск сразу в трёх главных столпах современного ИИ: архитектурах моделей, курировании датасетов предобучения и алгоритмах обучения с подкреплением (RL). Успешно перекладывая бремя оптимизации с плеч исследователей на агентный пайплайн, работа создаёт прецедент для рекурсивного самосовершенствования ИИ с замкнутым циклом.
Для практиков: Для опытных специалистов и руководителей, управляющих масштабными исследованиями, ASI-EVOLVE представляет собой структурный сдвиг в подходе к разработке ИИ. Вместо ручной настройки механизмов внимания или формул функции потерь (лосса) в RL, можно развернуть этот фреймворк для автоматического прочёсывания огромных пространств гипотез. Используя семантический поиск по прошлой литературе и программный анализ логов, система уже нашла 105 новых архитектур линейного внимания, превосходящих устоявшиеся бейзлайны, вывела стратегии курирования данных, которые подняли MMLU более чем на 18 пунктов, и сформулировала новые правила обновления для RL. Это прямо указывает на ближайшее будущее, где роль человека сведётся не к инженерному решению задач, а к заданию правильных ограничений для автономного поиска.
Исследовать тут: https://t.me/gonzo_ML_podcasts/3157
arXiv.org
ASI-Evolve: AI Accelerates AI
Can AI accelerate the development of AI itself? While recent agentic systems have shown strong performance on well-scoped tasks with rapid feedback, it remains unclear whether they can tackle the...
🔥7🤔3👍2❤1
Структура свободного времени сильно изменилась за последние месяцы. Теперь есть миллион проектов, которые наконец можно не закапывать в списки на будущее, а делать агентами, и сейчас типовое время за компом выглядит так, что, например, в одном окне я проверяю и готовлю к публикации разбор очередной свежей статьи (сделанный агентами, конечно), в другом антигравити гоняет эксперименты на TPU, а ещё висят пара Клод кодов, куда я периодически захожу чтобы попушить другие проекты. На работе аналогично, пока идут звонки, Курсор или Клод код пишут код, что-то проверяют, готовят документацию или генерят репорты. Узкое место уже давно не код как таковой, а продуктовая проработка и другая осмысленная валидация. Во всём этом богатстве главный челлендж теперь -- находить достаточно непрерывного времени для глубокого обдумывания. Нормальное человеческое внимание -- очень редкий и дорогой ресурс.
2💯80❤14👍7👌2🔥1🤔1🤯1
Вчера для deep research брали одного большого агента. Но по пять. А сегодня берут несколько маленьких. Но по три.
Memory Intelligence Agent
Jingyang Qiao, Weicheng Meng, Yu Cheng, Zhihang Lin, Zhizhong Zhang, Xin Tan, Jingyu Gong, Kun Shao, Yuan Xie
Статья: https://arxiv.org/abs/2604.04503v2
Ревью: https://arxiviq.substack.com/p/memory-intelligence-agent
Код: https://github.com/ECNU-SII/MIA
Модель: https://huggingface.co/LightningCreeper/MIA
# TL;DR
ЧТО сделали: Авторы предложили фреймворк Memory Intelligence Agent (MIA), который перестраивает ризонинг автономного агента в разделённую архитектуру Manager-Planner-Executor. Подход смещает фокус с простого извлечения фактов на выучивание процедурных стратегий поиска. Это достигается за счёт комбинации явного непараметрического буфера памяти и непрерывного обновления параметров модели через обучение с подкреплением прямо во время инференса (Test-Time Learning, TTL).
ПОЧЕМУ это важно: Исследователи эмпирически доказали, что умное управление памятью и стратегическая абстракция способны нивелировать разницу в качестве между маленькими и большими моделями. Использование 7B модели в роли исполнителя позволило превзойти 32B модель на 18%. MIA показывает, что выучивание самого "процесса" решения задачи вычислительно эффективнее и лучше масштабируется, чем простое расширение окна контекста или увеличение числа параметров.
Для практиков: Современные deep research агенты часто страдают от раздувания памяти и размытия внимания при обработке длинных историй выполнения. MIA решает эту проблему, сжимая сырые трейсы взаимодействия в высокоуровневые саммари рабочих процессов, которые затем используются для динамического обновления агента-планировщика через попеременное обучение с подкреплением. Для архитекторов ИИ-систем это сигнал к переходу на саморазвивающиеся архитектуры, где непрерывное обучение специфичным процедурам прямо на инференсе даёт больший профит, чем статический, перегруженный знаниями контекст.
Три агента тут: https://t.me/gonzo_ML_podcasts/3169
Memory Intelligence Agent
Jingyang Qiao, Weicheng Meng, Yu Cheng, Zhihang Lin, Zhizhong Zhang, Xin Tan, Jingyu Gong, Kun Shao, Yuan Xie
Статья: https://arxiv.org/abs/2604.04503v2
Ревью: https://arxiviq.substack.com/p/memory-intelligence-agent
Код: https://github.com/ECNU-SII/MIA
Модель: https://huggingface.co/LightningCreeper/MIA
# TL;DR
ЧТО сделали: Авторы предложили фреймворк Memory Intelligence Agent (MIA), который перестраивает ризонинг автономного агента в разделённую архитектуру Manager-Planner-Executor. Подход смещает фокус с простого извлечения фактов на выучивание процедурных стратегий поиска. Это достигается за счёт комбинации явного непараметрического буфера памяти и непрерывного обновления параметров модели через обучение с подкреплением прямо во время инференса (Test-Time Learning, TTL).
ПОЧЕМУ это важно: Исследователи эмпирически доказали, что умное управление памятью и стратегическая абстракция способны нивелировать разницу в качестве между маленькими и большими моделями. Использование 7B модели в роли исполнителя позволило превзойти 32B модель на 18%. MIA показывает, что выучивание самого "процесса" решения задачи вычислительно эффективнее и лучше масштабируется, чем простое расширение окна контекста или увеличение числа параметров.
Для практиков: Современные deep research агенты часто страдают от раздувания памяти и размытия внимания при обработке длинных историй выполнения. MIA решает эту проблему, сжимая сырые трейсы взаимодействия в высокоуровневые саммари рабочих процессов, которые затем используются для динамического обновления агента-планировщика через попеременное обучение с подкреплением. Для архитекторов ИИ-систем это сигнал к переходу на саморазвивающиеся архитектуры, где непрерывное обучение специфичным процедурам прямо на инференсе даёт больший профит, чем статический, перегруженный знаниями контекст.
Три агента тут: https://t.me/gonzo_ML_podcasts/3169
arXiv.org
Memory Intelligence Agent
Deep research agents (DRAs) integrate LLM reasoning with external tools. Memory systems enable DRAs to leverage historical experiences, which are essential for efficient reasoning and autonomous...
👍9❤6🔥2😁2
Большой обзор про латентное пространство!
The Latent Space: Foundation, Evolution, Mechanism, Ability, and Outlook
Xinlei Yu, Zhangquan Chen, Yongbo He, Tianyu Fu, Cheng Yang, Chengming Xu, Yue Ma, Xiaobin Hu, Zhe Cao, Jie Xu, Guibin Zhang, Jiale Tao, Jiayi Zhang, Siyuan Ma, Kaituo Feng, Haojie Huang, Youxing Li, Ronghao Chen, Huacan Wang, Chenglin Wu, Zikun Su, Xiaogang Xu, Kelu Yao, Kun Wang, Chen Gao, Yue Liao, Ruqi Huang, Tao Jin, Zhucun Xue, Cheng Tan, Jiangning Zhang, Wenqi Ren, Yanwei Fu, Yong Liu, Yu Wang, Xiangyu Yue, Yu-Gang Jiang, Shuicheng Yan
Статья: https://arxiv.org/abs/2604.02029v1
Репа: https://github.com/YU-deep/Awesome-Latent-Space
Ревью: https://arxiviq.substack.com/p/the-latent-space-foundation-evolution
# TL;DR
ЧТО сделали: Авторы представили подробную таксономию и формальный обзор подходов на базе "латентного пространства" в языковых моделях. Работа переосмысляет непрерывные внутренние состояния: из скрытых деталей реализации они превращаются в первичный, машинно-нативный вычислительный субстрат. Исследователи систематизировали сотни разрозненных статей в двумерную структуру, сопоставляющую механистический дизайн (архитектуру, репрезентации, вычисления, оптимизацию) с функциональными возможностями (рассуждения, планирование, восприятие, память, embodied-задачи и коллаборация).
ПОЧЕМУ это важно: Современные авторегрессионные модели упираются в серьёзные структурные ограничения из-за избыточности языка, боттлнека дискретизации и высоких затрат на последовательное декодирование. Перенос вычислений в непрерывное латентное многообразие позволяет кодировать суперпозиции путей рассуждения, сохранять высокоточную мультимодальную информацию и обмениваться данными между агентами без семантических потерь. Это фундаментально меняет архитектурные рамки базовых моделей следующего поколения.
Для практиков: Переход на непрерывные репрезентации означает скорый отказ от явного промпт-инжиниринга промежуточных шагов (CoT) в пользу работы со скрытыми состояниями. Дискретный текст останется лишь интерфейсом ввода-вывода, тогда как основная тяжёлая работа (поиск, симуляция, память) уйдёт в латентное пространство. Потребуется новый инструментарий для мониторинга, отладки и AI alignment таких состояний, так как для человека они полностью непрозрачны.
Латенты тут: https://t.me/gonzo_ML_podcasts/3185
The Latent Space: Foundation, Evolution, Mechanism, Ability, and Outlook
Xinlei Yu, Zhangquan Chen, Yongbo He, Tianyu Fu, Cheng Yang, Chengming Xu, Yue Ma, Xiaobin Hu, Zhe Cao, Jie Xu, Guibin Zhang, Jiale Tao, Jiayi Zhang, Siyuan Ma, Kaituo Feng, Haojie Huang, Youxing Li, Ronghao Chen, Huacan Wang, Chenglin Wu, Zikun Su, Xiaogang Xu, Kelu Yao, Kun Wang, Chen Gao, Yue Liao, Ruqi Huang, Tao Jin, Zhucun Xue, Cheng Tan, Jiangning Zhang, Wenqi Ren, Yanwei Fu, Yong Liu, Yu Wang, Xiangyu Yue, Yu-Gang Jiang, Shuicheng Yan
Статья: https://arxiv.org/abs/2604.02029v1
Репа: https://github.com/YU-deep/Awesome-Latent-Space
Ревью: https://arxiviq.substack.com/p/the-latent-space-foundation-evolution
# TL;DR
ЧТО сделали: Авторы представили подробную таксономию и формальный обзор подходов на базе "латентного пространства" в языковых моделях. Работа переосмысляет непрерывные внутренние состояния: из скрытых деталей реализации они превращаются в первичный, машинно-нативный вычислительный субстрат. Исследователи систематизировали сотни разрозненных статей в двумерную структуру, сопоставляющую механистический дизайн (архитектуру, репрезентации, вычисления, оптимизацию) с функциональными возможностями (рассуждения, планирование, восприятие, память, embodied-задачи и коллаборация).
ПОЧЕМУ это важно: Современные авторегрессионные модели упираются в серьёзные структурные ограничения из-за избыточности языка, боттлнека дискретизации и высоких затрат на последовательное декодирование. Перенос вычислений в непрерывное латентное многообразие позволяет кодировать суперпозиции путей рассуждения, сохранять высокоточную мультимодальную информацию и обмениваться данными между агентами без семантических потерь. Это фундаментально меняет архитектурные рамки базовых моделей следующего поколения.
Для практиков: Переход на непрерывные репрезентации означает скорый отказ от явного промпт-инжиниринга промежуточных шагов (CoT) в пользу работы со скрытыми состояниями. Дискретный текст останется лишь интерфейсом ввода-вывода, тогда как основная тяжёлая работа (поиск, симуляция, память) уйдёт в латентное пространство. Потребуется новый инструментарий для мониторинга, отладки и AI alignment таких состояний, так как для человека они полностью непрозрачны.
Латенты тут: https://t.me/gonzo_ML_podcasts/3185
arXiv.org
The Latent Space: Foundation, Evolution, Mechanism, Ability, and Outlook
Latent space is rapidly emerging as a native substrate for language-based models. While modern systems are still commonly understood through explicit token-level generation, an increasing body of...
❤5👌1