Как построить ОС для вашего AI-воркфорса?
Взгляд с первых принципов: почему для управления флотом AI-агентов нужен уровень операционной системы, а не просто более хороший фреймворк — и что этот уровень должен делать.
Читать далее👍
👉 @DataSciencegx
Взгляд с первых принципов: почему для управления флотом AI-агентов нужен уровень операционной системы, а не просто более хороший фреймворк — и что этот уровень должен делать.
Мы потратили два года, чтобы действительно хорошо научиться строить AI-агентов.
У нас есть фреймворки, конструкторы воркфлоу, drag-and-drop канвасы, Python-библиотеки, оркестраторы мультиагентных систем. Инструменты стали как никогда доступными. И всё же большинство компаний, внедряющих AI-агентов в продакшене, по-прежнему относятся к этому как к научному эксперименту.
Читать далее
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3
Navier–Stokes equations описывают, как на самом деле движутся жидкости и газы.
Не идеальный поток, а реальный — с вязкостью, давлением и инерцией.
Это законы сохранения, записанные в динамической форме.
Основное уравнение:
\rho\left(\frac{\partial \mathbf{v}}{\partial t} + \mathbf{v}\cdot\nabla \mathbf{v}\right) = -\nabla p + \mu \nabla^2 \mathbf{v} + \mathbf{f}
Что означает каждый член:
→ ∂v/∂t
изменение скорости со временем
→ v·∇v
нелинейная адвекция
поток переносит собственный импульс
→ −∇p
градиент давления «толкает» поток
→ μ∇²v
вязкость сглаживает движение
диффузия импульса
→ f
внешние силы
Ограничение (частый случай):
\nabla \cdot \mathbf{v} = 0
→ несжимаемость
Почему это сложно:
→ нелинейность из-за v·∇v
→ связка давления и скорости
→ турбулентность возникает из простых уравнений
Режимы течения:
→ низкое число Рейнольдса
вязкость доминирует → поток гладкий и предсказуемый
→ высокое число Рейнольдса
инерция доминирует → хаос и турбулентность
Почему это важно:
в инженерии:
→ аэродинамика (сопротивление, подъёмная сила)
→ трубопроводы, горение
→ дроны, самолёты, турбины
в природе:
→ океаны, атмосфера, кровоток
в вычислениях:
→ решаются численно (CFD)
→ дискретизация по пространству и времени
Ключевая идея:
→ вязкость разрушает структуру
→ адвекция создаёт её
Их взаимодействие порождает всё — от гладких потоков до турбулентности.
👉 @DataSciencegx
Не идеальный поток, а реальный — с вязкостью, давлением и инерцией.
Это законы сохранения, записанные в динамической форме.
Основное уравнение:
\rho\left(\frac{\partial \mathbf{v}}{\partial t} + \mathbf{v}\cdot\nabla \mathbf{v}\right) = -\nabla p + \mu \nabla^2 \mathbf{v} + \mathbf{f}
Что означает каждый член:
→ ∂v/∂t
изменение скорости со временем
→ v·∇v
нелинейная адвекция
поток переносит собственный импульс
→ −∇p
градиент давления «толкает» поток
→ μ∇²v
вязкость сглаживает движение
диффузия импульса
→ f
внешние силы
Ограничение (частый случай):
\nabla \cdot \mathbf{v} = 0
→ несжимаемость
Почему это сложно:
→ нелинейность из-за v·∇v
→ связка давления и скорости
→ турбулентность возникает из простых уравнений
Режимы течения:
→ низкое число Рейнольдса
вязкость доминирует → поток гладкий и предсказуемый
→ высокое число Рейнольдса
инерция доминирует → хаос и турбулентность
Почему это важно:
в инженерии:
→ аэродинамика (сопротивление, подъёмная сила)
→ трубопроводы, горение
→ дроны, самолёты, турбины
в природе:
→ океаны, атмосфера, кровоток
в вычислениях:
→ решаются численно (CFD)
→ дискретизация по пространству и времени
Ключевая идея:
→ вязкость разрушает структуру
→ адвекция создаёт её
Их взаимодействие порождает всё — от гладких потоков до турбулентности.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2👎1
This media is not supported in your browser
VIEW IN TELEGRAM
Этот робот-манипулятор = ваша AI-модель.
Одно числовое значение в математике определяет, будет ли она обучаться или полностью «сломается».
Это градиентный спуск — базовая математическая основа всего AI, которым вы пользуетесь в повседневной жизни.
👉 @DataSciencegx
Одно числовое значение в математике определяет, будет ли она обучаться или полностью «сломается».
Это градиентный спуск — базовая математическая основа всего AI, которым вы пользуетесь в повседневной жизни.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1👍1
Представлены Hyperagents — ИИ-система, которая не только улучшает решение задач, но и улучшает сам процесс собственного улучшения.
Darwin Gödel Machine (DGM) продемонстрировала, что открытое самосовершенствование возможно за счёт итеративной генерации и оценки улучшенных агентов, однако она опирается на ключевое допущение: что улучшения в решении задач (например, в программировании) приводят к улучшениям самого процесса самосовершенствования. Это соответствие сохраняется в программировании, где и оценка, и модификация выражены в одной и той же предметной области, но в общем случае нарушается. В результате предыдущие системы остаются ограниченными фиксированными, вручную заданными процедурами мета-уровня, которые сами по себе не эволюционируют.
Они вводят Hyperagents — самореферентных агентов, способных модифицировать как своё поведение при решении задач, так и процесс, который генерирует будущие улучшения. Это даёт возможность того, что они называют метакогнитивной самомодификацией: обучаться не только выполнять задачи лучше, но и становиться лучше в самом процессе улучшения.
Этот подход реализован в виде DGM-Hyperagents (DGM-H) — расширения DGM, в котором как поведение решения задач, так и процедура самосовершенствования редактируемы и подвержены эволюции. В различных доменах (программирование, ревью научных работ, дизайн reward-функций в робототехнике и оценка решений олимпиадных задач по математике) hyperagents обеспечивают непрерывный рост качества со временем и превосходят базовые подходы без самосовершенствования или открытой эволюции, а также предыдущие самосовершенствующиеся системы (включая DGM). DGM-H также улучшает сам процесс генерации новых агентов (например, за счёт персистентной памяти и трекинга производительности), и эти мета-уровневые улучшения переносятся между доменами и накапливаются от запуска к запуску.
Статья полностью🆗
👉 @DataSciencegx
Darwin Gödel Machine (DGM) продемонстрировала, что открытое самосовершенствование возможно за счёт итеративной генерации и оценки улучшенных агентов, однако она опирается на ключевое допущение: что улучшения в решении задач (например, в программировании) приводят к улучшениям самого процесса самосовершенствования. Это соответствие сохраняется в программировании, где и оценка, и модификация выражены в одной и той же предметной области, но в общем случае нарушается. В результате предыдущие системы остаются ограниченными фиксированными, вручную заданными процедурами мета-уровня, которые сами по себе не эволюционируют.
Они вводят Hyperagents — самореферентных агентов, способных модифицировать как своё поведение при решении задач, так и процесс, который генерирует будущие улучшения. Это даёт возможность того, что они называют метакогнитивной самомодификацией: обучаться не только выполнять задачи лучше, но и становиться лучше в самом процессе улучшения.
Этот подход реализован в виде DGM-Hyperagents (DGM-H) — расширения DGM, в котором как поведение решения задач, так и процедура самосовершенствования редактируемы и подвержены эволюции. В различных доменах (программирование, ревью научных работ, дизайн reward-функций в робототехнике и оценка решений олимпиадных задач по математике) hyperagents обеспечивают непрерывный рост качества со временем и превосходят базовые подходы без самосовершенствования или открытой эволюции, а также предыдущие самосовершенствующиеся системы (включая DGM). DGM-H также улучшает сам процесс генерации новых агентов (например, за счёт персистентной памяти и трекинга производительности), и эти мета-уровневые улучшения переносятся между доменами и накапливаются от запуска к запуску.
Статья полностью
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
Владимир Байкалов, ведущий исследователь AI VK, разобрал ключевые изменения и тренды в рекомендательных системах. Основной сдвиг связан с переходом к генеративным подходам, где модель формирует рекомендации напрямую. В этом контексте используются generative retrieval и semantic ids, позволяющие представлять айтемы как последовательности.
Telegram
AI VK Hub
Рекомендательные системы — один из ключевых механизмов, на которых держатся современные продукты. Они помогают пользователям находить контент, товары и сервисы, а бизнесу — повышать вовлеченность и качество пользовательского опыта. Вместе с Владимиром Байкаловым…
❤4
Построение Vectorless RAG-системы (Без эмбеддингов и векторной БД)
В этой статье рассматривается построение Vectorless, Reasoning-Based RAG-системы с использованием иерархической индексации страниц. Документ превращается в дерево, и LLM проходит по этому дереву, чтобы найти ответ. Без эмбеддингов. Без поиска по схожести.
Это очень похоже на то, как мы ищем информацию в реальной жизни. Когда нужно что-то найти в учебнике, не читают все страницы подряд. Сначала открывают содержание, находят нужную главу, затем просматривают секции и переходят прямо к нужной.
PageIndex работает аналогично. Вы передаёте ему документ, он строит дерево, где каждая ветка — это секция, а каждый лист — сам текст. Когда задаёте вопрос, LLM проходит по дереву уровень за уровнем, чтобы найти правильный ответ.
Полный код: https://github.com/vixhal-baraiya/pageindex-rag
👉 @DataSciencegx
В этой статье рассматривается построение Vectorless, Reasoning-Based RAG-системы с использованием иерархической индексации страниц. Документ превращается в дерево, и LLM проходит по этому дереву, чтобы найти ответ. Без эмбеддингов. Без поиска по схожести.
Это очень похоже на то, как мы ищем информацию в реальной жизни. Когда нужно что-то найти в учебнике, не читают все страницы подряд. Сначала открывают содержание, находят нужную главу, затем просматривают секции и переходят прямо к нужной.
PageIndex работает аналогично. Вы передаёте ему документ, он строит дерево, где каждая ветка — это секция, а каждый лист — сам текст. Когда задаёте вопрос, LLM проходит по дереву уровень за уровнем, чтобы найти правильный ответ.
Полный код: https://github.com/vixhal-baraiya/pageindex-rag
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6❤2🏆1
Наивный RAG vs Agentic RAG — объяснение наглядно:
У наивного RAG есть хорошо известные проблемы:
- Он делает один retrieval и одну генерацию. Если контекст нерелевантный, он не может выполнить повторный поиск.
- Он обрабатывает все запросы одинаково. Простой lookup и сложная multi-hop задача проходят через один и тот же пайплайн retrieve-then-generate.
- Отсутствует валидация. Система слепо доверяет тому, что вернул retriever.
Agentic RAG решает это за счёт циклов принятия решений на каждом этапе.
Шаги 1–2) Агент переписывания запроса (query rewriting agent) переформулирует исходный запрос. Это не просто исправление опечаток — он оптимизирует запрос под retrieval: уточняет расплывчатые формулировки, декомпозирует сложные запросы на подзапросы и раскрывает аббревиатуры.
Шаги 3–5) Роутинг-агент (routing agent) решает, нужен ли вообще внешний контекст. Если нет — retrieval пропускается. Если да — селектор источника (source selector) выбирает лучший backend под конкретный тип запроса.
Шаги 6–7) Source selector направляет запрос в наиболее подходящий источник: vector DB для семантического поиска, веб-поиск для актуальной информации или структурированные API для табличных данных. Полученный контекст и переписанный запрос объединяются в prompt.
Шаги 8–9) LLM генерирует первоначальный ответ.
Шаги 10–12) Агент валидации (validation agent, также известен как Corrective RAG) проверяет, насколько ответ релевантен, grounded и полный. Если всё ок — ответ возвращается. Если нет — система возвращается к шагу 1 с переформулированным запросом.
Этот цикл повторяется несколько итераций, пока не будет получен удовлетворительный ответ или система не признает, что не может ответить.
Почему это работает: каждый агент выступает как quality gate.
- Rewriter повышает точность retrieval
- Router гарантирует выбор правильного источника
- Validator проверяет, что ответ grounded
Ошибки на отдельных этапах отлавливаются и исправляются, а не тихо прокидываются дальше по пайплайну.
Важно: схема ниже — лишь один из возможных blueprint’ов Agentic RAG-системы. В продакшене всё чаще комбинируют Corrective RAG, Adaptive RAG, Self-RAG и гибридный поиск (vector + lexical с reranking) в зависимости от latency budget и требований к точности.
👉 @DataSciencegx
У наивного RAG есть хорошо известные проблемы:
- Он делает один retrieval и одну генерацию. Если контекст нерелевантный, он не может выполнить повторный поиск.
- Он обрабатывает все запросы одинаково. Простой lookup и сложная multi-hop задача проходят через один и тот же пайплайн retrieve-then-generate.
- Отсутствует валидация. Система слепо доверяет тому, что вернул retriever.
Agentic RAG решает это за счёт циклов принятия решений на каждом этапе.
Шаги 1–2) Агент переписывания запроса (query rewriting agent) переформулирует исходный запрос. Это не просто исправление опечаток — он оптимизирует запрос под retrieval: уточняет расплывчатые формулировки, декомпозирует сложные запросы на подзапросы и раскрывает аббревиатуры.
Шаги 3–5) Роутинг-агент (routing agent) решает, нужен ли вообще внешний контекст. Если нет — retrieval пропускается. Если да — селектор источника (source selector) выбирает лучший backend под конкретный тип запроса.
Шаги 6–7) Source selector направляет запрос в наиболее подходящий источник: vector DB для семантического поиска, веб-поиск для актуальной информации или структурированные API для табличных данных. Полученный контекст и переписанный запрос объединяются в prompt.
Шаги 8–9) LLM генерирует первоначальный ответ.
Шаги 10–12) Агент валидации (validation agent, также известен как Corrective RAG) проверяет, насколько ответ релевантен, grounded и полный. Если всё ок — ответ возвращается. Если нет — система возвращается к шагу 1 с переформулированным запросом.
Этот цикл повторяется несколько итераций, пока не будет получен удовлетворительный ответ или система не признает, что не может ответить.
Почему это работает: каждый агент выступает как quality gate.
- Rewriter повышает точность retrieval
- Router гарантирует выбор правильного источника
- Validator проверяет, что ответ grounded
Ошибки на отдельных этапах отлавливаются и исправляются, а не тихо прокидываются дальше по пайплайну.
Важно: схема ниже — лишь один из возможных blueprint’ов Agentic RAG-системы. В продакшене всё чаще комбинируют Corrective RAG, Adaptive RAG, Self-RAG и гибридный поиск (vector + lexical с reranking) в зависимости от latency budget и требований к точности.
This media is not supported in your browser
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6
Новый AI-отчёт от Google.
Все предыдущие «взрывы интеллекта» в истории человечества были социальными, а не индивидуальными.
Авторы утверждают, что представление об AI-сингулярности как об одном сверхинтеллекте, который самобутстрапится до «божественного» уровня, фундаментально ошибочно.
Это напрямую важно для всех, кто проектирует multi-agent системы.
Они отмечают, что передовые reasoning-модели, такие как DeepSeek-R1, спонтанно формируют внутренние «сообщества мышления» — multi-agent дебаты между различными когнитивными перспективами — исключительно за счёт RL.
Дальнейшее развитие — это не монолитные «оракулы», а конфигурации человек–AI и агентные институты.
Это меняет стратегию масштабирования AI: вместо «строить более крупные модели» — «собирать более сложные социальные системы».
В работе также утверждается, что управление AI-агентами должно строиться на принципах институционального дизайна: checks and balances, ролевые протоколы и взаимодействия, а не только на индивидуальном alignment.
Статья: https://arxiv.org/abs/2603.20639
👉 @DataSciencegx
Все предыдущие «взрывы интеллекта» в истории человечества были социальными, а не индивидуальными.
Авторы утверждают, что представление об AI-сингулярности как об одном сверхинтеллекте, который самобутстрапится до «божественного» уровня, фундаментально ошибочно.
Это напрямую важно для всех, кто проектирует multi-agent системы.
Они отмечают, что передовые reasoning-модели, такие как DeepSeek-R1, спонтанно формируют внутренние «сообщества мышления» — multi-agent дебаты между различными когнитивными перспективами — исключительно за счёт RL.
Дальнейшее развитие — это не монолитные «оракулы», а конфигурации человек–AI и агентные институты.
Это меняет стратегию масштабирования AI: вместо «строить более крупные модели» — «собирать более сложные социальные системы».
В работе также утверждается, что управление AI-агентами должно строиться на принципах институционального дизайна: checks and balances, ролевые протоколы и взаимодействия, а не только на индивидуальном alignment.
Статья: https://arxiv.org/abs/2603.20639
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
NVIDIA доказала, что обратное распространение ошибки — не единственный способ создания ИИ.
Они обучили модели с миллиардами параметров без использования единого градиента.
Каждый ИИ, который вы используете сегодня, опирается на обратное распространение ошибки.
Это требует сложных вычислений, колоссальных затрат памяти и огромных кластеров GPU.
Тем временем, древний метод без градиентов, называемый стратегиями эволюции (ES), был признан невозможным для масштабирования.
Но теперь всё изменилось.
NVIDIA и Оксфорд только что представили EGGROLL.
Вместо того чтобы генерировать огромные полнорранговые матрицы для каждой мутации, они разделяют их на две маленькие.
ИИ мутирует. Он тестирует. Он сохраняет то, что работает. Как биологическая эволюция.
Но теперь он делает это с сотнями тысяч параллельных мутаций одновременно.
Производительность теперь такая же, как у пакетной инференции.
Они предобучают модели с нуля, используя только простые целые числа.
Без обратного распространения ошибки. Без десятичных. Без градиентов.
Мы думали, что будущее ИИ требует бесконечных кластеров прецизионного оборудования.
Оказалось, нам просто нужно было эволюционировать.
👉 @DataSciencegx
Они обучили модели с миллиардами параметров без использования единого градиента.
Каждый ИИ, который вы используете сегодня, опирается на обратное распространение ошибки.
Это требует сложных вычислений, колоссальных затрат памяти и огромных кластеров GPU.
Тем временем, древний метод без градиентов, называемый стратегиями эволюции (ES), был признан невозможным для масштабирования.
Но теперь всё изменилось.
NVIDIA и Оксфорд только что представили EGGROLL.
Вместо того чтобы генерировать огромные полнорранговые матрицы для каждой мутации, они разделяют их на две маленькие.
ИИ мутирует. Он тестирует. Он сохраняет то, что работает. Как биологическая эволюция.
Но теперь он делает это с сотнями тысяч параллельных мутаций одновременно.
Производительность теперь такая же, как у пакетной инференции.
Они предобучают модели с нуля, используя только простые целые числа.
Без обратного распространения ошибки. Без десятичных. Без градиентов.
Мы думали, что будущее ИИ требует бесконечных кластеров прецизионного оборудования.
Оказалось, нам просто нужно было эволюционировать.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9🔥7🌭3
Искусственный интеллект SakanaAI начал проводить собственные научные исследования — неужели это возможно?
Искусственный интеллект SakanaAI-Scientist-v2 использует метод Agentic Tree Search для автоматизации научных открытий.
Он не помогает людям — он полностью управляет процессом: от гипотез до экспериментов и написания статей.
Задайте направление исследования, и ИИ сам найдет литературу, спроектирует эксперименты, проанализирует данные и напишет статью.
Результаты уровня лаборатории, которые уже могут конкурировать с работами аспирантов.
Это переворачивает основы логики научных исследований: скорость открытия больше не ограничена человеческими силами и продолжительностью жизни.
Один ИИ-ученый может работать круглосуточно, исследуя 100 направлений одновременно.
Вопрос в том, когда ИИ начнет самостоятельно публиковать статьи, чье имя будет стоять в качестве первого автора?
Само определение науки переписывается.
https://github.com/SakanaAI/AI-Scientist-v2
👉 @DataSciencegx
Искусственный интеллект SakanaAI-Scientist-v2 использует метод Agentic Tree Search для автоматизации научных открытий.
Он не помогает людям — он полностью управляет процессом: от гипотез до экспериментов и написания статей.
Задайте направление исследования, и ИИ сам найдет литературу, спроектирует эксперименты, проанализирует данные и напишет статью.
Результаты уровня лаборатории, которые уже могут конкурировать с работами аспирантов.
Это переворачивает основы логики научных исследований: скорость открытия больше не ограничена человеческими силами и продолжительностью жизни.
Один ИИ-ученый может работать круглосуточно, исследуя 100 направлений одновременно.
Вопрос в том, когда ИИ начнет самостоятельно публиковать статьи, чье имя будет стоять в качестве первого автора?
Само определение науки переписывается.
https://github.com/SakanaAI/AI-Scientist-v2
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
GitHub - SakanaAI/AI-Scientist-v2: The AI Scientist-v2: Workshop-Level Automated Scientific Discovery via Agentic Tree Search
The AI Scientist-v2: Workshop-Level Automated Scientific Discovery via Agentic Tree Search - SakanaAI/AI-Scientist-v2
Google опубликовала исходный код фундамента для моделей временных рядов.
Она работает с любыми данными без необходимости в обучении.
В отличие от традиционных моделей, не требуется обучение на данных, специфичных для конкретной задачи. TimesFM прогнозирует "из коробки".
Модель обучена на 100 миллиардов реальных точек данных, включая трафик, погоду и прогнозирование спроса.
👉 @DataSciencegx
Она работает с любыми данными без необходимости в обучении.
В отличие от традиционных моделей, не требуется обучение на данных, специфичных для конкретной задачи. TimesFM прогнозирует "из коробки".
Модель обучена на 100 миллиардов реальных точек данных, включая трафик, погоду и прогнозирование спроса.
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
GitHub - google-research/timesfm: TimesFM (Time Series Foundation Model) is a pretrained time-series foundation model developed…
TimesFM (Time Series Foundation Model) is a pretrained time-series foundation model developed by Google Research for time-series forecasting. - google-research/timesfm
❤6
Чуваки собрали ряд материалов по harness-инжинирингу для AI-агентов, включая архитектурные ограничения, feedback loop-ы, runtime-обвязку и многое другое — всё это ориентировано на команды, которые разрабатывают долгоживущих production-grade агентов.
Материалы охватывают определения, операционные принципы, evaluation и observability, референсные реализации и другие аспекты.
👉 @DataSciencegx
Материалы охватывают определения, операционные принципы, evaluation и observability, референсные реализации и другие аспекты.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5
Мы нашли версию tSNE для GPU.
Она работает в 33 раза быстрее при изменении всего одной строки кода
В рамках GPU-окружения:
- Удалите эту строку →
- Добавьте эту строку →
Теперь tSNE будет выполняться на GPU для более быстрой обработки.
👉 @DataSciencegx
Она работает в 33 раза быстрее при изменении всего одной строки кода
В рамках GPU-окружения:
- Удалите эту строку →
from sklearn.manifold import TSNE- Добавьте эту строку →
from tsnecuda import TSNEТеперь tSNE будет выполняться на GPU для более быстрой обработки.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3