Data Portal | DS & ML
8.5K subscribers
328 photos
100 videos
4 files
432 links
Всё самое интересное из мира Data Science и машинного обучения

Связь: @devmangx
Download Telegram
Как построить ОС для вашего AI-воркфорса?

Взгляд с первых принципов: почему для управления флотом AI-агентов нужен уровень операционной системы, а не просто более хороший фреймворк — и что этот уровень должен делать.

Мы потратили два года, чтобы действительно хорошо научиться строить AI-агентов.

У нас есть фреймворки, конструкторы воркфлоу, drag-and-drop канвасы, Python-библиотеки, оркестраторы мультиагентных систем. Инструменты стали как никогда доступными. И всё же большинство компаний, внедряющих AI-агентов в продакшене, по-прежнему относятся к этому как к научному эксперименту.


Читать далее 👍

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
1
This media is not supported in your browser
VIEW IN TELEGRAM
Multi-Head Attention в LLM, визуальное объяснение

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3
Navier–Stokes equations описывают, как на самом деле движутся жидкости и газы.

Не идеальный поток, а реальный — с вязкостью, давлением и инерцией.

Это законы сохранения, записанные в динамической форме.

Основное уравнение:

\rho\left(\frac{\partial \mathbf{v}}{\partial t} + \mathbf{v}\cdot\nabla \mathbf{v}\right) = -\nabla p + \mu \nabla^2 \mathbf{v} + \mathbf{f}

Что означает каждый член:

→ ∂v/∂t
изменение скорости со временем

→ v·∇v
нелинейная адвекция
поток переносит собственный импульс

→ −∇p
градиент давления «толкает» поток

→ μ∇²v
вязкость сглаживает движение
диффузия импульса

→ f
внешние силы

Ограничение (частый случай):

\nabla \cdot \mathbf{v} = 0

→ несжимаемость

Почему это сложно:

→ нелинейность из-за v·∇v
→ связка давления и скорости
→ турбулентность возникает из простых уравнений

Режимы течения:

→ низкое число Рейнольдса
вязкость доминирует → поток гладкий и предсказуемый

→ высокое число Рейнольдса
инерция доминирует → хаос и турбулентность

Почему это важно:

в инженерии:
→ аэродинамика (сопротивление, подъёмная сила)
→ трубопроводы, горение
→ дроны, самолёты, турбины

в природе:
→ океаны, атмосфера, кровоток

в вычислениях:
→ решаются численно (CFD)
→ дискретизация по пространству и времени

Ключевая идея:

→ вязкость разрушает структуру
→ адвекция создаёт её

Их взаимодействие порождает всё — от гладких потоков до турбулентности.

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
2👎1
This media is not supported in your browser
VIEW IN TELEGRAM
Этот робот-манипулятор = ваша AI-модель.

Одно числовое значение в математике определяет, будет ли она обучаться или полностью «сломается».

Это градиентный спуск — базовая математическая основа всего AI, которым вы пользуетесь в повседневной жизни.

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1
Представлены Hyperagents — ИИ-система, которая не только улучшает решение задач, но и улучшает сам процесс собственного улучшения.

Darwin Gödel Machine (DGM) продемонстрировала, что открытое самосовершенствование возможно за счёт итеративной генерации и оценки улучшенных агентов, однако она опирается на ключевое допущение: что улучшения в решении задач (например, в программировании) приводят к улучшениям самого процесса самосовершенствования. Это соответствие сохраняется в программировании, где и оценка, и модификация выражены в одной и той же предметной области, но в общем случае нарушается. В результате предыдущие системы остаются ограниченными фиксированными, вручную заданными процедурами мета-уровня, которые сами по себе не эволюционируют.

Они вводят Hyperagents — самореферентных агентов, способных модифицировать как своё поведение при решении задач, так и процесс, который генерирует будущие улучшения. Это даёт возможность того, что они называют метакогнитивной самомодификацией: обучаться не только выполнять задачи лучше, но и становиться лучше в самом процессе улучшения.

Этот подход реализован в виде DGM-Hyperagents (DGM-H) — расширения DGM, в котором как поведение решения задач, так и процедура самосовершенствования редактируемы и подвержены эволюции. В различных доменах (программирование, ревью научных работ, дизайн reward-функций в робототехнике и оценка решений олимпиадных задач по математике) hyperagents обеспечивают непрерывный рост качества со временем и превосходят базовые подходы без самосовершенствования или открытой эволюции, а также предыдущие самосовершенствующиеся системы (включая DGM). DGM-H также улучшает сам процесс генерации новых агентов (например, за счёт персистентной памяти и трекинга производительности), и эти мета-уровневые улучшения переносятся между доменами и накапливаются от запуска к запуску.

Статья полностью 🆗

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
2
Владимир Байкалов, ведущий исследователь AI VK, разобрал ключевые изменения и тренды в рекомендательных системах. Основной сдвиг связан с переходом к генеративным подходам, где модель формирует рекомендации напрямую. В этом контексте используются generative retrieval и semantic ids, позволяющие представлять айтемы как последовательности.
4
Построение Vectorless RAG-системы (Без эмбеддингов и векторной БД)

В этой статье рассматривается построение Vectorless, Reasoning-Based RAG-системы с использованием иерархической индексации страниц. Документ превращается в дерево, и LLM проходит по этому дереву, чтобы найти ответ. Без эмбеддингов. Без поиска по схожести.

Это очень похоже на то, как мы ищем информацию в реальной жизни. Когда нужно что-то найти в учебнике, не читают все страницы подряд. Сначала открывают содержание, находят нужную главу, затем просматривают секции и переходят прямо к нужной.

PageIndex работает аналогично. Вы передаёте ему документ, он строит дерево, где каждая ветка — это секция, а каждый лист — сам текст. Когда задаёте вопрос, LLM проходит по дереву уровень за уровнем, чтобы найти правильный ответ.

Полный код: https://github.com/vixhal-baraiya/pageindex-rag

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥62🏆1
Наивный RAG vs Agentic RAG — объяснение наглядно:

У наивного RAG есть хорошо известные проблемы:

- Он делает один retrieval и одну генерацию. Если контекст нерелевантный, он не может выполнить повторный поиск.
- Он обрабатывает все запросы одинаково. Простой lookup и сложная multi-hop задача проходят через один и тот же пайплайн retrieve-then-generate.
- Отсутствует валидация. Система слепо доверяет тому, что вернул retriever.

Agentic RAG решает это за счёт циклов принятия решений на каждом этапе.

Шаги 1–2) Агент переписывания запроса (query rewriting agent) переформулирует исходный запрос. Это не просто исправление опечаток — он оптимизирует запрос под retrieval: уточняет расплывчатые формулировки, декомпозирует сложные запросы на подзапросы и раскрывает аббревиатуры.

Шаги 3–5) Роутинг-агент (routing agent) решает, нужен ли вообще внешний контекст. Если нет — retrieval пропускается. Если да — селектор источника (source selector) выбирает лучший backend под конкретный тип запроса.

Шаги 6–7) Source selector направляет запрос в наиболее подходящий источник: vector DB для семантического поиска, веб-поиск для актуальной информации или структурированные API для табличных данных. Полученный контекст и переписанный запрос объединяются в prompt.

Шаги 8–9) LLM генерирует первоначальный ответ.

Шаги 10–12) Агент валидации (validation agent, также известен как Corrective RAG) проверяет, насколько ответ релевантен, grounded и полный. Если всё ок — ответ возвращается. Если нет — система возвращается к шагу 1 с переформулированным запросом.

Этот цикл повторяется несколько итераций, пока не будет получен удовлетворительный ответ или система не признает, что не может ответить.

Почему это работает: каждый агент выступает как quality gate.

- Rewriter повышает точность retrieval
- Router гарантирует выбор правильного источника
- Validator проверяет, что ответ grounded

Ошибки на отдельных этапах отлавливаются и исправляются, а не тихо прокидываются дальше по пайплайну.

Важно: схема ниже — лишь один из возможных blueprint’ов Agentic RAG-системы. В продакшене всё чаще комбинируют Corrective RAG, Adaptive RAG, Self-RAG и гибридный поиск (vector + lexical с reranking) в зависимости от latency budget и требований к точности.

👉 @DataSciencegx
This media is not supported in your browser
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6
Новый AI-отчёт от Google.

Все предыдущие «взрывы интеллекта» в истории человечества были социальными, а не индивидуальными.

Авторы утверждают, что представление об AI-сингулярности как об одном сверхинтеллекте, который самобутстрапится до «божественного» уровня, фундаментально ошибочно.

Это напрямую важно для всех, кто проектирует multi-agent системы.

Они отмечают, что передовые reasoning-модели, такие как DeepSeek-R1, спонтанно формируют внутренние «сообщества мышления» — multi-agent дебаты между различными когнитивными перспективами — исключительно за счёт RL.

Дальнейшее развитие — это не монолитные «оракулы», а конфигурации человек–AI и агентные институты.

Это меняет стратегию масштабирования AI: вместо «строить более крупные модели» — «собирать более сложные социальные системы».

В работе также утверждается, что управление AI-агентами должно строиться на принципах институционального дизайна: checks and balances, ролевые протоколы и взаимодействия, а не только на индивидуальном alignment.

Статья: https://arxiv.org/abs/2603.20639

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
Vector Index vs Vector Database

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
2
NVIDIA доказала, что обратное распространение ошибки — не единственный способ создания ИИ.

Они обучили модели с миллиардами параметров без использования единого градиента.

Каждый ИИ, который вы используете сегодня, опирается на обратное распространение ошибки.

Это требует сложных вычислений, колоссальных затрат памяти и огромных кластеров GPU.

Тем временем, древний метод без градиентов, называемый стратегиями эволюции (ES), был признан невозможным для масштабирования.

Но теперь всё изменилось.

NVIDIA и Оксфорд только что представили EGGROLL.

Вместо того чтобы генерировать огромные полнорранговые матрицы для каждой мутации, они разделяют их на две маленькие.

ИИ мутирует. Он тестирует. Он сохраняет то, что работает. Как биологическая эволюция.

Но теперь он делает это с сотнями тысяч параллельных мутаций одновременно.

Производительность теперь такая же, как у пакетной инференции.

Они предобучают модели с нуля, используя только простые целые числа.

Без обратного распространения ошибки. Без десятичных. Без градиентов.

Мы думали, что будущее ИИ требует бесконечных кластеров прецизионного оборудования.

Оказалось, нам просто нужно было эволюционировать.

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
9🔥7🌭3
Искусственный интеллект SakanaAI начал проводить собственные научные исследования — неужели это возможно?

Искусственный интеллект SakanaAI-Scientist-v2 использует метод Agentic Tree Search для автоматизации научных открытий.

Он не помогает людям — он полностью управляет процессом: от гипотез до экспериментов и написания статей.

Задайте направление исследования, и ИИ сам найдет литературу, спроектирует эксперименты, проанализирует данные и напишет статью.

Результаты уровня лаборатории, которые уже могут конкурировать с работами аспирантов.

Это переворачивает основы логики научных исследований: скорость открытия больше не ограничена человеческими силами и продолжительностью жизни.

Один ИИ-ученый может работать круглосуточно, исследуя 100 направлений одновременно.

Вопрос в том, когда ИИ начнет самостоятельно публиковать статьи, чье имя будет стоять в качестве первого автора?

Само определение науки переписывается.

https://github.com/SakanaAI/AI-Scientist-v2

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
Google опубликовала исходный код фундамента для моделей временных рядов.

Она работает с любыми данными без необходимости в обучении.

В отличие от традиционных моделей, не требуется обучение на данных, специфичных для конкретной задачи. TimesFM прогнозирует "из коробки".

Модель обучена на 100 миллиардов реальных точек данных, включая трафик, погоду и прогнозирование спроса.

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
6
Чуваки собрали ряд материалов по harness-инжинирингу для AI-агентов, включая архитектурные ограничения, feedback loop-ы, runtime-обвязку и многое другое — всё это ориентировано на команды, которые разрабатывают долгоживущих production-grade агентов.

Материалы охватывают определения, операционные принципы, evaluation и observability, референсные реализации и другие аспекты.

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5
Мы нашли версию tSNE для GPU.

Она работает в 33 раза быстрее при изменении всего одной строки кода

В рамках GPU-окружения:

- Удалите эту строку → from sklearn.manifold import TSNE
- Добавьте эту строку → from tsnecuda import TSNE

Теперь tSNE будет выполняться на GPU для более быстрой обработки.

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3