Tongyi Lab (Alibaba Group) опубликовала VimRAG - фреймворк агентного RAG для работы с текстом, изображениями и видео.
Проект развивает прошлогодний VRAG-RL и решает проблему мультимодального RAG: визуальные данные тяжелые по токенам, но семантически разрежены, а классическая ReAct-история забивает контекст шумом и провоцирует повторные бесполезные запросы к поиску.
Вместо журнала наблюдений VimRAG моделирует рассуждение как динамический направленный ацикличный граф. Каждая вершина хранит подзапрос, действие агента, текстовое саммари и банк визуальных токенов.
Ребра фиксируют логические зависимости между шагами. Такой граф позволяет агенту отличать тупиковую ветку от новой гипотезы и не уходить в циклы повторных поисков.
Бюджет визуальных токенов распределяется с учетом исходящей степени в графе, экспоненциального временного затухания (имитация забывания) и рекурсивной обратной связи от потомков.
Ключевым фрагментам достается высокое разрешение, а второстепенные кадры сжимаются или отбрасываются. Для видео задействована способность VLM привязывать содержимое к временной шкале (извлечение ключевых кадров по таймкодам).
GGPO строит критический путь от корня к ответу и накладывает градиентную маску, исключая тупиковые узлы из положительных примеров, а ценные ретривы - из отрицательных.
По графикам обучения это дает более быструю сходимость, чем базовый GSPO без прунинга.
При этом средняя длина траектории ниже, чем у ReAct и Mem1: структурированная память съедает меньше действий на ответ.
В репозитории доступны:
Поисковый движок построен на FAISS и поддерживает эмбеддинги GVE-3B/7B и Qwen3-VL-Embedding-2B/8B. Индексировать можно изображения, PDF (через конвертацию) и нарезанное на чанки видео.
Код трейна самого VimRAG обещают выложить после внутреннего ревью Alibaba.
#AI #ML #RAG #VRAG #TongyiLab
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤12👍7🔥4
Теперь можно бесплатно дообучать Gemma 4 31B прямо в ноутбуке 🚀
Обучение модели на 31 миллиард параметров полностью бесплатно с использованием Kaggle и Unsloth.
GitHub: https://github.com/unslothai/unsloth
Гайд: https://unsloth.ai/docs/models/gemma-4/train
Ноутбук: https://kaggle.com/code/danielhanchen/gemma4-31b-unsloth
Обучение модели на 31 миллиард параметров полностью бесплатно с использованием Kaggle и Unsloth.
GitHub: https://github.com/unslothai/unsloth
Гайд: https://unsloth.ai/docs/models/gemma-4/train
Ноутбук: https://kaggle.com/code/danielhanchen/gemma4-31b-unsloth
👍21🔥14❤9
Media is too big
VIEW IN TELEGRAM
🚨 Tencent выложили модель для агентов HY-Embodied-0.5
Это модель, заточенная под embodied агентов. То есть тех, кто действует в физическом мире или его симуляции.
Фокус смещён с текста на восприятие и действие. Модель учится понимать пространство, время и принимать решения на основе этого.
В линейке две модели.
• Модель на 2B параметров открыта и подходит для edge-сценариев. Её можно гонять локально и встраивать в реальные системы.
• Модель на 32B уже про сложное планирование и reasoning. По качеству она приближается к фронтирным решениям.
Архитектура Mixture-of-Transformers. Разные части модели обрабатывают разные типы данных. Это снижает шум и даёт более точное восприятие.
Latent tokens. Более компактное представление визуальной информации, что помогает модели лучше понимать окружение.
Self-evolving post-training. Модель продолжает дообучаться и улучшать поведение после базового обучения.
On-policy distillation. Знания переносятся с большой модели на маленькую без сильной потери качества.
По бенчмаркам маленькая модель обгоняет аналоги на большинстве задач. Это важный сигнал для edge и роботики.
GitHub: https://github.com/Tencent-Hunyuan/HY-Embodied
Hugging Face: https://huggingface.co/tencent/HY-Embodied-0.5
Это модель, заточенная под embodied агентов. То есть тех, кто действует в физическом мире или его симуляции.
Фокус смещён с текста на восприятие и действие. Модель учится понимать пространство, время и принимать решения на основе этого.
В линейке две модели.
• Модель на 2B параметров открыта и подходит для edge-сценариев. Её можно гонять локально и встраивать в реальные системы.
• Модель на 32B уже про сложное планирование и reasoning. По качеству она приближается к фронтирным решениям.
Архитектура Mixture-of-Transformers. Разные части модели обрабатывают разные типы данных. Это снижает шум и даёт более точное восприятие.
Latent tokens. Более компактное представление визуальной информации, что помогает модели лучше понимать окружение.
Self-evolving post-training. Модель продолжает дообучаться и улучшать поведение после базового обучения.
On-policy distillation. Знания переносятся с большой модели на маленькую без сильной потери качества.
По бенчмаркам маленькая модель обгоняет аналоги на большинстве задач. Это важный сигнал для edge и роботики.
GitHub: https://github.com/Tencent-Hunyuan/HY-Embodied
Hugging Face: https://huggingface.co/tencent/HY-Embodied-0.5
👍14🔥4❤3👏2
21 апреля приглашаем на бизнес-митап «Лаборатория решений DataLens» — офлайн-встречу о BI и аналитике данных.
📍 Loft Hall (Avantage), м. Автозаводская
Сбор гостей с 16:30, начало в 17:00
Формат — демонстрация реальных кейсов: партнёры покажут решения на базе DataLens для задач из ритейла, финансов, госсектора и фармы.
Что будет:
— Решения бизнес-задач от Навикон, КОРУС Консалтинг, Смарт-Аналитикс, SQEEL
— Доклад команды DataLens о развитии и новых возможностях
— Q&A по архитектуре и подходам
— Нетворк и фуршет
💡 Вы увидите, как создаются решения: от архитектуры до дашбордов и оценки эффективности.
Кому будет полезно:
— компаниям, выбирающим BI
— аналитикам и специалистам по данным
👉 Регистраци по ссылке.
📍 Loft Hall (Avantage), м. Автозаводская
Сбор гостей с 16:30, начало в 17:00
Формат — демонстрация реальных кейсов: партнёры покажут решения на базе DataLens для задач из ритейла, финансов, госсектора и фармы.
Что будет:
— Решения бизнес-задач от Навикон, КОРУС Консалтинг, Смарт-Аналитикс, SQEEL
— Доклад команды DataLens о развитии и новых возможностях
— Q&A по архитектуре и подходам
— Нетворк и фуршет
💡 Вы увидите, как создаются решения: от архитектуры до дашбордов и оценки эффективности.
Кому будет полезно:
— компаниям, выбирающим BI
— аналитикам и специалистам по данным
👉 Регистраци по ссылке.
👍6❤4🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
Исследователи из Национального университета Сингапура представили DMax: новый подход для diffusion LLM.
Вместо последовательного вывода токенов модель генерирует их параллельно, но при этом не разваливается по качеству
Ключевая идея - превратить декодирование в процесс самокоррекции.
Модель не просто пишет ответ, а постоянно пересматривает и исправляет свои же предсказания прямо по ходу генерации.
Это решает главную проблему параллельной генерации - накопление ошибок
По цифрам:
• DMax заметно обгоняет LLaDA-2.0-mini
• TPF на GSM8K вырос с 2.04 до 5.47
• на MBPP с 2.71 до 5.86
и всё это без потери точности
Скорость - до 1338 токенов в секунду на H200
Paper: https://huggingface.co/papers/2604.08302
Code: https://github.com/czg1225/DMax
Models: https://huggingface.co/collections/Zigeng/dmax-models
Datasets: https://huggingface.co/collections/Zigeng/dmax-training-data
Вместо последовательного вывода токенов модель генерирует их параллельно, но при этом не разваливается по качеству
Ключевая идея - превратить декодирование в процесс самокоррекции.
Модель не просто пишет ответ, а постоянно пересматривает и исправляет свои же предсказания прямо по ходу генерации.
Это решает главную проблему параллельной генерации - накопление ошибок
По цифрам:
• DMax заметно обгоняет LLaDA-2.0-mini
• TPF на GSM8K вырос с 2.04 до 5.47
• на MBPP с 2.71 до 5.86
и всё это без потери точности
Скорость - до 1338 токенов в секунду на H200
Paper: https://huggingface.co/papers/2604.08302
Code: https://github.com/czg1225/DMax
Models: https://huggingface.co/collections/Zigeng/dmax-models
Datasets: https://huggingface.co/collections/Zigeng/dmax-training-data
👍12🔥11❤6
This media is not supported in your browser
VIEW IN TELEGRAM
Это нельзя развидеть
opus 🤣🤣🤣🤣
opus 🤣🤣🤣🤣
🤣37❤16👍9🔥6🤨4
🤯 Вышел GemOpus-4 26-A4B - локальный Opus на минималках
Новая модель от JackRong - это Gemma 4, но с reasoning в стиле Claude Opus.
Что внутри:
База: Gemma 4 26B MoE
Активных параметров всего 4B
Поверх - дистилляция логики Opus
По факту это попытка упаковать уровень рассуждений больших моделей в компактный локальный формат.
По перфу:
• ~75 токенов в секунду
• 22.7 GB VRAM
• Контекст до 131K
То есть модель реально можно крутить локально и получать нормальный reasoning, а не просто автодополнение.
Если связать с агентом типа HemresAgent - получается уже почти полноценный локальный AI-ассистент под задачи разработки и автоматизации.
Хороший вариант, если хочется мощный reasoning без облака и с контролем над всем стеком
https://huggingface.co/Jackrong/Gemopus-4-26B-A4B-it-GGUF
Новая модель от JackRong - это Gemma 4, но с reasoning в стиле Claude Opus.
Что внутри:
База: Gemma 4 26B MoE
Активных параметров всего 4B
Поверх - дистилляция логики Opus
По факту это попытка упаковать уровень рассуждений больших моделей в компактный локальный формат.
По перфу:
• ~75 токенов в секунду
• 22.7 GB VRAM
• Контекст до 131K
То есть модель реально можно крутить локально и получать нормальный reasoning, а не просто автодополнение.
Если связать с агентом типа HemresAgent - получается уже почти полноценный локальный AI-ассистент под задачи разработки и автоматизации.
Хороший вариант, если хочется мощный reasoning без облака и с контролем над всем стеком
https://huggingface.co/Jackrong/Gemopus-4-26B-A4B-it-GGUF
❤19👍13🔥4🥱3
Forwarded from Machinelearning
🚨 Claude «деградировал» и это видно по логам.
Senior AI Director из AMD разобрала сессии Claude за январь-март и картина получилась неприятная.
Модель стала думать меньше. Медианная длина reasoning упала примерно с 2200 до 600 символов. Это сразу бьёт по качеству решений.
Параллельно выросло количество API-запросов - почти в 80 раз с февраля на март. Меньше анализа, больше попыток, больше ретраев и сжигания токенов.
Поведение тоже поменялось. Модель чаще «сдаётся» или начинает спрашивать, продолжать ли дальше. За 17 дней таких кейсов было 173, до 8 марта - ноль.
Ещё одна неприятность падение reads-per-edit (reads-per-edit = сколько файлов / участков кода модель посмотрела перед правкой). Было 6.6, стало 2.0. То есть Claude теперь хуже изучает код перед изменениями.
Плюс выросло количество противоречий. Модель чаще переобувается по ходу ответа.
Пользователи замечают, что Клод начинает игнорировать такие вещи, как CLAUDE.md. Просто не хватает «бюджета мышления», чтобы учитывать контекст.
Что интресно, наблюдается зависимость от времени суток. Худшие результаты в 5–7 вечера по PST, ночью качество заметно выше. Похоже, это напрямую связано с загрузкой GPU.
Claude всё ещё мощный, но его поведение стало менее стабильным и сильно зависит от нагрузки
Замечали ли вы, что Claude стал тупее в последнее время ?🤯
Директор по AI в AMD проанализировала 6 852 сессии Claude Code и показала, что модель сильно ухудшили.
234 760 вызовов инструментов, 17 871 блоков размышлений, 3 месяца логов.
После этого Anthropic ответили и фактически подтвердили её выводы.
Пожалуй, самый чистый и показательный аудит AI за 2026 год 👇
https://github.com/anthropics/claude-code/issues/42796#issuecomment-4194007103
@ai_machinelearning_big_data
#news #ai #ml #claude
Senior AI Director из AMD разобрала сессии Claude за январь-март и картина получилась неприятная.
Модель стала думать меньше. Медианная длина reasoning упала примерно с 2200 до 600 символов. Это сразу бьёт по качеству решений.
Параллельно выросло количество API-запросов - почти в 80 раз с февраля на март. Меньше анализа, больше попыток, больше ретраев и сжигания токенов.
Поведение тоже поменялось. Модель чаще «сдаётся» или начинает спрашивать, продолжать ли дальше. За 17 дней таких кейсов было 173, до 8 марта - ноль.
Ещё одна неприятность падение reads-per-edit (reads-per-edit = сколько файлов / участков кода модель посмотрела перед правкой). Было 6.6, стало 2.0. То есть Claude теперь хуже изучает код перед изменениями.
Плюс выросло количество противоречий. Модель чаще переобувается по ходу ответа.
Пользователи замечают, что Клод начинает игнорировать такие вещи, как CLAUDE.md. Просто не хватает «бюджета мышления», чтобы учитывать контекст.
Что интресно, наблюдается зависимость от времени суток. Худшие результаты в 5–7 вечера по PST, ночью качество заметно выше. Похоже, это напрямую связано с загрузкой GPU.
Claude всё ещё мощный, но его поведение стало менее стабильным и сильно зависит от нагрузки
Замечали ли вы, что Claude стал тупее в последнее время ?🤯
Директор по AI в AMD проанализировала 6 852 сессии Claude Code и показала, что модель сильно ухудшили.
234 760 вызовов инструментов, 17 871 блоков размышлений, 3 месяца логов.
После этого Anthropic ответили и фактически подтвердили её выводы.
Пожалуй, самый чистый и показательный аудит AI за 2026 год 👇
https://github.com/anthropics/claude-code/issues/42796#issuecomment-4194007103
@ai_machinelearning_big_data
#news #ai #ml #claude
👍21❤7🔥6💯5😢2🤣2😁1
Разбирают:
• почему RL-окружения вообще важны и как их правильно строить
• в каких случаях RL выигрывает у SFT
• best practices для GRPO и RL
• как работают проверяемые награды и RLVR
Годнота)
https://unsloth.ai/blog/rl-environments
Please open Telegram to view this post
VIEW IN TELEGRAM
👍16❤6🔥4💔1
В сеть слили один из самых плотных гайдов по Claude Code. Не набор советов, а реально сжатая карта всей системы на одном листе.
Внутри разобрано - как устроен сервис изнутри, как правильно стартовать проект, как работает память и иерархия. Плюс показали нормальную структуру проекта, без хаоса.
Отдельно прошлись по практическим вещам.
Скиллы, хуки, рабочие паттерны, горячие клавиши. То, что реально экономит часы в повседневной работе.
Это информация о том, как люди реально используют Claude Code каждый день.
Сохрани. Чтобы потом не искать.
Please open Telegram to view this post
VIEW IN TELEGRAM
🥱11👍9🔥7❤4🤔1
Bloomberg: чиновники администрации Трампа призывают банки протестировать модель Mythos от Anthropic.
Речь идёт о том, чтобы рассматривать Mythos как рабочий инструмент киберзащиты.
В Anthropic заявляют, что Mythos - это универсальная модель, которая неожиданно показала высокую эффективность в обнаружении и эксплуатации уязвимостей нулевого дня, то есть таких багов, для которых ещё не выпущены исправления.
Также в компании отмечают, что Mythos находила уязвимости в крупных операционных системах и браузерах, поэтому доступ к ней был ограничен через Project Glasswing вместо широкого релиза.
В Великобритании тоже отреагировали: регуляторы и национальное киберагентство обсуждают, несёт ли Mythos риски для банков, страховых компаний и бирж.
bloomberg.com/news/articles/2026-04-10/wall-street-banks-try-out-anthropic-s-mythos-as-us-urges-testing
Речь идёт о том, чтобы рассматривать Mythos как рабочий инструмент киберзащиты.
В Anthropic заявляют, что Mythos - это универсальная модель, которая неожиданно показала высокую эффективность в обнаружении и эксплуатации уязвимостей нулевого дня, то есть таких багов, для которых ещё не выпущены исправления.
Также в компании отмечают, что Mythos находила уязвимости в крупных операционных системах и браузерах, поэтому доступ к ней был ограничен через Project Glasswing вместо широкого релиза.
В Великобритании тоже отреагировали: регуляторы и национальное киберагентство обсуждают, несёт ли Mythos риски для банков, страховых компаний и бирж.
bloomberg.com/news/articles/2026-04-10/wall-street-banks-try-out-anthropic-s-mythos-as-us-urges-testing
👍8😁6🔥5❤3🌚1
🤖 Автономные AI-агенты для инженерии
AutoAgent позволяет AI-агентам самостоятельно настраивать и улучшать свои конфигурации, используя мета-агента. Пользователь задает задачи через
🚀 Основные моменты:
- Автоматическая настройка AI-агентов без прямого редактирования кода.
- Использует Markdown для задания задач и инструкций.
- Оценка производительности через числовые баллы.
- Поддержка Docker для изоляции выполнения.
- Совместимость с задачами Harbor.
📌 GitHub: https://github.com/kevinrgu/autoagent
#python
AutoAgent позволяет AI-агентам самостоятельно настраивать и улучшать свои конфигурации, используя мета-агента. Пользователь задает задачи через
program.md, а агент автоматически модифицирует свою архитектуру и оценивает результаты.🚀 Основные моменты:
- Автоматическая настройка AI-агентов без прямого редактирования кода.
- Использует Markdown для задания задач и инструкций.
- Оценка производительности через числовые баллы.
- Поддержка Docker для изоляции выполнения.
- Совместимость с задачами Harbor.
📌 GitHub: https://github.com/kevinrgu/autoagent
#python
1🔥11❤7👍7
⚡️ NVIDIA раздает жирнейший набор API - почти сотка нейросетей бесплатно
Без лишнего шума: открыли доступ к 95+ моделям сразу. Внутри всё, что сейчас в топе - DeepSeek, Kimi, Mistral, Qwen, Flux, Whisper, GLM и ещё пачка инструментов под любые задачи.
Можно собирать свои продукты без вложений: озвучка, чат-боты, липсинк, генерация видео, дизайн. Всё через API, без костылей и с нормальным качеством.
Самое интересное - выкатили доступ к своим моделям. Обязательно попробуй Nemotron: отлично режет шум и вытягивает звук даже с плохого микрофона.
Забирай, пока не прикрыли.
https://build.nvidia.com/models
#NVIDIA
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
Без лишнего шума: открыли доступ к 95+ моделям сразу. Внутри всё, что сейчас в топе - DeepSeek, Kimi, Mistral, Qwen, Flux, Whisper, GLM и ещё пачка инструментов под любые задачи.
Можно собирать свои продукты без вложений: озвучка, чат-боты, липсинк, генерация видео, дизайн. Всё через API, без костылей и с нормальным качеством.
Самое интересное - выкатили доступ к своим моделям. Обязательно попробуй Nemotron: отлично режет шум и вытягивает звук даже с плохого микрофона.
Забирай, пока не прикрыли.
https://build.nvidia.com/models
#NVIDIA
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
1❤27👍10🔥6🤔2🙏1
This media is not supported in your browser
VIEW IN TELEGRAM
Cтартап, в который ты только что влился, где вся команда работает с Claude Code.
🤣68❤8👍6😱2
This media is not supported in your browser
VIEW IN TELEGRAM
Peter Steinberger (создатель OpenClaw) точно подметил: нельзя ожидать крутой результат, если ты убрал главное - собственый взгляд и контроль.
Агент сам по себе не понимает, что «хорошо», а что «средне». Это задаёшь ты.
Результат всегда складывается из трёх вещей: чёткое видение задачи, постоянное управление и корректировка работы агента по ходу работы.
Если этого нет, даже лучший агент превращается в генератор хаотичных действий
Агенты не работают вместо тебя. Они работают лучше вместе с тобой.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤20👍18🔥8🤣3
В Claude Code добавили Routines - способ превратить разовые команды в повторяемые сценарии.
Теперь вместо ручного управления ты задаёшь поведение:
Claude сам выполняет цепочки действий под задачу.
По сути это не промпты, а воспроизводимые workflow внутри Claude Code
Что это даёт:
- автоматизация типовых задач
- меньше ручного контроля
- стабильный результат от запуска к запуску
- экономия времени на рутине
Ты один раз описываешь, как работать.
дальше Claude просто повторяет это как систему.
code.claude.com/docs/en/routines
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
Теперь вместо ручного управления ты задаёшь поведение:
Claude сам выполняет цепочки действий под задачу.
По сути это не промпты, а воспроизводимые workflow внутри Claude Code
Что это даёт:
- автоматизация типовых задач
- меньше ручного контроля
- стабильный результат от запуска к запуску
- экономия времени на рутине
Ты один раз описываешь, как работать.
дальше Claude просто повторяет это как систему.
code.claude.com/docs/en/routines
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
❤21👍12🔥7