Qwen3-Coder-Next — открытая MoE-модель на 80 млрд. общих и 3 млрд. активных параметров с контекстным окном в 256К токенов для агентных задач.
Модель учили через agentic training на 800 тыс. задачах, созданных из GitHub PR в реальных Docker-контейнерах, где она получала прямой фидбек от среды.
Это развило навыки планирования в ризонинге, использования инструментов и умение восстанавливаться после ошибок выполнения.
На претрейне расширили поддержку языков с 92 до 370, затем SFT на траекториях агентов, а потом - специализация экспертов (WebDev, QA, UX) с последующей дистилляцией в единую модель.
В конце, через RL подтянули в задачах кодинга и математики, используя юнит-тесты как сигнал вознаграждения.
Основной массив данных (те самые Docker-контейнеры) это по большей мере Python (202 тыс. инстансов) и JS/TS (175 тыс. инстансов). Для редких языков модель может чаще галлюцинировать, так как данных для RL и проверок через юнит-тесты там физически меньше.
Модель все-таки ощутимо отстает от Claude 4.5 Opus на сверхсложных архитектурных задачах с большими кодовыми базами.
Иногда ей требуется слишком много итераций, чтобы нащупать верное решение и это вопросы к эффективности планирования.
Фронтенд и UI - слабое место (авторы признают), а в киберсек-задачах (поиск уязвимостей и TAA) модель пока не дотягивает до человеческого уровня.
Единственное, что спасает Qwen3-Coder-Next от забвения - это компактность и поддержка fill-in-the-middle для адекватного автодополнения кода в IDE.
Qwen обещают улучшать ризонинг, принятие решении и поддержку дополнительных задач на основе фидбэка пользователей.
@ai_machinelearning_big_data
#AI #ML #LLM #QwenCoderNext #Qwen
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
🚀 Вышла Kling 3.0 - “Everyone a Director”. Новый этап в ИИ-креативе.
Это универсальный движок для мультимодального создания контента - видео, изображений и аудио в одной системе.
Что появилось в версии 3.0:
- Высокая консистентность
Модель умеет “держать” персонажей, объекты и стиль неизменными от кадра к кадру. Лицо героя, одежда, детали сцены и визуальный стиль не “плывут” между шотами, что особенно важно для историй, сериалов, рекламы и сцен с несколькими ракурсами.
• Можно создавать 15-секундные клипы с точным контролем, реалистичной картинкой и настройкой multi-shot сцен.
- Обновлённый звук
Поддержка референсов для нескольких персонажей, добавлено больше языков и акцентов.
- Улучшенная генерация изображений
Вывод в 4K, режим серий изображений и более кинематографичная визуальная подача.
Подписчики Ultra получают эксклюзивный ранний доступ - модель уже доступна в веб-версии Kling AI.
https://app.klingai.com/global/release-notes/whbvu8hsip?type=dialog
Это универсальный движок для мультимодального создания контента - видео, изображений и аудио в одной системе.
Что появилось в версии 3.0:
- Высокая консистентность
Модель умеет “держать” персонажей, объекты и стиль неизменными от кадра к кадру. Лицо героя, одежда, детали сцены и визуальный стиль не “плывут” между шотами, что особенно важно для историй, сериалов, рекламы и сцен с несколькими ракурсами.
• Можно создавать 15-секундные клипы с точным контролем, реалистичной картинкой и настройкой multi-shot сцен.
- Обновлённый звук
Поддержка референсов для нескольких персонажей, добавлено больше языков и акцентов.
- Улучшенная генерация изображений
Вывод в 4K, режим серий изображений и более кинематографичная визуальная подача.
Подписчики Ultra получают эксклюзивный ранний доступ - модель уже доступна в веб-версии Kling AI.
https://app.klingai.com/global/release-notes/whbvu8hsip?type=dialog
🧠 Google придумали способ сделать AI-модели быстрее и легче без потери точности
В новом исследовании Google представили подход под названием Sequential Attention.
Идея простая по смыслу, но мощная по эффекту - модель учится фокусироваться только на действительно важных частях вычислений, а всё лишнее постепенно отбрасывает.
Почему это вообще проблема
Современные нейросети огромные. Они:
- считают слишком много
- используют кучу признаков и параметров
- тратят много памяти и энергии
При этом далеко не всё, что модель обрабатывает, реально влияет на итоговый ответ.
Но определить заранее, что важно, а что нет - математически очень сложно.
Что делает Sequential Attention. Метод работает пошагово.
Вместо того чтобы сразу использовать всё, алгоритм:
1. Выбирает один самый полезный компонент
2. Смотрит, что уже выбрано
3. Добавляет следующий, который даёт наибольшую пользу
4. Повторяет процесс последовательно
То есть модель как будто собирает себя заново-— из самых значимых частей, а не из всего подряд.
Что это даёт на практике
- Меньше вычислений - модель работает быстрее
- Меньше нагрузка на память и железо
- Ниже энергопотребление
- И самое главное - точность почти не страдает
Это редкий случай, когда становится и быстрее, и дешевле, без серьёзных компромиссов по качеству.
Размеры моделей растут быстрее, чем инфраструктура. Поэтому ключевой тренд - не просто делать модели больше, а делать их умнее в плане вычислений.
Sequential Attention - это шаг в сторону “бережливого ИИ”, где:
- не каждая операция обязательна
- не каждый параметр нужен всегда
- модель учится экономить ресурсы сама
И чем крупнее системы, тем ценнее такие подходы.
https://research.google/blog/sequential-attention-making-ai-models-leaner-and-faster-without-sacrificing-accuracy/
@data_analysis_ml
В новом исследовании Google представили подход под названием Sequential Attention.
Идея простая по смыслу, но мощная по эффекту - модель учится фокусироваться только на действительно важных частях вычислений, а всё лишнее постепенно отбрасывает.
Почему это вообще проблема
Современные нейросети огромные. Они:
- считают слишком много
- используют кучу признаков и параметров
- тратят много памяти и энергии
При этом далеко не всё, что модель обрабатывает, реально влияет на итоговый ответ.
Но определить заранее, что важно, а что нет - математически очень сложно.
Что делает Sequential Attention. Метод работает пошагово.
Вместо того чтобы сразу использовать всё, алгоритм:
1. Выбирает один самый полезный компонент
2. Смотрит, что уже выбрано
3. Добавляет следующий, который даёт наибольшую пользу
4. Повторяет процесс последовательно
То есть модель как будто собирает себя заново-— из самых значимых частей, а не из всего подряд.
Что это даёт на практике
- Меньше вычислений - модель работает быстрее
- Меньше нагрузка на память и железо
- Ниже энергопотребление
- И самое главное - точность почти не страдает
Это редкий случай, когда становится и быстрее, и дешевле, без серьёзных компромиссов по качеству.
Размеры моделей растут быстрее, чем инфраструктура. Поэтому ключевой тренд - не просто делать модели больше, а делать их умнее в плане вычислений.
Sequential Attention - это шаг в сторону “бережливого ИИ”, где:
- не каждая операция обязательна
- не каждый параметр нужен всегда
- модель учится экономить ресурсы сама
И чем крупнее системы, тем ценнее такие подходы.
https://research.google/blog/sequential-attention-making-ai-models-leaner-and-faster-without-sacrificing-accuracy/
@data_analysis_ml
Ace Studio в коллабе со StepFun обновили генератор музыки ACE-Step до версии 1.5.
Порог входа уронили до минимума: младшая модель требует меньше 6 ГБ видеопамяти, а, в зависимости от настроек think mode, генерация может занять от 2 до 10 секунд - это уже уровень коммерческих решений.
Разработчики собрали гибрид из языковой модели, которая превращает промпт в чертеж композиции: расписывает структуру, придумывает лирику и метаданные и DiT, который отвечает за звук. Логическое ядро всей этой системы базируется на Qwen3.
ACE-Step v1.5 может генерировать треки длиной от 10 секунд до 10 минут, причем до 8 штук одновременно. В базе больше 1000 инструментов, а тексты песен система понимает на 50 языках.
Авторы подготовили целый набор моделей под разный объем VRAM:
При запуске, ACE-Step v1.5 автоматически выбирает подходящую под железо модель и параметры. Подробную информацию по конфигурациям можно найти тут.
ACE-Step умеет гораздо больше, чем просто превращать текст в мелодию. Можно дать ей пример аудио, чтобы скопировать стиль, делать каверы, исправлять куски уже готовых треков или генерировать аккомпанемент к вокалу.
Самая интересная функция - возможность создавать LoRA. Чтобы скормить модели свой стиль, достаточно всего 8 треков. На 30-й серии RTX с 12 ГБ памяти этот процесс займет около часа.
С деплоем все в порядке, разработчики подготовили портабельную сборку, а для ComfyUI уже написали все необходимые ноды и воркфлоу.
@ai_machinelearning_big_data
#AI #ML #Text2Music #AceStudio #StepFun
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 Вышел Protenix-v1 - первая open-source модель, заявляющая уровень качества AlphaFold 3
За релизом стоит ByteDance, и это серьёзная заявка на open-source в биоинформатике.
Что делает релиз интересным:
🔹 Качество на уровне AF3
Заявлена производительность уровня DeepMind AlphaFold 3, а это уже не просто академическая игрушка, а лига передовых структурных моделей.
🔹 Подтверждено scaling-поведение на инференсе
Модель показывает ожидаемый рост качества при увеличении вычислений во время вывода — редкая и важная характеристика для научных моделей.
🔹 Поддержка RNA MSA и protein templates
Работает не только с белками, но и с РНК-выравниваниями и шаблонами структур — ближе к реальным исследовательским сценариям.
🔹 Отдельная версия на большем датасете
Вышел Protenix-v1-20250630 - дообученная версия с расширенными данными.
🔹 PXMeter v1.0.0
Свой toolkit для бенчмаркинга:
6k+ комплексов, time-split, domain-specific подмножества — меньше «магии», больше воспроизводимости.
Фактически это шаг к тому, чтобы уровень структурного предсказания, раньше доступный только топ-лабораториям, стал open-source инструментом. Для биотеха, фармы и ML-исследователей - очень громкое событие.
🔗 Code: https://github.com/bytedance/Protenix
🔗 Eval toolkit: https://github.com/bytedance/PXMeter
🔗 Online server: https://protenix-server.com
@ai_machinelearning_big_data
За релизом стоит ByteDance, и это серьёзная заявка на open-source в биоинформатике.
Что делает релиз интересным:
🔹 Качество на уровне AF3
Заявлена производительность уровня DeepMind AlphaFold 3, а это уже не просто академическая игрушка, а лига передовых структурных моделей.
🔹 Подтверждено scaling-поведение на инференсе
Модель показывает ожидаемый рост качества при увеличении вычислений во время вывода — редкая и важная характеристика для научных моделей.
🔹 Поддержка RNA MSA и protein templates
Работает не только с белками, но и с РНК-выравниваниями и шаблонами структур — ближе к реальным исследовательским сценариям.
🔹 Отдельная версия на большем датасете
Вышел Protenix-v1-20250630 - дообученная версия с расширенными данными.
🔹 PXMeter v1.0.0
Свой toolkit для бенчмаркинга:
6k+ комплексов, time-split, domain-specific подмножества — меньше «магии», больше воспроизводимости.
Фактически это шаг к тому, чтобы уровень структурного предсказания, раньше доступный только топ-лабораториям, стал open-source инструментом. Для биотеха, фармы и ML-исследователей - очень громкое событие.
🔗 Code: https://github.com/bytedance/Protenix
🔗 Eval toolkit: https://github.com/bytedance/PXMeter
🔗 Online server: https://protenix-server.com
@ai_machinelearning_big_data
🚀 Релиз Claude Opus 4.6
Anthropic прокачали флагманскую модель: Opus 4.6 теперь лучше планирует, дольше держит сложные агентские задачи, стабильнее работает с огромными кодовыми базами и умеет находить собственные ошибки.
Главный апдейт - это 1 миллион токенов контекста (в бете). Такой объём позволяет держать в памяти большие проекты, длинные документы и сложные цепочки рассуждений без потери связности.
По результатам тестов Opus 4.6 показывает state-of-the-art в задачах:
• агентское программирование
• междисциплинарное рассуждение
• knowledge work
• агентский поиск
Параллельно расширяются возможности Claude в Excel, PowerPoint, Claude Code и API - чтобы модель могла глубже встраиваться в рабочие процессы, аналитику и разработку.
В Claude Code добела функция команд агентов, которые работают параллельно и автономно.
www.anthropic.com/news/claude-opus-4-6
@ai_machinelearning_big_data
Anthropic прокачали флагманскую модель: Opus 4.6 теперь лучше планирует, дольше держит сложные агентские задачи, стабильнее работает с огромными кодовыми базами и умеет находить собственные ошибки.
Главный апдейт - это 1 миллион токенов контекста (в бете). Такой объём позволяет держать в памяти большие проекты, длинные документы и сложные цепочки рассуждений без потери связности.
По результатам тестов Opus 4.6 показывает state-of-the-art в задачах:
• агентское программирование
• междисциплинарное рассуждение
• knowledge work
• агентский поиск
Параллельно расширяются возможности Claude в Excel, PowerPoint, Claude Code и API - чтобы модель могла глубже встраиваться в рабочие процессы, аналитику и разработку.
В Claude Code добела функция команд агентов, которые работают параллельно и автономно.
www.anthropic.com/news/claude-opus-4-6
@ai_machinelearning_big_data
Релизы выходят почти одновременно - это уже осознанная гонка, а не совпадение.
Релизы выходят всё чаще.
Opus 4.5 вышел в конце ноября, GPT-5.2 Codex - в декабре. Сейчас начало февраля, и вышли уже новые версии типовых ИИ.
Цикл обновлений сократился до 2–3 месяцев. И за это время модели делают заметный шаг вперёд, а не «минорный апдейт».
Но главное даже не в бенчмарках.
Opus 4.6 получил:
• контекст до 1 млн токенов
• более устойчивую работу в агентных задачах
• надёжную навигацию по огромным кодовым базам
• умение находить и исправлять собственные ошибки
Плюс - расширение для Excel и PowerPoint. Не как эксперимент, а как рабочий инструмент.
И тут OpenAI делает свой ход.
Ключевая особенность GPT-5.3 Codex - одновременно лучшая токен-эффективность и более быстрый инференс.
Обычно улучшают что-то одно. Здесь - оба параметра сразу.
Но самое важное скрыто в одной фразе из блога OpenAI:
GPT-5.3 Codex стал первой моделью, которая помогала создавать саму себя. Она участвовала в отладке обучения, анализе тестов и деплое.
Это принципиальный сдвиг.
Роль человека не исчезает, но меняется. Он всё меньше пишет код и всё больше проектирует систему, в которой ИИ сам ускоряет своё развитие.
Мы входим в эпоху самоулучшающихся моделей.
Либо релизы будут выходить ещё чаще, либо каждый следующий шаг будет давать всё больший прирост.
В любом случае дальше всё пойдёт быстрее. И заметно мощнее.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Frontier - это не про «умнее модель», а про то, чтобы AI реально работал внутри компании и выполнял задачи от начала до конца.
Главная проблема корпоративных агентов сегодня не интеллект, а отсутствие контекста, доступа к системам и контроля.
Что делает Frontier:
- Общий семантический слой
Данные в компаниях разбросаны: CRM, тикеты, хранилища, внутренние сервисы.
Frontier объединяет их, чтобы агент работал с бизнес-сущностями (клиент, заказ, сделка), а не с разрозненными системами.
- Среда выполнения агентов
Агент может:
- работать с файлами
- запускать код
- вызывать инструменты
- управлять компьютером
- выполнять многошаговые процессы от начала до конца
- Память
Агенты сохраняют «воспоминания» о прошлых действиях и используют их для улучшения следующих запусков.
- Контроль качества
Встроенные механизмы оценки и обратной связи учат агента, что считается «хорошим результатом» именно для задач компании.
- Управление и безопасность
У каждого агента есть:
- собственная идентичность
- права доступа
- ограничения
- аудит действий
Это критично для корпоративных и регулируемых сред.
- Гибкое развертывание
Можно запускать:
- локально
- в корпоративном облаке
- в инфраструктуре OpenAI
Интеграция через открытые стандарты без необходимости переносить все системы.
Результаты пилотов:
- оптимизация процессов: с 6 недель до 1 дня
- +90% времени у sales на работу с клиентами
- до +5% роста производственного выпуска
Пока Frontier доступен ограниченному числу компаний. Широкий запуск ожидается в ближайшие месяцы.
Главный вывод: следующий этап AI — это не «умнее модель», а инфраструктура, которая превращает модель в полноценного цифрового сотрудника.
https://openai.com/ru-RU/index/introducing-openai-frontier/
Please open Telegram to view this post
VIEW IN TELEGRAM
💸 Anthropic напугала рынок - и это сигнал о новой фазе AI.
После анонса нового решения для автоматизации юридической работы инвесторы начали массово распродавать акции компаний производителей софта.
Что произошло:
- Индекс S&P 500 Software упал почти на 9% за 5 дней
- Акции отдельных игроков, включая Thomson Reuters, просели более чем на 20%
- Рынок отреагировал на риск того, что AI начнёт забирать ключевые функции у традиционных SaaS-сервисов
Почему такая реакция:
Раньше AI был инструментом «внутри продукта».
Теперь он становится самим продуктом.
Если агент может:
- анализировать документы
- составлять контракты
- искать судебную практику
- проверять риски
- готовить отчёты
— тогда многие дорогие подписки на специализированные сервисы просто теряют смысл.
И это касается не только юристов.
Под угрозой:
- LegalTech
- FinTech-аналитика
- консалтинг
- research-платформы
- любые SaaS, которые продают «обработку информации»
Главный вывод:
AI начинает конкурировать не с людьми.
Он начинает конкурировать с целыми продуктами и бизнес-моделями.
Следующая волна это не «AI как фича».
Это AI вместо SaaS.
https://futurism.com/artificial-intelligence/anthropic-shockwaves-stock-market
@ai_machinelearning_big_data
После анонса нового решения для автоматизации юридической работы инвесторы начали массово распродавать акции компаний производителей софта.
Что произошло:
- Индекс S&P 500 Software упал почти на 9% за 5 дней
- Акции отдельных игроков, включая Thomson Reuters, просели более чем на 20%
- Рынок отреагировал на риск того, что AI начнёт забирать ключевые функции у традиционных SaaS-сервисов
Почему такая реакция:
Раньше AI был инструментом «внутри продукта».
Теперь он становится самим продуктом.
Если агент может:
- анализировать документы
- составлять контракты
- искать судебную практику
- проверять риски
- готовить отчёты
— тогда многие дорогие подписки на специализированные сервисы просто теряют смысл.
И это касается не только юристов.
Под угрозой:
- LegalTech
- FinTech-аналитика
- консалтинг
- research-платформы
- любые SaaS, которые продают «обработку информации»
Главный вывод:
AI начинает конкурировать не с людьми.
Он начинает конкурировать с целыми продуктами и бизнес-моделями.
Следующая волна это не «AI как фича».
Это AI вместо SaaS.
https://futurism.com/artificial-intelligence/anthropic-shockwaves-stock-market
@ai_machinelearning_big_data
Сотрудник Bithumb случайно сделал своих пользователей миллионерами - The Korea Times
Стажер по ошибке отправил 2000 биткоинов сотням пользователей.
Он намеревался зачислить бонус в размере 2000 корейских вон (около 1,50 доллара США), но допустил ошибку, введя единицу измерения как BTC.
В результате удачливые пользователи мгновенно стали миллионерами и бросились продавать свои биткоины.
Одновременные продажи вызвали панику на бирже.
Стажер по ошибке отправил 2000 биткоинов сотням пользователей.
Он намеревался зачислить бонус в размере 2000 корейских вон (около 1,50 доллара США), но допустил ошибку, введя единицу измерения как BTC.
В результате удачливые пользователи мгновенно стали миллионерами и бросились продавать свои биткоины.
Одновременные продажи вызвали панику на бирже.
Чем больше появляется фреймворков, тем сложнее их настраивать, дебажить и просто понимать, что происходит внутри. Поэтому особенно ценны инструменты, которые возвращают всё к простоте.
KISS Multi-Agent Evolutionary Framework 0 небольшой Python-фреймворк, который следует принципу: *Keep It Simple, Stupid*.
Что в нём интересного:
- Почти никакой магии - обычный Python и один
run()- Обычная функция с type hints автоматически становится tool через нативный function calling модели
- Без декораторов, лишних аннотаций и glue-кода
- Код читается и отлаживается как обычный Python
Агент работает по циклу ReAct:
думает → вызывает инструмент → анализирует результат → повторяет, пока не достигнет цели.
Нужно несколько агентов?
Всё просто: вызываете их последовательно в Python.
researcher → writer → editor
Можно использовать разные модели и строить пайплайны без сложной оркестрации.
Фреймворк также сохраняет trajectory-лог:
- шаги агента
- использование токенов
- время выполнения
- стоимость
Это позволяет быстро понять, где агент ошибся или начал тратить слишком много.
Но самая сильная часть — автоэволюция.
AgentEvolver
- создаёт множество вариантов агента
- применяет мутации и кроссовер
- выбирает лучшие по качеству, скорости и стоимости
GEPA (Genetic-Pareto)
- агент сам анализирует свои ответы и переписывает промпты
- используется Pareto-фронт
- сохраняется несколько оптимальных стратегий, а не одна
В итоге получается не просто агент, а самооптимизирующаяся система, которая ищет баланс между качеством и затратами.
Если устали от тяжёлых агент-фреймворков и хотите минимализм, прозрачность и контроль - KISS может стать отличной базой для ваших LLM-агентов.
https://github.com/ksenxx/kiss_ai
@pythonl
Please open Telegram to view this post
VIEW IN TELEGRAM