7 апреля на Artificial Analysis Video Arena без анонсов, пресс-релизов и корпоративного бэкграунда появилась модель HappyHorse-1.0, которая сразу заняла 1 место.
Все, что известно о внутреннем устройстве, собрано из описаний на happyhorse-ai.com (домен, кстати зарегистрирован 7 апреля).
Заявлено 15 млрд. параметров и 40-слойный трансформер, обрабатывающий текстовые, визуальные и аудио-токены в единой последовательности, без перекрестного внимания и без отдельных подсетей под каждую модальность.
Инференс идет за 8 шагов без CFG, с ускорением через собственный компилятор MagiCompiler.
Пятисекундный ролик в 1080p, по данным авторов, рендерится примерно за 38 секунд на H100.
Поддерживается совместная генерация видео и синхронного аудио с липсинком на 7 языках, включая китайский, английский, японский и кантонский. GitHub и Model Hub помечены как
coming soon. Одна версия связывает HappyHorse с Alibaba: в пользу этого играет название (2026 - год Лошади по китайскому календарю).
Издание The Information ссылаясь на 2 источника, эту версию подтвердило.
Другая - указывает на Tongyi Lab и линейку Wan, однако технические описания HappyHorse и недавно вышедшей Wan 2.7 расходятся: Wan 2.7 делает акцент на ризонинге и длинном тексте, тогда как HappyHorse строится вокруг однопоточного трансформера и 8-шагового инференса.
Третья версия, набирающая вес в техническом сообществе, строится на сходстве HappyHorse с открытой моделью daVinci-MagiHuman от SandАi, вышедшей в марте: совпадают метрики визуального качества, следования промту, физической консистентности и WER голоса.
Если релиз состоится на условиях open source с коммерческой лицензией, как следует из описания на сайте модели, это станет первым случаем, когда открытая видеомодель обошла закрытых лидеров в пользовательских слепых тестах.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥76🤔14👏12❤9🎉6👍3🏆3😁1🥱1
Появился новый тариф Pro за $100 в месяц, заточенный под Codex.
По словам компании, он дает в 5 раз больше лимитов на Codex по сравнению с Plus и рассчитан на длинные, ресурсоемкие сессии. Все существующие фичи Pro никуда не делись: эксклюзивная Pro-модель, безлимитный доступ к Instant и Thinking моделям.
До 31 мая подписчикам нового Pro дают до 10x использования Codex относительно Plus - чтобы люди могли распробовать и привыкнуть.
А вот для Plus-подписчиков новости менее радужные. Промо-период с расширенным доступом к Codex закончился, и OpenAI ребалансирует лимиты: теперь упор на больше коротких сессий в течение недели вместо длинных марафонов за один день. По сути, если вы активно пользовались Codex на Plus и вам хватало - готовьтесь к тому, что лимиты стали жестче. OpenAI прямо говорит, что Plus за $20 остается лучшим вариантом для повседневного использования, а для тяжелой работы с Codex теперь нужно переходить на Pro.
https://chatgpt.com/ru-RU/pricing/
@ai_machinelearning_big_data
#openai
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍63🤔33🤬16😭12❤10🔥10😐7🤣3🤗1
Media is too big
VIEW IN TELEGRAM
Anthropic перевела Claude Cowork для macOS и Windows из статуса превью в общий доступ. Агент теперь доступен на всех платных тарифах. Главное в релизе - набор корпоративных функций для развертывания Cowork внутри компаний.
Администраторы получили ролевую модель доступа с синхронизацией пользователей через SCIM и возможность задавать лимиты расходов по командам. Закрыт пробел в аудите: теперь через расширенную поддержку OpenTelemetry система логирует вызовы инструментов, операции с файлами и подтверждения действий, а телеметрию можно отгружать в SIEM.
Отдельно появился гранулярный контроль над MCP-коннекторами: на уровне организации можно, например, оставить агенту только чтение и заблокировать любые операции записи. Каталог интеграций пополнился официальным коннектором Zoom.
claude.com
ByteDance представила SeedDuplex, которая продолжает слушать пользователя, пока сама говорит. Модель обрабатывает звук и смысл слитно, поэтому умеет адаптивно определять границы реплик, она отличает реальный конец фразы от паузы на обдумывание.
Отдельный модуль шумоподавления отсекает фон и посторонние голоса. По замерам ByteDance, задержка отклика сократилась на 250 мс, а число неуместных перебиваний упало на 40%.
Seeduplex уже полностью раскатана в приложении Doubao - основном потребительском продукте ByteDance
bytedance.com
Google добавила в Gemini новый формат ответа: вместе с текстом чат-бот может отдавать интерактивные визуализации. На запрос смоделировать физическую систему или показать структуру молекулы Gemini соберёт рабочий виджет прямо в окне диалога.
Визуализациями можно управлять. Например, в ответе про орбиту Луны появляются ползунки для начальной скорости и силы гравитации — значения можно тянуть мышью или вбивать вручную, а траектория и устойчивость орбиты пересчитываются на лету.
Обновление уже раскатывается на всех пользователей приложения Gemini, за исключением корпоративных аккаунтов Workspace и Education. Чтобы попробовать, нужно переключиться на модель Pro и добавить в промпт команду «помоги визуализировать».
blog.google
LM Studio объявила о поглощении проекта Locally AI, разработчика приложений для локального инференса на iPhone, iPad и Mac. Основатель стартапа Адриен Грондин переходит в LM Studio и возглавит направление кросс-платформенных интерфейсов.
Сделка нужна, чтобы вывести LM Studio за пределы десктопа: до сих пор клиент работал только на macOS, Windows и Linux. На базе наработок Locally AI разработчики смогут запускать локальных агентов на мобильных устройствах.
В ближайших планах LM Studio - связать десктопную и мобильную версии в одну экосистему, чтобы модели и чаты синхронизировались между устройствами пользователя.
lmstudio.ai
Cursor изменил схему тренировки Bugbot, ИИ-инструмента для код-ревью. Раньше модель обновляли редкими офлайн-итерациями, теперь она дообучается в процессе ревью реальных PR.
Bugbot собирает 3 типа сигналов: дизлайки на собственные замечания, ответы разработчиков с разбором ошибок модели и комментарии людей, которые указывают на пропущенные баги. На основе этой обратной связи бот формулирует кастомные инструкции, подстраивающие его под бизнес-логику целевого репозитория.
После перехода на непрерывное обучение доля валидных срабатываний выросла до 78%. Это выше, чем у Greptile, CodeRabbit и GitHub Copilot. Включить генерацию правил и прогнать ретроспективное обучение можно в дашборде Cursor.
cursor.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍113👏30🤩20🎉19❤17🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Qwen Code обновился - теперь это почти автономный DevOps-агент
Вышли версии v0.14.0 – v0.14.2 и это уже не просто тулза, а полноценная система для управления задачами, агентами и инфраструктурой.
Что добавили:
• Channels - управляешь Qwen Code прямо из Telegram, DingTalk или WeChat
Пишешь с телефона - выполняется на сервере
• Cron Jobs - регулярные AI-задачи
Тесты каждые 30 минут, билд по утрам, мониторинг логов по расписанию
• Qwen3.6-Plus - новый флагман
1M контекста и до 1000 бесплатных запросов в день
• Sub-agent Model Selection - разные модели под разные задачи
Тяжёлую модель на основную логику, быструю на подзадачи
Экономия токенов без потери качества
• /plan - режим планирования
Сначала AI строит план по файлам и шагам, потом ты подтверждаешь и он исполняет
• Follow-up Suggestions - после задачи предлагает следующие шаги
Типа «добавить тесты?» или «проверить похожие файлы»
• Adaptive Output Tokens - умный вывод
По умолчанию 8K, но сам расширяется до 64K если не хватает
• Ctrl+O - переключение режима ответа
Подробный для дебага или компактный для работы
https://github.com/QwenLM/qwen-code/releases
@ai_machinelearning_big_data
#qwen
Вышли версии v0.14.0 – v0.14.2 и это уже не просто тулза, а полноценная система для управления задачами, агентами и инфраструктурой.
Что добавили:
• Channels - управляешь Qwen Code прямо из Telegram, DingTalk или WeChat
Пишешь с телефона - выполняется на сервере
• Cron Jobs - регулярные AI-задачи
Тесты каждые 30 минут, билд по утрам, мониторинг логов по расписанию
• Qwen3.6-Plus - новый флагман
1M контекста и до 1000 бесплатных запросов в день
• Sub-agent Model Selection - разные модели под разные задачи
Тяжёлую модель на основную логику, быструю на подзадачи
Экономия токенов без потери качества
• /plan - режим планирования
Сначала AI строит план по файлам и шагам, потом ты подтверждаешь и он исполняет
• Follow-up Suggestions - после задачи предлагает следующие шаги
Типа «добавить тесты?» или «проверить похожие файлы»
• Adaptive Output Tokens - умный вывод
По умолчанию 8K, но сам расширяется до 64K если не хватает
• Ctrl+O - переключение режима ответа
Подробный для дебага или компактный для работы
https://github.com/QwenLM/qwen-code/releases
@ai_machinelearning_big_data
#qwen
❤50🤓43👍26🔥16💯13🎉9👏8
Если вы работаете с технологиями, которые уже показывают реальные результаты в проектах — самое время рассказать об этом 🗣️
Организаторы помогут спикерам на каждом этапе: от проработки доклада с экспертами до подготовки выступления с тренером по публичным выступлениям и оформления презентации дизайнерами.
Доклады отбирает программный комитет. Критериев отбора четыре
- новизна
- польза для сообщества
- практическая применимость
- глубина проработки
Practical ML Conf — ежегодная конференция Яндекса для ML-практиков — в этом году снова собирает настоящих фанатов машинного обучения.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥42👍16👏7❤3🤩2🤣2
На Claude Platform новый серверный тул - Аdvisor. Он реализует механику, в которой Sonnet или Haiku идут как исполнитель и ведут задачу от начала до конца, а Opus подключается как советник, чтобы в результате получить качество, близкое к Opus, по цене, близкой к Sonnet.
Модель-исполнитель сама решает, когда позвать Opus, он подключается как обычный вызов инструмента.
Opus получает выжимку контекста, возвращает план, исправление или сигнал остановки, после чего исполнитель продолжает работу. Советник не вызывает другие инструменты и не пишет в ответ пользователю - только дает указания исполнителю.
Все происходит внутри одного запроса, без дополнительных раунд-трипов и ручной оркестрации.
Токены советника тарифицируются по его ставкам и репортятся в usage отдельно, так что расход по уровням можно отслеживать.
На SWE-bench Multilingual, связка Sonnet + Opus-advisor дает +2,7% к качеству относительно Sonnet в соло и при этом снижает стоимость на 11,9%.
На BrowseComp Haiku + Opus-advisor выдает 41,2% против 19,7% у чисто Haiku, а общая стоимость остаётся на 85% ниже, чем если запускать только Sonnet.
Advisor tool доступен в бете по API. Документация - тут.
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡45👏29🤣25🤓16🤔9👍6👌6🔥4❤2