7 апреля на Artificial Analysis Video Arena без анонсов, пресс-релизов и корпоративного бэкграунда появилась модель HappyHorse-1.0, которая сразу заняла 1 место.
Все, что известно о внутреннем устройстве, собрано из описаний на happyhorse-ai.com (домен, кстати зарегистрирован 7 апреля).
Заявлено 15 млрд. параметров и 40-слойный трансформер, обрабатывающий текстовые, визуальные и аудио-токены в единой последовательности, без перекрестного внимания и без отдельных подсетей под каждую модальность.
Инференс идет за 8 шагов без CFG, с ускорением через собственный компилятор MagiCompiler.
Пятисекундный ролик в 1080p, по данным авторов, рендерится примерно за 38 секунд на H100.
Поддерживается совместная генерация видео и синхронного аудио с липсинком на 7 языках, включая китайский, английский, японский и кантонский. GitHub и Model Hub помечены как
coming soon. Одна версия связывает HappyHorse с Alibaba: в пользу этого играет название (2026 - год Лошади по китайскому календарю).
Издание The Information ссылаясь на 2 источника, эту версию подтвердило.
Другая - указывает на Tongyi Lab и линейку Wan, однако технические описания HappyHorse и недавно вышедшей Wan 2.7 расходятся: Wan 2.7 делает акцент на ризонинге и длинном тексте, тогда как HappyHorse строится вокруг однопоточного трансформера и 8-шагового инференса.
Третья версия, набирающая вес в техническом сообществе, строится на сходстве HappyHorse с открытой моделью daVinci-MagiHuman от SandАi, вышедшей в марте: совпадают метрики визуального качества, следования промту, физической консистентности и WER голоса.
Если релиз состоится на условиях open source с коммерческой лицензией, как следует из описания на сайте модели, это станет первым случаем, когда открытая видеомодель обошла закрытых лидеров в пользовательских слепых тестах.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥76🤔15👏12❤9🎉6👍3🏆3😁1🥱1
Появился новый тариф Pro за $100 в месяц, заточенный под Codex.
По словам компании, он дает в 5 раз больше лимитов на Codex по сравнению с Plus и рассчитан на длинные, ресурсоемкие сессии. Все существующие фичи Pro никуда не делись: эксклюзивная Pro-модель, безлимитный доступ к Instant и Thinking моделям.
До 31 мая подписчикам нового Pro дают до 10x использования Codex относительно Plus - чтобы люди могли распробовать и привыкнуть.
А вот для Plus-подписчиков новости менее радужные. Промо-период с расширенным доступом к Codex закончился, и OpenAI ребалансирует лимиты: теперь упор на больше коротких сессий в течение недели вместо длинных марафонов за один день. По сути, если вы активно пользовались Codex на Plus и вам хватало - готовьтесь к тому, что лимиты стали жестче. OpenAI прямо говорит, что Plus за $20 остается лучшим вариантом для повседневного использования, а для тяжелой работы с Codex теперь нужно переходить на Pro.
https://chatgpt.com/ru-RU/pricing/
@ai_machinelearning_big_data
#openai
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍63🤔34🤬16❤12🔥12😭12😐8🤣3🤗1
Media is too big
VIEW IN TELEGRAM
Anthropic перевела Claude Cowork для macOS и Windows из статуса превью в общий доступ. Агент теперь доступен на всех платных тарифах. Главное в релизе - набор корпоративных функций для развертывания Cowork внутри компаний.
Администраторы получили ролевую модель доступа с синхронизацией пользователей через SCIM и возможность задавать лимиты расходов по командам. Закрыт пробел в аудите: теперь через расширенную поддержку OpenTelemetry система логирует вызовы инструментов, операции с файлами и подтверждения действий, а телеметрию можно отгружать в SIEM.
Отдельно появился гранулярный контроль над MCP-коннекторами: на уровне организации можно, например, оставить агенту только чтение и заблокировать любые операции записи. Каталог интеграций пополнился официальным коннектором Zoom.
claude.com
ByteDance представила SeedDuplex, которая продолжает слушать пользователя, пока сама говорит. Модель обрабатывает звук и смысл слитно, поэтому умеет адаптивно определять границы реплик, она отличает реальный конец фразы от паузы на обдумывание.
Отдельный модуль шумоподавления отсекает фон и посторонние голоса. По замерам ByteDance, задержка отклика сократилась на 250 мс, а число неуместных перебиваний упало на 40%.
Seeduplex уже полностью раскатана в приложении Doubao - основном потребительском продукте ByteDance
bytedance.com
Google добавила в Gemini новый формат ответа: вместе с текстом чат-бот может отдавать интерактивные визуализации. На запрос смоделировать физическую систему или показать структуру молекулы Gemini соберёт рабочий виджет прямо в окне диалога.
Визуализациями можно управлять. Например, в ответе про орбиту Луны появляются ползунки для начальной скорости и силы гравитации — значения можно тянуть мышью или вбивать вручную, а траектория и устойчивость орбиты пересчитываются на лету.
Обновление уже раскатывается на всех пользователей приложения Gemini, за исключением корпоративных аккаунтов Workspace и Education. Чтобы попробовать, нужно переключиться на модель Pro и добавить в промпт команду «помоги визуализировать».
blog.google
LM Studio объявила о поглощении проекта Locally AI, разработчика приложений для локального инференса на iPhone, iPad и Mac. Основатель стартапа Адриен Грондин переходит в LM Studio и возглавит направление кросс-платформенных интерфейсов.
Сделка нужна, чтобы вывести LM Studio за пределы десктопа: до сих пор клиент работал только на macOS, Windows и Linux. На базе наработок Locally AI разработчики смогут запускать локальных агентов на мобильных устройствах.
В ближайших планах LM Studio - связать десктопную и мобильную версии в одну экосистему, чтобы модели и чаты синхронизировались между устройствами пользователя.
lmstudio.ai
Cursor изменил схему тренировки Bugbot, ИИ-инструмента для код-ревью. Раньше модель обновляли редкими офлайн-итерациями, теперь она дообучается в процессе ревью реальных PR.
Bugbot собирает 3 типа сигналов: дизлайки на собственные замечания, ответы разработчиков с разбором ошибок модели и комментарии людей, которые указывают на пропущенные баги. На основе этой обратной связи бот формулирует кастомные инструкции, подстраивающие его под бизнес-логику целевого репозитория.
После перехода на непрерывное обучение доля валидных срабатываний выросла до 78%. Это выше, чем у Greptile, CodeRabbit и GitHub Copilot. Включить генерацию правил и прогнать ретроспективное обучение можно в дашборде Cursor.
cursor.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍122👏31🤩20🎉19❤17🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Qwen Code обновился - теперь это почти автономный DevOps-агент
Вышли версии v0.14.0 – v0.14.2 и это уже не просто тулза, а полноценная система для управления задачами, агентами и инфраструктурой.
Что добавили:
• Channels - управляешь Qwen Code прямо из Telegram, DingTalk или WeChat
Пишешь с телефона - выполняется на сервере
• Cron Jobs - регулярные AI-задачи
Тесты каждые 30 минут, билд по утрам, мониторинг логов по расписанию
• Qwen3.6-Plus - новый флагман
1M контекста и до 1000 бесплатных запросов в день
• Sub-agent Model Selection - разные модели под разные задачи
Тяжёлую модель на основную логику, быструю на подзадачи
Экономия токенов без потери качества
• /plan - режим планирования
Сначала AI строит план по файлам и шагам, потом ты подтверждаешь и он исполняет
• Follow-up Suggestions - после задачи предлагает следующие шаги
Типа «добавить тесты?» или «проверить похожие файлы»
• Adaptive Output Tokens - умный вывод
По умолчанию 8K, но сам расширяется до 64K если не хватает
• Ctrl+O - переключение режима ответа
Подробный для дебага или компактный для работы
https://github.com/QwenLM/qwen-code/releases
@ai_machinelearning_big_data
#qwen
Вышли версии v0.14.0 – v0.14.2 и это уже не просто тулза, а полноценная система для управления задачами, агентами и инфраструктурой.
Что добавили:
• Channels - управляешь Qwen Code прямо из Telegram, DingTalk или WeChat
Пишешь с телефона - выполняется на сервере
• Cron Jobs - регулярные AI-задачи
Тесты каждые 30 минут, билд по утрам, мониторинг логов по расписанию
• Qwen3.6-Plus - новый флагман
1M контекста и до 1000 бесплатных запросов в день
• Sub-agent Model Selection - разные модели под разные задачи
Тяжёлую модель на основную логику, быструю на подзадачи
Экономия токенов без потери качества
• /plan - режим планирования
Сначала AI строит план по файлам и шагам, потом ты подтверждаешь и он исполняет
• Follow-up Suggestions - после задачи предлагает следующие шаги
Типа «добавить тесты?» или «проверить похожие файлы»
• Adaptive Output Tokens - умный вывод
По умолчанию 8K, но сам расширяется до 64K если не хватает
• Ctrl+O - переключение режима ответа
Подробный для дебага или компактный для работы
https://github.com/QwenLM/qwen-code/releases
@ai_machinelearning_big_data
#qwen
❤62🤓51👍29🔥17💯15🎉9👏8
Если вы работаете с технологиями, которые уже показывают реальные результаты в проектах — самое время рассказать об этом 🗣️
Организаторы помогут спикерам на каждом этапе: от проработки доклада с экспертами до подготовки выступления с тренером по публичным выступлениям и оформления презентации дизайнерами.
Доклады отбирает программный комитет. Критериев отбора четыре
- новизна
- польза для сообщества
- практическая применимость
- глубина проработки
Practical ML Conf — ежегодная конференция Яндекса для ML-практиков — в этом году снова собирает настоящих фанатов машинного обучения.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥52👍16👏8❤5🤣3🤩2
На Claude Platform новый серверный тул - Аdvisor. Он реализует механику, в которой Sonnet или Haiku идут как исполнитель и ведут задачу от начала до конца, а Opus подключается как советник, чтобы в результате получить качество, близкое к Opus, по цене, близкой к Sonnet.
Модель-исполнитель сама решает, когда позвать Opus, он подключается как обычный вызов инструмента.
Opus получает выжимку контекста, возвращает план, исправление или сигнал остановки, после чего исполнитель продолжает работу. Советник не вызывает другие инструменты и не пишет в ответ пользователю - только дает указания исполнителю.
Все происходит внутри одного запроса, без дополнительных раунд-трипов и ручной оркестрации.
Токены советника тарифицируются по его ставкам и репортятся в usage отдельно, так что расход по уровням можно отслеживать.
На SWE-bench Multilingual, связка Sonnet + Opus-advisor дает +2,7% к качеству относительно Sonnet в соло и при этом снижает стоимость на 11,9%.
На BrowseComp Haiku + Opus-advisor выдает 41,2% против 19,7% у чисто Haiku, а общая стоимость остаётся на 85% ниже, чем если запускать только Sonnet.
Advisor tool доступен в бете по API. Документация - тут.
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡56👏35🤣26🤓17🤔10👍6👌6❤4🔥4
Media is too big
VIEW IN TELEGRAM
20-летний мужчина метнул самодельное зажигательное устройство в дом Сэма Альтмана в Сан-Франциско, спровоцировав пожар. Скрывшись с места преступления, злоумышленник направился к штаб-квартире OpenAI, расположенной в 5 километрах от дома.
Спустя час полиция задержала его возле главного офиса компании - там молодой человек угрожал сжечь здание дотла.
В результате инцидентов никто не пострадал и полиция пока не уточняет, находился ли руководитель OpenAI дома в момент нападения.
ft.com
Министр финансов США и председатель ФРС провели закрытую встречу с руководителями Citigroup, Morgan Stanley, Bank of America и Goldman Sachs. Темой срочного совещания стали риски кибербезопасности, спровоцированные релизом модели Mythos от Anthropic.
Опасения властей связаны с техническими возможностями модели. Mythos способен находить и самостоятельно эксплуатировать уязвимости нулевого дня во всех основных операционных системах и веб-браузерах. Для системно значимых банков, от которых зависит глобальная экономика, это означает переход киберугроз на принципиально иной уровень автоматизации.
Цель экстренного совещания - убедиться, что финансовый сектор осознает масштабы проблемы и готов перестроить защиту внутренних сетей под новые реалии.
bloomberglaw.com
В новой версии улучшили качество сведения и следование инструкциям. Теперь через промпт можно точно задавать BPM, тональность, порядок вступления партий и выстраивать сложную эмоциональную дугу трека.
Проведена глубокая оптимизация средних и низких частот. Для работы с готовым материалом появилась функция Cover. Она извлекает мелодический каркас из загруженного аудио и позволяет полностью изменить жанр или аранжировку, сохранив исходный мотив и ритмику.
Кроме этого, представлены три новых Music Skills. Они позволяют интегрировать генерацию музыки в сторонние сервисы, собирать динамические плейлисты на основе предпочтений пользователя и наделять виртуальных ассистентов вокалом для импровизаций. Модель доступна в стадии беты с 14-дневным бесплатным использованием.
minimax.io
По данным инсайдеров, новая флагманская модель DeepSeek V4 дебютирует во второй половине апреля. Ожидается, что архитектура будет насчитывать триллионы параметров, а размер контекстного окна расширится до миллионов токенов.
Намеки на скорый релиз уже появились в веб-интерфейсе платформы, где разработчики добавили быстрый и экспертный режимы для обработки сложных комплексных запросов. DeepSeek пока воздерживается от официальных комментариев.
finance.sina.com.cn
Разведывательное управление США подготовило первый отчет, сгенерированный ИИ. По словам заместителя директора ведомства, в ближайшие годы ИИ-ассистенты будут встроены во все аналитические платформы ЦРУ. Нейросети возьмут на себя подготовку черновиков, верификацию разрозненных данных, машинный перевод и выявление скрытых трендов.
За последний год управление уже протестировало 300 подобных проектов. Активнее применять генеративные модели начнет и Центр киберразведки, курирующий скрытые хакерские операции, хотя право принятия ключевых решений ведомство обещает оставить за людьми.
politico.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤66🤔31🔥16⚡13👍10👨💻7🙈2🤝1
RAG 2026: от фичи к инженерной дисциплине
В 2023 RAG выручал слабые LLM. Сегодня модели уже с длинным контекстом, но исследования вроде Context Rot подтверждают деградацию качества. Так что RAG все еще в игре.
Про то, как работают с RAG в 2026 году, на примере нескольких кейсов рассказал Андрей Соколов из Яндекс R&D. Например, в Алисе команда экспериментировала с разграничением внутренних и внешних знаний и оставила RAG только на фактологических запросах. В результате минус 23% контекста и плюс 3% качества. И здесь чем больше приборов оценки качества — тем лучше. RAG напрямую связан со знаниями модели, и переход на более умные модели может приводить к неожиданным результатам.
Отдельный мини-блок был посвящен стабильности. Здесь смотрят, чтобы контекст не ухудшал ответ, больше документов не роняло качество, а порядок не влиял на результат. Качество независимо от перестановок должно быть примерно одинаковым.
В Нейросаппорте, в отличие от Алисы, нет огромной нагрузки, зато есть внутренняя документация и закрытая генерация (при этом промптинг не спасает от возможной утечки NDA). Разработчики придумали разделить контексты на «хорошие», «плохие», «безопасные» и «приватные», собрали SFT‑датасет с описанием поведения, дообучили отдельную Reward Model на нарушения NDA и получили +19% качества при контролируемой безопасности.
Как оказалось, RAG не только не умер к 2026 году, но и стал полноценной инженерной дисциплиной: со своими метриками, подходами к обучению и архитектурными паттернами. Впрочем, работа впереди ещё большая.
В 2023 RAG выручал слабые LLM. Сегодня модели уже с длинным контекстом, но исследования вроде Context Rot подтверждают деградацию качества. Так что RAG все еще в игре.
Про то, как работают с RAG в 2026 году, на примере нескольких кейсов рассказал Андрей Соколов из Яндекс R&D. Например, в Алисе команда экспериментировала с разграничением внутренних и внешних знаний и оставила RAG только на фактологических запросах. В результате минус 23% контекста и плюс 3% качества. И здесь чем больше приборов оценки качества — тем лучше. RAG напрямую связан со знаниями модели, и переход на более умные модели может приводить к неожиданным результатам.
Отдельный мини-блок был посвящен стабильности. Здесь смотрят, чтобы контекст не ухудшал ответ, больше документов не роняло качество, а порядок не влиял на результат. Качество независимо от перестановок должно быть примерно одинаковым.
В Нейросаппорте, в отличие от Алисы, нет огромной нагрузки, зато есть внутренняя документация и закрытая генерация (при этом промптинг не спасает от возможной утечки NDA). Разработчики придумали разделить контексты на «хорошие», «плохие», «безопасные» и «приватные», собрали SFT‑датасет с описанием поведения, дообучили отдельную Reward Model на нарушения NDA и получили +19% качества при контролируемой безопасности.
Как оказалось, RAG не только не умер к 2026 году, но и стал полноценной инженерной дисциплиной: со своими метриками, подходами к обучению и архитектурными паттернами. Впрочем, работа впереди ещё большая.
👍38👏12❤8🤓7👨💻4🔥3🗿1
This media is not supported in your browser
VIEW IN TELEGRAM
В Claude Code появилась команда
/ultraplan - она передает планирование из локального CLI в облачную сессию Claude Code on the web.Логика в том, что чтение кода и составление плана почти не зависят от локального окружения и спокойно уезжают в облако, тогда как реализация часто завязана на интерактивность и инструменты конкретной машины.
По расходу токенов и лимитам /ultraplan сопоставим с обычным plan mode (об этом отдельно уточнил инженер Anthropic Thariq в сети X).
Запустить можно 3 способами:
/ultraplan с промптом;Пока Claude разбирает репозиторий в облаке, терминал остается свободным, а статус-индикатор показывает одно из 3-х состояний: черновик пишется, требуется уточнение или план готов.
Готовый драфт открывается в браузере в отдельном review-интерфейсе. Каждая итерация порождает новую версию плана, и таких циклов может быть сколько угодно.
После согласования разработчик решает, где исполнять:
Функция доступна в режиме research preview всем, у кого подключен Claude Code на вебе, и требует CLI версии 2.1.91 или новее, но не работает поверх Amazon Bedrock, Google Vertex AI и Microsoft Foundry.
Активный Remote Control при запуске
/ultraplan отключается - оба инструмента делят один и тот же интерфейс и одновременно жить там не могут.@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍26🤓8❤5🤷♀3👏3🔥2👨💻2😁1👌1🌭1