Появился новый тариф Pro за $100 в месяц, заточенный под Codex.
По словам компании, он дает в 5 раз больше лимитов на Codex по сравнению с Plus и рассчитан на длинные, ресурсоемкие сессии. Все существующие фичи Pro никуда не делись: эксклюзивная Pro-модель, безлимитный доступ к Instant и Thinking моделям.
До 31 мая подписчикам нового Pro дают до 10x использования Codex относительно Plus - чтобы люди могли распробовать и привыкнуть.
А вот для Plus-подписчиков новости менее радужные. Промо-период с расширенным доступом к Codex закончился, и OpenAI ребалансирует лимиты: теперь упор на больше коротких сессий в течение недели вместо длинных марафонов за один день. По сути, если вы активно пользовались Codex на Plus и вам хватало - готовьтесь к тому, что лимиты стали жестче. OpenAI прямо говорит, что Plus за $20 остается лучшим вариантом для повседневного использования, а для тяжелой работы с Codex теперь нужно переходить на Pro.
https://chatgpt.com/ru-RU/pricing/
@ai_machinelearning_big_data
#openai
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍63🤔34🤬16❤14🔥12😭12😐8🤣3🤗1
Media is too big
VIEW IN TELEGRAM
Anthropic перевела Claude Cowork для macOS и Windows из статуса превью в общий доступ. Агент теперь доступен на всех платных тарифах. Главное в релизе - набор корпоративных функций для развертывания Cowork внутри компаний.
Администраторы получили ролевую модель доступа с синхронизацией пользователей через SCIM и возможность задавать лимиты расходов по командам. Закрыт пробел в аудите: теперь через расширенную поддержку OpenTelemetry система логирует вызовы инструментов, операции с файлами и подтверждения действий, а телеметрию можно отгружать в SIEM.
Отдельно появился гранулярный контроль над MCP-коннекторами: на уровне организации можно, например, оставить агенту только чтение и заблокировать любые операции записи. Каталог интеграций пополнился официальным коннектором Zoom.
claude.com
ByteDance представила SeedDuplex, которая продолжает слушать пользователя, пока сама говорит. Модель обрабатывает звук и смысл слитно, поэтому умеет адаптивно определять границы реплик, она отличает реальный конец фразы от паузы на обдумывание.
Отдельный модуль шумоподавления отсекает фон и посторонние голоса. По замерам ByteDance, задержка отклика сократилась на 250 мс, а число неуместных перебиваний упало на 40%.
Seeduplex уже полностью раскатана в приложении Doubao - основном потребительском продукте ByteDance
bytedance.com
Google добавила в Gemini новый формат ответа: вместе с текстом чат-бот может отдавать интерактивные визуализации. На запрос смоделировать физическую систему или показать структуру молекулы Gemini соберёт рабочий виджет прямо в окне диалога.
Визуализациями можно управлять. Например, в ответе про орбиту Луны появляются ползунки для начальной скорости и силы гравитации — значения можно тянуть мышью или вбивать вручную, а траектория и устойчивость орбиты пересчитываются на лету.
Обновление уже раскатывается на всех пользователей приложения Gemini, за исключением корпоративных аккаунтов Workspace и Education. Чтобы попробовать, нужно переключиться на модель Pro и добавить в промпт команду «помоги визуализировать».
blog.google
LM Studio объявила о поглощении проекта Locally AI, разработчика приложений для локального инференса на iPhone, iPad и Mac. Основатель стартапа Адриен Грондин переходит в LM Studio и возглавит направление кросс-платформенных интерфейсов.
Сделка нужна, чтобы вывести LM Studio за пределы десктопа: до сих пор клиент работал только на macOS, Windows и Linux. На базе наработок Locally AI разработчики смогут запускать локальных агентов на мобильных устройствах.
В ближайших планах LM Studio - связать десктопную и мобильную версии в одну экосистему, чтобы модели и чаты синхронизировались между устройствами пользователя.
lmstudio.ai
Cursor изменил схему тренировки Bugbot, ИИ-инструмента для код-ревью. Раньше модель обновляли редкими офлайн-итерациями, теперь она дообучается в процессе ревью реальных PR.
Bugbot собирает 3 типа сигналов: дизлайки на собственные замечания, ответы разработчиков с разбором ошибок модели и комментарии людей, которые указывают на пропущенные баги. На основе этой обратной связи бот формулирует кастомные инструкции, подстраивающие его под бизнес-логику целевого репозитория.
После перехода на непрерывное обучение доля валидных срабатываний выросла до 78%. Это выше, чем у Greptile, CodeRabbit и GitHub Copilot. Включить генерацию правил и прогнать ретроспективное обучение можно в дашборде Cursor.
cursor.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍141👏31🤩20🎉19❤18🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Qwen Code обновился - теперь это почти автономный DevOps-агент
Вышли версии v0.14.0 – v0.14.2 и это уже не просто тулза, а полноценная система для управления задачами, агентами и инфраструктурой.
Что добавили:
• Channels - управляешь Qwen Code прямо из Telegram, DingTalk или WeChat
Пишешь с телефона - выполняется на сервере
• Cron Jobs - регулярные AI-задачи
Тесты каждые 30 минут, билд по утрам, мониторинг логов по расписанию
• Qwen3.6-Plus - новый флагман
1M контекста и до 1000 бесплатных запросов в день
• Sub-agent Model Selection - разные модели под разные задачи
Тяжёлую модель на основную логику, быструю на подзадачи
Экономия токенов без потери качества
• /plan - режим планирования
Сначала AI строит план по файлам и шагам, потом ты подтверждаешь и он исполняет
• Follow-up Suggestions - после задачи предлагает следующие шаги
Типа «добавить тесты?» или «проверить похожие файлы»
• Adaptive Output Tokens - умный вывод
По умолчанию 8K, но сам расширяется до 64K если не хватает
• Ctrl+O - переключение режима ответа
Подробный для дебага или компактный для работы
https://github.com/QwenLM/qwen-code/releases
@ai_machinelearning_big_data
#qwen
Вышли версии v0.14.0 – v0.14.2 и это уже не просто тулза, а полноценная система для управления задачами, агентами и инфраструктурой.
Что добавили:
• Channels - управляешь Qwen Code прямо из Telegram, DingTalk или WeChat
Пишешь с телефона - выполняется на сервере
• Cron Jobs - регулярные AI-задачи
Тесты каждые 30 минут, билд по утрам, мониторинг логов по расписанию
• Qwen3.6-Plus - новый флагман
1M контекста и до 1000 бесплатных запросов в день
• Sub-agent Model Selection - разные модели под разные задачи
Тяжёлую модель на основную логику, быструю на подзадачи
Экономия токенов без потери качества
• /plan - режим планирования
Сначала AI строит план по файлам и шагам, потом ты подтверждаешь и он исполняет
• Follow-up Suggestions - после задачи предлагает следующие шаги
Типа «добавить тесты?» или «проверить похожие файлы»
• Adaptive Output Tokens - умный вывод
По умолчанию 8K, но сам расширяется до 64K если не хватает
• Ctrl+O - переключение режима ответа
Подробный для дебага или компактный для работы
https://github.com/QwenLM/qwen-code/releases
@ai_machinelearning_big_data
#qwen
❤68🤓56👍32🔥17💯15🎉9👏8
Если вы работаете с технологиями, которые уже показывают реальные результаты в проектах — самое время рассказать об этом 🗣️
Организаторы помогут спикерам на каждом этапе: от проработки доклада с экспертами до подготовки выступления с тренером по публичным выступлениям и оформления презентации дизайнерами.
Доклады отбирает программный комитет. Критериев отбора четыре
- новизна
- польза для сообщества
- практическая применимость
- глубина проработки
Practical ML Conf — ежегодная конференция Яндекса для ML-практиков — в этом году снова собирает настоящих фанатов машинного обучения.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥53👍16👏8❤5🤣3🤩2
На Claude Platform новый серверный тул - Аdvisor. Он реализует механику, в которой Sonnet или Haiku идут как исполнитель и ведут задачу от начала до конца, а Opus подключается как советник, чтобы в результате получить качество, близкое к Opus, по цене, близкой к Sonnet.
Модель-исполнитель сама решает, когда позвать Opus, он подключается как обычный вызов инструмента.
Opus получает выжимку контекста, возвращает план, исправление или сигнал остановки, после чего исполнитель продолжает работу. Советник не вызывает другие инструменты и не пишет в ответ пользователю - только дает указания исполнителю.
Все происходит внутри одного запроса, без дополнительных раунд-трипов и ручной оркестрации.
Токены советника тарифицируются по его ставкам и репортятся в usage отдельно, так что расход по уровням можно отслеживать.
На SWE-bench Multilingual, связка Sonnet + Opus-advisor дает +2,7% к качеству относительно Sonnet в соло и при этом снижает стоимость на 11,9%.
На BrowseComp Haiku + Opus-advisor выдает 41,2% против 19,7% у чисто Haiku, а общая стоимость остаётся на 85% ниже, чем если запускать только Sonnet.
Advisor tool доступен в бете по API. Документация - тут.
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡60👏36🤣27🤓18🤔10👍7❤6👌6🔥4
Media is too big
VIEW IN TELEGRAM
20-летний мужчина метнул самодельное зажигательное устройство в дом Сэма Альтмана в Сан-Франциско, спровоцировав пожар. Скрывшись с места преступления, злоумышленник направился к штаб-квартире OpenAI, расположенной в 5 километрах от дома.
Спустя час полиция задержала его возле главного офиса компании - там молодой человек угрожал сжечь здание дотла.
В результате инцидентов никто не пострадал и полиция пока не уточняет, находился ли руководитель OpenAI дома в момент нападения.
ft.com
Министр финансов США и председатель ФРС провели закрытую встречу с руководителями Citigroup, Morgan Stanley, Bank of America и Goldman Sachs. Темой срочного совещания стали риски кибербезопасности, спровоцированные релизом модели Mythos от Anthropic.
Опасения властей связаны с техническими возможностями модели. Mythos способен находить и самостоятельно эксплуатировать уязвимости нулевого дня во всех основных операционных системах и веб-браузерах. Для системно значимых банков, от которых зависит глобальная экономика, это означает переход киберугроз на принципиально иной уровень автоматизации.
Цель экстренного совещания - убедиться, что финансовый сектор осознает масштабы проблемы и готов перестроить защиту внутренних сетей под новые реалии.
bloomberglaw.com
В новой версии улучшили качество сведения и следование инструкциям. Теперь через промпт можно точно задавать BPM, тональность, порядок вступления партий и выстраивать сложную эмоциональную дугу трека.
Проведена глубокая оптимизация средних и низких частот. Для работы с готовым материалом появилась функция Cover. Она извлекает мелодический каркас из загруженного аудио и позволяет полностью изменить жанр или аранжировку, сохранив исходный мотив и ритмику.
Кроме этого, представлены три новых Music Skills. Они позволяют интегрировать генерацию музыки в сторонние сервисы, собирать динамические плейлисты на основе предпочтений пользователя и наделять виртуальных ассистентов вокалом для импровизаций. Модель доступна в стадии беты с 14-дневным бесплатным использованием.
minimax.io
По данным инсайдеров, новая флагманская модель DeepSeek V4 дебютирует во второй половине апреля. Ожидается, что архитектура будет насчитывать триллионы параметров, а размер контекстного окна расширится до миллионов токенов.
Намеки на скорый релиз уже появились в веб-интерфейсе платформы, где разработчики добавили быстрый и экспертный режимы для обработки сложных комплексных запросов. DeepSeek пока воздерживается от официальных комментариев.
finance.sina.com.cn
Разведывательное управление США подготовило первый отчет, сгенерированный ИИ. По словам заместителя директора ведомства, в ближайшие годы ИИ-ассистенты будут встроены во все аналитические платформы ЦРУ. Нейросети возьмут на себя подготовку черновиков, верификацию разрозненных данных, машинный перевод и выявление скрытых трендов.
За последний год управление уже протестировало 300 подобных проектов. Активнее применять генеративные модели начнет и Центр киберразведки, курирующий скрытые хакерские операции, хотя право принятия ключевых решений ведомство обещает оставить за людьми.
politico.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤68🤔51⚡22🔥18👍11👨💻7🙈4🐳1🤝1
RAG 2026: от фичи к инженерной дисциплине
В 2023 RAG выручал слабые LLM. Сегодня модели уже с длинным контекстом, но исследования вроде Context Rot подтверждают деградацию качества. Так что RAG все еще в игре.
Про то, как работают с RAG в 2026 году, на примере нескольких кейсов рассказал Андрей Соколов из Яндекс R&D. Например, в Алисе команда экспериментировала с разграничением внутренних и внешних знаний и оставила RAG только на фактологических запросах. В результате минус 23% контекста и плюс 3% качества. И здесь чем больше приборов оценки качества — тем лучше. RAG напрямую связан со знаниями модели, и переход на более умные модели может приводить к неожиданным результатам.
Отдельный мини-блок был посвящен стабильности. Здесь смотрят, чтобы контекст не ухудшал ответ, больше документов не роняло качество, а порядок не влиял на результат. Качество независимо от перестановок должно быть примерно одинаковым.
В Нейросаппорте, в отличие от Алисы, нет огромной нагрузки, зато есть внутренняя документация и закрытая генерация (при этом промптинг не спасает от возможной утечки NDA). Разработчики придумали разделить контексты на «хорошие», «плохие», «безопасные» и «приватные», собрали SFT‑датасет с описанием поведения, дообучили отдельную Reward Model на нарушения NDA и получили +19% качества при контролируемой безопасности.
Как оказалось, RAG не только не умер к 2026 году, но и стал полноценной инженерной дисциплиной: со своими метриками, подходами к обучению и архитектурными паттернами. Впрочем, работа впереди ещё большая.
В 2023 RAG выручал слабые LLM. Сегодня модели уже с длинным контекстом, но исследования вроде Context Rot подтверждают деградацию качества. Так что RAG все еще в игре.
Про то, как работают с RAG в 2026 году, на примере нескольких кейсов рассказал Андрей Соколов из Яндекс R&D. Например, в Алисе команда экспериментировала с разграничением внутренних и внешних знаний и оставила RAG только на фактологических запросах. В результате минус 23% контекста и плюс 3% качества. И здесь чем больше приборов оценки качества — тем лучше. RAG напрямую связан со знаниями модели, и переход на более умные модели может приводить к неожиданным результатам.
Отдельный мини-блок был посвящен стабильности. Здесь смотрят, чтобы контекст не ухудшал ответ, больше документов не роняло качество, а порядок не влиял на результат. Качество независимо от перестановок должно быть примерно одинаковым.
В Нейросаппорте, в отличие от Алисы, нет огромной нагрузки, зато есть внутренняя документация и закрытая генерация (при этом промптинг не спасает от возможной утечки NDA). Разработчики придумали разделить контексты на «хорошие», «плохие», «безопасные» и «приватные», собрали SFT‑датасет с описанием поведения, дообучили отдельную Reward Model на нарушения NDA и получили +19% качества при контролируемой безопасности.
Как оказалось, RAG не только не умер к 2026 году, но и стал полноценной инженерной дисциплиной: со своими метриками, подходами к обучению и архитектурными паттернами. Впрочем, работа впереди ещё большая.
👍74👏22❤11🤓9👨💻5🔥4🗿3😁2
This media is not supported in your browser
VIEW IN TELEGRAM
В Claude Code появилась команда
/ultraplan - она передает планирование из локального CLI в облачную сессию Claude Code on the web.Логика в том, что чтение кода и составление плана почти не зависят от локального окружения и спокойно уезжают в облако, тогда как реализация часто завязана на интерактивность и инструменты конкретной машины.
По расходу токенов и лимитам /ultraplan сопоставим с обычным plan mode (об этом отдельно уточнил инженер Anthropic Thariq в сети X).
Запустить можно 3 способами:
/ultraplan с промптом;Пока Claude разбирает репозиторий в облаке, терминал остается свободным, а статус-индикатор показывает одно из 3-х состояний: черновик пишется, требуется уточнение или план готов.
Готовый драфт открывается в браузере в отдельном review-интерфейсе. Каждая итерация порождает новую версию плана, и таких циклов может быть сколько угодно.
После согласования разработчик решает, где исполнять:
Функция доступна в режиме research preview всем, у кого подключен Claude Code на вебе, и требует CLI версии 2.1.91 или новее, но не работает поверх Amazon Bedrock, Google Vertex AI и Microsoft Foundry.
Активный Remote Control при запуске
/ultraplan отключается - оба инструмента делят один и тот же интерфейс и одновременно жить там не могут.@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍103🤓20❤15👏9👨💻5🤷♀4🔥3💯2😁1👌1🌭1
🚨 Claude «деградировал» и это видно по логам.
Senior AI Director из AMD разобрала сессии Claude за январь-март и картина получилась неприятная.
Модель стала думать меньше. Медианная длина reasoning упала примерно с 2200 до 600 символов. Это сразу бьёт по качеству решений.
Параллельно выросло количество API-запросов - почти в 80 раз с февраля на март. Меньше анализа, больше попыток, больше ретраев и сжигания токенов.
Поведение тоже поменялось. Модель чаще «сдаётся» или начинает спрашивать, продолжать ли дальше. За 17 дней таких кейсов было 173, до 8 марта - ноль.
Ещё одна неприятность падение reads-per-edit (reads-per-edit = сколько файлов / участков кода модель посмотрела перед правкой). Было 6.6, стало 2.0. То есть Claude теперь хуже изучает код перед изменениями.
Плюс выросло количество противоречий. Модель чаще переобувается по ходу ответа.
Пользователи замечают, что Клод начинает игнорировать такие вещи, как CLAUDE.md. Просто не хватает «бюджета мышления», чтобы учитывать контекст.
Что интресно, наблюдается зависимость от времени суток. Худшие результаты в 5–7 вечера по PST, ночью качество заметно выше. Похоже, это напрямую связано с загрузкой GPU.
Claude всё ещё мощный, но его поведение стало менее стабильным и сильно зависит от нагрузки
Замечали ли вы, что Claude стал тупее в последнее время ?🤯
Директор по AI в AMD проанализировала 6 852 сессии Claude Code и показала, что модель сильно ухудшили.
234 760 вызовов инструментов, 17 871 блоков размышлений, 3 месяца логов.
После этого Anthropic ответили и фактически подтвердили её выводы.
Пожалуй, самый чистый и показательный аудит AI за 2026 год 👇
https://github.com/anthropics/claude-code/issues/42796#issuecomment-4194007103
@ai_machinelearning_big_data
#news #ai #ml #claude
Senior AI Director из AMD разобрала сессии Claude за январь-март и картина получилась неприятная.
Модель стала думать меньше. Медианная длина reasoning упала примерно с 2200 до 600 символов. Это сразу бьёт по качеству решений.
Параллельно выросло количество API-запросов - почти в 80 раз с февраля на март. Меньше анализа, больше попыток, больше ретраев и сжигания токенов.
Поведение тоже поменялось. Модель чаще «сдаётся» или начинает спрашивать, продолжать ли дальше. За 17 дней таких кейсов было 173, до 8 марта - ноль.
Ещё одна неприятность падение reads-per-edit (reads-per-edit = сколько файлов / участков кода модель посмотрела перед правкой). Было 6.6, стало 2.0. То есть Claude теперь хуже изучает код перед изменениями.
Плюс выросло количество противоречий. Модель чаще переобувается по ходу ответа.
Пользователи замечают, что Клод начинает игнорировать такие вещи, как CLAUDE.md. Просто не хватает «бюджета мышления», чтобы учитывать контекст.
Что интресно, наблюдается зависимость от времени суток. Худшие результаты в 5–7 вечера по PST, ночью качество заметно выше. Похоже, это напрямую связано с загрузкой GPU.
Claude всё ещё мощный, но его поведение стало менее стабильным и сильно зависит от нагрузки
Замечали ли вы, что Claude стал тупее в последнее время ?🤯
Директор по AI в AMD проанализировала 6 852 сессии Claude Code и показала, что модель сильно ухудшили.
234 760 вызовов инструментов, 17 871 блоков размышлений, 3 месяца логов.
После этого Anthropic ответили и фактически подтвердили её выводы.
Пожалуй, самый чистый и показательный аудит AI за 2026 год 👇
https://github.com/anthropics/claude-code/issues/42796#issuecomment-4194007103
@ai_machinelearning_big_data
#news #ai #ml #claude
👍96❤52😭38😁13💯10🔥8🗿7🤔3