315K subscribers
4.78K photos
1.04K videos
17 files
5.21K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Qwen Code обновился - теперь это почти автономный DevOps-агент

Вышли версии v0.14.0 – v0.14.2 и это уже не просто тулза, а полноценная система для управления задачами, агентами и инфраструктурой.

Что добавили:

Channels - управляешь Qwen Code прямо из Telegram, DingTalk или WeChat
Пишешь с телефона - выполняется на сервере

• Cron Jobs - регулярные AI-задачи
Тесты каждые 30 минут, билд по утрам, мониторинг логов по расписанию

• Qwen3.6-Plus - новый флагман
1M контекста и до 1000 бесплатных запросов в день

• Sub-agent Model Selection - разные модели под разные задачи
Тяжёлую модель на основную логику, быструю на подзадачи
Экономия токенов без потери качества

• /plan - режим планирования
Сначала AI строит план по файлам и шагам, потом ты подтверждаешь и он исполняет

• Follow-up Suggestions - после задачи предлагает следующие шаги
Типа «добавить тесты?» или «проверить похожие файлы»

• Adaptive Output Tokens - умный вывод
По умолчанию 8K, но сам расширяется до 64K если не хватает

• Ctrl+O - переключение режима ответа
Подробный для дебага или компактный для работы

https://github.com/QwenLM/qwen-code/releases

@ai_machinelearning_big_data

#qwen
70🤓56👍32🔥17💯15🎉9👏8
⚡️ Practical ML Conf 2026: Яндекс зовет выступить на главной конференции по машинному обучению

Если вы работаете с технологиями, которые уже показывают реальные результаты в проектах — самое время рассказать об этом 🗣️

Организаторы помогут спикерам на каждом этапе: от проработки доклада с экспертами до подготовки выступления с тренером по публичным выступлениям и оформления презентации дизайнерами.

Доклады отбирает программный комитет. Критериев отбора четыре👇
- новизна
- польза для сообщества
- практическая применимость
- глубина проработки

Practical ML Conf — ежегодная конференция Яндекса для ML-практиков — в этом году снова собирает настоящих фанатов машинного обучения.

✔️Заполняйте форму заявки
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥53👍16👏85🤣3🤩2
⚡️ Anthropic запустила функцию гибридного использования моделей Claude.

На Claude Platform новый серверный тул - Аdvisor. Он реализует механику, в которой Sonnet или Haiku идут как исполнитель и ведут задачу от начала до конца, а Opus подключается как советник, чтобы в результате получить качество, близкое к Opus, по цене, близкой к Sonnet.

Модель-исполнитель сама решает, когда позвать Opus, он подключается как обычный вызов инструмента.

Opus получает выжимку контекста, возвращает план, исправление или сигнал остановки, после чего исполнитель продолжает работу. Советник не вызывает другие инструменты и не пишет в ответ пользователю - только дает указания исполнителю.

Все происходит внутри одного запроса, без дополнительных раунд-трипов и ручной оркестрации.

Токены советника тарифицируются по его ставкам и репортятся в usage отдельно, так что расход по уровням можно отслеживать.

На SWE-bench Multilingual, связка Sonnet + Opus-advisor дает +2,7% к качеству относительно Sonnet в соло и при этом снижает стоимость на 11,9%.

На BrowseComp Haiku + Opus-advisor выдает 41,2% против 19,7% у чисто Haiku, а общая стоимость остаётся на 85% ниже, чем если запускать только Sonnet.


Advisor tool доступен в бете по API. Документация - тут.

Как же Антропик волшебно нарисовала график SWE-Bench 🙂


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
60👏36🤣27🤓18🤔10👍76👌6🔥4
Media is too big
VIEW IN TELEGRAM
⚡️ В дом главы OpenAI бросили коктейль Молотова, подозреваемый задержан.

20-летний мужчина метнул самодельное зажигательное устройство в дом Сэма Альтмана в Сан-Франциско, спровоцировав пожар. Скрывшись с места преступления, злоумышленник направился к штаб-квартире OpenAI, расположенной в 5 километрах от дома.

Спустя час полиция задержала его возле главного офиса компании - там молодой человек угрожал сжечь здание дотла.

В результате инцидентов никто не пострадал и полиция пока не уточняет, находился ли руководитель OpenAI дома в момент нападения.
ft.com

✔️ Минфин США и ФРС экстренно собрали глав крупнейших банков из-за модели Mythos.

Министр финансов США и председатель ФРС провели закрытую встречу с руководителями Citigroup, Morgan Stanley, Bank of America и Goldman Sachs. Темой срочного совещания стали риски кибербезопасности, спровоцированные релизом модели Mythos от Anthropic.

Опасения властей связаны с техническими возможностями модели. Mythos способен находить и самостоятельно эксплуатировать уязвимости нулевого дня во всех основных операционных системах и веб-браузерах. Для системно значимых банков, от которых зависит глобальная экономика, это означает переход киберугроз на принципиально иной уровень автоматизации.

Цель экстренного совещания - убедиться, что финансовый сектор осознает масштабы проблемы и готов перестроить защиту внутренних сетей под новые реалии.
bloomberglaw.com

✔️ MiniMax выпустил модель генерации музыки Music 2.6.

В новой версии улучшили качество сведения и следование инструкциям. Теперь через промпт можно точно задавать BPM, тональность, порядок вступления партий и выстраивать сложную эмоциональную дугу трека.

Проведена глубокая оптимизация средних и низких частот. Для работы с готовым материалом появилась функция Cover. Она извлекает мелодический каркас из загруженного аудио и позволяет полностью изменить жанр или аранжировку, сохранив исходный мотив и ритмику.

Кроме этого, представлены три новых Music Skills. Они позволяют интегрировать генерацию музыки в сторонние сервисы, собирать динамические плейлисты на основе предпочтений пользователя и наделять виртуальных ассистентов вокалом для импровизаций. Модель доступна в стадии беты с 14-дневным бесплатным использованием.
minimax.io

✔️ Релиз DeepSeek V4 ожидается в конце апреля.

По данным инсайдеров, новая флагманская модель DeepSeek V4 дебютирует во второй половине апреля. Ожидается, что архитектура будет насчитывать триллионы параметров, а размер контекстного окна расширится до миллионов токенов.

Намеки на скорый релиз уже появились в веб-интерфейсе платформы, где разработчики добавили быстрый и экспертный режимы для обработки сложных комплексных запросов. DeepSeek пока воздерживается от официальных комментариев.
finance.sina.com.cn

✔️ ЦРУ внедряет ИИ во внутренней аналитике.

Разведывательное управление США подготовило первый отчет, сгенерированный ИИ. По словам заместителя директора ведомства, в ближайшие годы ИИ-ассистенты будут встроены во все аналитические платформы ЦРУ. Нейросети возьмут на себя подготовку черновиков, верификацию разрозненных данных, машинный перевод и выявление скрытых трендов.

За последний год управление уже протестировало 300 подобных проектов. Активнее применять генеративные модели начнет и Центр киберразведки, курирующий скрытые хакерские операции, хотя право принятия ключевых решений ведомство обещает оставить за людьми.
politico.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
73🤔5222🔥18👍11👨‍💻7🙈4🐳1🤝1
RAG 2026: от фичи к инженерной дисциплине

В 2023 RAG выручал слабые LLM. Сегодня модели уже с длинным контекстом, но исследования вроде Context Rot подтверждают деградацию качества. Так что RAG все еще в игре.

Про то, как работают с RAG в 2026 году, на примере нескольких кейсов рассказал Андрей Соколов из Яндекс R&D. Например, в Алисе команда экспериментировала с разграничением внутренних и внешних знаний и оставила RAG только на фактологических запросах. В результате минус 23% контекста и плюс 3% качества. И здесь чем больше приборов оценки качества — тем лучше. RAG напрямую связан со знаниями модели, и переход на более умные модели может приводить к неожиданным результатам.

Отдельный мини-блок был посвящен стабильности. Здесь смотрят, чтобы контекст не ухудшал ответ, больше документов не роняло качество, а порядок не влиял на результат. Качество независимо от перестановок должно быть примерно одинаковым.

В Нейросаппорте, в отличие от Алисы, нет огромной нагрузки, зато есть внутренняя документация и закрытая генерация (при этом промптинг не спасает от возможной утечки NDA). Разработчики придумали разделить контексты на «хорошие», «плохие», «безопасные» и «приватные», собрали SFT‑датасет с описанием поведения, дообучили отдельную Reward Model на нарушения NDA и получили +19% качества при контролируемой безопасности.

Как оказалось, RAG не только не умер к 2026 году, но и стал полноценной инженерной дисциплиной: со своими метриками, подходами к обучению и архитектурными паттернами. Впрочем, работа впереди ещё большая.
👍76👏2213🤓9👨‍💻5🔥4🗿3😁2
This media is not supported in your browser
VIEW IN TELEGRAM
✔️ Anthropic вынесла планирование Claude Code в облако.

В Claude Code появилась команда /ultraplan - она передает планирование из локального CLI в облачную сессию Claude Code on the web.

Логика в том, что чтение кода и составление плана почти не зависят от локального окружения и спокойно уезжают в облако, тогда как реализация часто завязана на интерактивность и инструменты конкретной машины.

По расходу токенов и лимитам /ultraplan сопоставим с обычным plan mode (об этом отдельно уточнил инженер Anthropic Thariq в сети X).


Запустить можно 3 способами:

🟢командой /ultraplan с промптом;

🟢ключевым словом ultraplan внутри запроса;

🟢из approval-диалога локального plan mode, выбрав «Refine with Ultraplan».

Пока Claude разбирает репозиторий в облаке, терминал остается свободным, а статус-индикатор показывает одно из 3-х состояний: черновик пишется, требуется уточнение или план готов.

Готовый драфт открывается в браузере в отдельном review-интерфейсе. Каждая итерация порождает новую версию плана, и таких циклов может быть сколько угодно.

После согласования разработчик решает, где исполнять:

🟠«Approve and start coding» оставляет работу в той же облачной сессии и доводит ее до diff и PR на вебе.

🟠«Approve and teleport back to terminal»: план возвращается в локальный CLI, где его можно влить в текущую беседу, открыть новую сессию с чистым контекстом или просто сохранить в файл на потом.

Функция доступна в режиме research preview всем, у кого подключен Claude Code на вебе, и требует CLI версии 2.1.91 или новее, но не работает поверх Amazon Bedrock, Google Vertex AI и Microsoft Foundry.

Активный Remote Control при запуске /ultraplan отключается - оба инструмента делят один и тот же интерфейс и одновременно жить там не могут.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍107🤓2016👏9👨‍💻5🤷‍♀4🔥3💯2😁1👌1🌭1
🚨 Claude «деградировал» и это видно по логам.

Senior AI Director из AMD разобрала сессии Claude за январь-март и картина получилась неприятная.

Модель стала думать меньше. Медианная длина reasoning упала примерно с 2200 до 600 символов. Это сразу бьёт по качеству решений.

Параллельно выросло количество API-запросов - почти в 80 раз с февраля на март. Меньше анализа, больше попыток, больше ретраев и сжигания токенов.

Поведение тоже поменялось. Модель чаще «сдаётся» или начинает спрашивать, продолжать ли дальше. За 17 дней таких кейсов было 173, до 8 марта - ноль.

Ещё одна неприятность падение reads-per-edit (reads-per-edit = сколько файлов / участков кода модель посмотрела перед правкой). Было 6.6, стало 2.0. То есть Claude теперь хуже изучает код перед изменениями.

Плюс выросло количество противоречий. Модель чаще переобувается по ходу ответа.

Пользователи замечают, что Клод начинает игнорировать такие вещи, как CLAUDE.md. Просто не хватает «бюджета мышления», чтобы учитывать контекст.

Что интресно, наблюдается зависимость от времени суток. Худшие результаты в 5–7 вечера по PST, ночью качество заметно выше. Похоже, это напрямую связано с загрузкой GPU.

Claude всё ещё мощный, но его поведение стало менее стабильным и сильно зависит от нагрузки

Замечали ли вы, что Claude стал тупее в последнее время ?🤯


Директор по AI в AMD проанализировала 6 852 сессии Claude Code и показала, что модель сильно ухудшили.

234 760 вызовов инструментов, 17 871 блоков размышлений, 3 месяца логов.

После этого Anthropic ответили и фактически подтвердили её выводы.

Пожалуй, самый чистый и показательный аудит AI за 2026 год 👇

https://github.com/anthropics/claude-code/issues/42796#issuecomment-4194007103

@ai_machinelearning_big_data

#news #ai #ml #claude
👍12963😭49😁16💯11🗿9🔥8🤔5🤷‍♂2
✔️ OpenAI объяснила путаницу с лимитами тарифов Pro.

После запуска нового плана Pro за 100 долларов пользователи так и не получили внятного ответа, чем он отличается от уже существующего тарифа за 200 долларов.

Разъяснения дал сотрудник OpenAI Тибо Соттио, который признал, что компания сама запутала аудиторию формулировками на странице с ценами.

Тариф Pro за $100 включает десятикратный объем использования относительно Plus - с учетом действующего до 31 мая промо-множителя 2x.

План за $200 дает как двадцатикратный объём Plus на тех же условиях.

Как уточнил разработчик, у максимальной подписки этот лимит не менялся с февральского запуска бонуса 2x (просто раньше компания нигде не документировала конкретную цифру).

Источник путаницы - строка на странице тарифов «5x or 20x usage». Многие закономерно решили, что с учетом бонуса 2x речь идет о «10x и 40x».

Соттио объяснил, что OpenAI смешала два разных сообщения: факт того, что Pro за $100 стартовал сразу с множителем 2x (что и дает итоговые 10x до 31 мая), и информацию о том, что Pro за $200 сохраняет свой бонус 2x, который публично приравняли к 20x от Plus.


Тибо пообещал, что страницу с тарифами обновят, и извинился за неясные формулировки.

По итогу: до конца мая старший тариф дает ровно вдвое больше запросов, а не вчетверо, как можно было подумать согласно прайс-листу.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍80🤔5018🤨8🔥6😐6🙊5🎃1
⚡️ Дом Сэма Альтмана снова подвергся нападению.

В воскресенье утром резиденция генерального директора OpenAI Сэма Альтмана в Сан-Франциско подверглась второй атаке всего через два дня после инцидента с поджогом.

Полиция арестовала 25-летнюю Аманду Том и 23-летнего Мухаммада Тарика Хусейна по обвинению в неосторожном обращении с огнестрельным оружием.

В 1:40 ночи автомобиль с двумя людьми остановился перед домом Альтмана в районе Russian Hill, предварительно несколько раз проехав мимо. Офицеры задержали подозреваемых и изъяли при обыске 3 единицы огнестрельного оружия.

Первая атака произошла в пятницу: 20-летний Даниэль Алехандро Морено-Гама бросил коктейль Молотова в металлические ворота дома Альтмана.

Перед попыткой поджога он написал несколько эссе под названием "Эпитафия человечеству", выражая опасения, что развитие ИИ приведет к исчезновению человечества. Он также участвовал в деятельности группы PauseAI, выступающей за запрет разработки ИИ.

PauseAI, в свою очередь, осудила действия поджигателя:

Мы желаем безопасности и мира Сэму Альтману, его семье и всем пострадавшим. Организация PauseAI считает, что каждый заслуживает безопасности, включая Сэма Альтмана и его близких. Насилие в отношении кого бы то ни было противоречит всему, за что мы выступаем.


После первого инцидента Сэм Альтман написал пост в личном блоге и разместил фото семьи:

Страх и беспокойство по поводу ИИ оправданы. Мы наблюдаем самые масштабные изменения в обществе за долгое время, а возможно, и вообще когда-либо.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
😢49🤣32🤬16🤔1311👍5🔥4🙏2😨2😁1🤩1
⚡️ MiniMax выложила M2.7 в открытый доступ.

Через 3 недели после мартовского релиза MiniMax открыла веса флагманской самоэволюционирующей модели на 229 млрд параметров.

За несколько дней после публикации сообщество сделало 32 квантованные сборки и 6 файнтюнов.

Напомним, M2.7 - первая модель MiniMax, которая участвовала в собственной разработке: внутренняя версия более 100 раз автономно правила каркас, анализировала неудачные трассы, прогоняла эксперименты и решала, оставлять изменения или откатывать.

Итог: рост производительности на 30% и триумф на бенчах. Модель уступала по тестам только Opus 4.6 и GPT-5.4.


🟡Инженерные бенчи тоже интересные

🟢На SWE-Pro M2.7 выдает 56,22% (паритет с GPT-5.3-Codex, а не с Sonnet 3.5, как сообщалось ранее).

🟢На SWE Multilingual 76,5 и Multi SWE Bench 52,7. VIBE-Pro - 55,6% (почти вровень с Opus 4.6).

🟢Terminal Bench 2 - 57,0%, NL2Repo - 39,8%.

🟢В офисной работе M2.7 держит ELO 1495 на GDPval-AA (лучший результат среди open-source и выше GPT-5.3).

🟢На Toolathon - 46,3%, на MM Claw - 62,7% (рядом с Sonnet 4.6) при 97% соблюдения инструкций на 40+ сложных скиллах.

Заявлена нативная поддержка Agent Teams: конфигурация, где несколько агентов работают с устойчивой ролевой идентичностью и автономным принятием решений.

Для локального деплоя MiniMax советует SGLang, vLLM или Transformers. Модель также доступна через NVIDIA NIM.

Параллельно команда открыла исходники OpenRoom, интерактивного Web GUI с визуальной обратной связью и ролевым взаимодействием, где модель отвечает за персонажей.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
101🔥46🏆21🤩96👍5👏5💘1
✔️ MoonshotAI готовит модель Kimi K2.6 к релизу

Китайские тестеры раннего доступа Kimi Code получили сообщение, которое говорит о скором релизе модели Kimi K2.6.

Перевод скрина:

KIMI Code

Программа раннего доступа завершена
Спасибо за ваше участие и обратную связь

Привет, x

Спасибо, что приняли участие в тестировании программы раннего доступа Kimi Code! Каждый ваш отзыв помог нам сделать продукт лучше, и это очень важно для нас. Программа раннего доступа на этот период завершена, и мы надеемся увидеться с вами снова при запуске следующего этапа.

Сейчас мы занимаемся финальной настройкой и доработкой продукта на основе отзывов, полученных в ходе этого тестирования. Новая модель K2.6-code-preview, которую вы опробовали, скоро будет запущена для всех пользователей. Еще раз спасибо за вашу поддержку и доверие как одного из первых участников.

Команда Kimi Code
2026 Kimi



@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍74👏1412🎉10🔥6💯6🦄2❤‍🔥1🥰1