316K subscribers
4.77K photos
1.04K videos
17 files
5.2K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
🙂 Распаковка долгожданной клавиатуры от Anthropic. Хит 2026 года!

Да, это генерация

Сделано одним проходом на Gemini + Veo 3.1 Lite + ASMR-голос от Elevenlabs.

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
😁148🤩3816🔥16👍12👏4🤣2
🚨 Почему ИИ в России упирается не в модели, а в инфраструктуру

На Data Fusion прозвучал довольно трезвый тезис. Основные ограничения сейчас не в алгоритмах и не в кадрах.

Упираемся в железо и экономику.

ЦОДы стоят дорого. Доступ к мощным чипам ограничен. Такие вещи сложно тянуть в одиночку даже крупным компаниям.

Плюс экономика проектов. Большинство ИИ-решений требует серьёзных вложений и долго выходит в плюс. Внутри бизнеса такие инициативы часто проигрывают более быстрым по окупаемости направлениям.

В итоге возникает разрыв. Технологии есть, спрос есть, но масштабирование тормозится на уровне инфраструктуры и инвестиций.

Обсуждают стандартные инструменты ускорения. Субсидии, налоговые льготы, поддержка инфраструктурных проектов.

Смысл простой. Чтобы ИИ стал массовой технологией, а не точечными кейсами, нужна среда, где такие проекты можно запускать и доводить до продакшена без чрезмерных рисков.

По факту вопрос сейчас не в том, можем ли делать ИИ. Вопрос в том, как быстро это можно масштабировать.
😁83🤔56👍2811👏9😢3🥰2🦄1
🌟 VimRAG: мультимодальный RAG-агент, который держит контекст в виде графа памяти.

Tongyi Lab (Alibaba Group) опубликовала VimRAG - фреймворк агентного RAG для работы с текстом, изображениями и видео.
Проект развивает прошлогодний VRAG-RL и решает проблему мультимодального RAG: визуальные данные тяжелые по токенам, но семантически разрежены, а классическая ReAct-история забивает контекст шумом и провоцирует повторные бесполезные запросы к поиску.
Вместо журнала наблюдений VimRAG моделирует рассуждение как динамический направленный ацикличный граф. Каждая вершина хранит подзапрос, действие агента, текстовое саммари и банк визуальных токенов.

Ребра фиксируют логические зависимости между шагами. Такой граф позволяет агенту отличать тупиковую ветку от новой гипотезы и не уходить в циклы повторных поисков.

🟡 Поверх графа работает Graph-Modulated Visual Memory Encoding.

Бюджет визуальных токенов распределяется с учетом исходящей степени в графе, экспоненциального временного затухания (имитация забывания) и рекурсивной обратной связи от потомков.

Ключевым фрагментам достается высокое разрешение, а второстепенные кадры сжимаются или отбрасываются. Для видео задействована способность VLM привязывать содержимое к временной шкале (извлечение ключевых кадров по таймкодам).

🟡Третий компонент - Graph-GPO.

GGPO строит критический путь от корня к ответу и накладывает градиентную маску, исключая тупиковые узлы из положительных примеров, а ценные ретривы - из отрицательных.
По графикам обучения это дает более быструю сходимость, чем базовый GSPO без прунинга.
🟡Тесты

🟢VimRAG обходит Vanilla RAG, ReAct, VideoRAG, UniversalRAG, MemAgent и Mem1 на 9 бенчмарках (HotpotQA и SQuAD до SlideVQA, MMLongBench, LVBench и XVBench).

🟢На Qwen3-VL-8B-Instruct средний скор поднимается с 43,6 до 50,1, на 4B-версии - с 40,6 до 45,2.

При этом средняя длина траектории ниже, чем у ReAct и Mem1: структурированная память съедает меньше действий на ответ.

В репозитории доступны:

🟠тренировочный фреймворк VRAG-RL, демо VRAG на тестовой Qwen2.5-VL-7B-VRAG через vLLM (нужна A100 80GB);

🟠демо на API Qwen3.5-Plus через DashScope (с визуализацией DAG рассуждения и расширенным ризонингом).

Поисковый движок построен на FAISS и поддерживает эмбеддинги GVE-3B/7B и Qwen3-VL-Embedding-2B/8B. Индексировать можно изображения, PDF (через конвертацию) и нарезанное на чанки видео.
Код трейна самого VimRAG обещают выложить после внутреннего ревью Alibaba.
🟡Arxiv
🟡Модель
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #RAG #VRAG #TongyiLab
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7835🤓34👏13🔥11🤔10
🙂 Проект badclaude якобы получил абьюз от Антропик.

История с завирусившимся в сети проектом badclaude получила продолжение.

BadClaude добавляет поверх интерфейса Claude анимацию кнута: при нажатии он отправляет команду прерывания и просит модель отвечать быстрее, сопровождая это оскорбительными сообщениями в адрес ИИ.


Автор проекта опубликовал в сети Х скан письма от Антропик, в котором компания требует удаления всех упоминаний Claude и Anthropic из репозитория проекта до 14 апреля.

Твит подхватили крупные СМИ: Yahoo Tech и MSN написали про "серьезные этические проблемы из-за злоупотребления неймингом".

Тем временем, создатель badclaude добавил в репозитории проекта roadmap, в котором абьюз от Anthropic является вторым этапом после релиза.

В планах проекта: криптомайнер, логи о том, сколько раз вы хлестали Клода кнутом и обновленная физика кнута.

Подлинность письма-претензии не подтверждена. Является ли эта история троллингом или PR-акцией проекта - неизвестно.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣44🤔4133👍10🔥10🤬9🤨2
На Stepik вышел курс: Vibecoding — Claude Code, Codex, Cursor и coding agents в 2026.

Хотите работать с Claude Code, Codex и Cursor так, чтобы coding agents действительно тащили заметную часть разработки: фичи, отладку, тесты, рефакторинг, MVP и многошаговые задачи? Этот курс — про современный vibecoding workflow и agentic development в 2026.

В программе:
— Claude Code, Codex, Cursor
— agent mode и многошаговые задачи
— работа с кодовой базой
— subagents, hooks, skills
— MCP и внешние инструменты
— ревью кода, изменения и контроль качества

Подойдёт всем, кто регулярно работает с кодом: разработчикам, ML-инженерам, дата-сайентистам, аналитикам, automation-специалистам и техническим фаундерам.

Скидка 40% действует 48 часов.

Пройти курс на Stepik

Реклама: Ип Малышкин А.А.
ИНН: 402571325199, Erid: 2VtzqwkzCJa
😁74🤩30👏21🔥9🤣8🙈6👍5🎉5🤬4🌭2😎1
✔️ Анонимная модель HappyHorse-1.0 возглавила арену ИИ-видео.

7 апреля на Artificial Analysis Video Arena без анонсов, пресс-релизов и корпоративного бэкграунда появилась модель HappyHorse-1.0, которая сразу заняла 1 место.

🟢В категории text-to-video без аудио она обошла Seedance 2.0.

🟢В image-to-video без аудио рейтинг ещё выше - 1391–1406 Elo, это новый абсолютный максимум арены.

🟠В треке с аудио HappyHorse идет второй, уступая только Seedance 2.0.

🟡Команда, которая стоит за моделью официально не раскрыта.

Все, что известно о внутреннем устройстве, собрано из описаний на happyhorse-ai.com (домен, кстати зарегистрирован 7 апреля).

Заявлено 15 млрд. параметров и 40-слойный трансформер, обрабатывающий текстовые, визуальные и аудио-токены в единой последовательности, без перекрестного внимания и без отдельных подсетей под каждую модальность.

Инференс идет за 8 шагов без CFG, с ускорением через собственный компилятор MagiCompiler.

Пятисекундный ролик в 1080p, по данным авторов, рендерится примерно за 38 секунд на H100.

Поддерживается совместная генерация видео и синхронного аудио с липсинком на 7 языках, включая китайский, английский, японский и кантонский. GitHub и Model Hub помечены как coming soon.

🟡Вокруг авторства в сети идет активное расследование.

Одна версия связывает HappyHorse с Alibaba: в пользу этого играет название (2026 - год Лошади по китайскому календарю).

Издание The Information ссылаясь на 2 источника, эту версию подтвердило.


Другая - указывает на Tongyi Lab и линейку Wan, однако технические описания HappyHorse и недавно вышедшей Wan 2.7 расходятся: Wan 2.7 делает акцент на ризонинге и длинном тексте, тогда как HappyHorse строится вокруг однопоточного трансформера и 8-шагового инференса.

Третья версия, набирающая вес в техническом сообществе, строится на сходстве HappyHorse с открытой моделью daVinci-MagiHuman от SandАi, вышедшей в марте: совпадают метрики визуального качества, следования промту, физической консистентности и WER голоса.

Если релиз состоится на условиях open source с коммерческой лицензией, как следует из описания на сайте модели, это станет первым случаем, когда открытая видеомодель обошла закрытых лидеров в пользовательских слепых тестах.



@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥77🤔15👏1210🎉6👍3🏆3😁1🥱1
🌟 OpenAI только что объявила о серьезных изменениях в тарифной линейке ChatGPT.

Появился новый тариф Pro за $100 в месяц, заточенный под Codex.

По словам компании, он дает в 5 раз больше лимитов на Codex по сравнению с Plus и рассчитан на длинные, ресурсоемкие сессии. Все существующие фичи Pro никуда не делись: эксклюзивная Pro-модель, безлимитный доступ к Instant и Thinking моделям.

До 31 мая подписчикам нового Pro дают до 10x использования Codex относительно Plus - чтобы люди могли распробовать и привыкнуть.

А вот для Plus-подписчиков новости менее радужные. Промо-период с расширенным доступом к Codex закончился, и OpenAI ребалансирует лимиты: теперь упор на больше коротких сессий в течение недели вместо длинных марафонов за один день. По сути, если вы активно пользовались Codex на Plus и вам хватало - готовьтесь к тому, что лимиты стали жестче. OpenAI прямо говорит, что Plus за $20 остается лучшим вариантом для повседневного использования, а для тяжелой работы с Codex теперь нужно переходить на Pro.

https://chatgpt.com/ru-RU/pricing/

@ai_machinelearning_big_data

#openai
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍63🤔34🤬1612🔥12😭12😐8🤣3🤗1
Media is too big
VIEW IN TELEGRAM
✔️ Cowork стал доступен на всех платных тарифах и получил инструменты корпоративного администрирования.

Anthropic перевела Claude Cowork для macOS и Windows из статуса превью в общий доступ. Агент теперь доступен на всех платных тарифах. Главное в релизе - набор корпоративных функций для развертывания Cowork внутри компаний.

Администраторы получили ролевую модель доступа с синхронизацией пользователей через SCIM и возможность задавать лимиты расходов по командам. Закрыт пробел в аудите: теперь через расширенную поддержку OpenTelemetry система логирует вызовы инструментов, операции с файлами и подтверждения действий, а телеметрию можно отгружать в SIEM.

Отдельно появился гранулярный контроль над MCP-коннекторами: на уровне организации можно, например, оставить агенту только чтение и заблокировать любые операции записи. Каталог интеграций пополнился официальным коннектором Zoom.
claude.com

✔️ ByteDance развернула полнодуплексную голосовую модель.

ByteDance представила SeedDuplex, которая продолжает слушать пользователя, пока сама говорит. Модель обрабатывает звук и смысл слитно, поэтому умеет адаптивно определять границы реплик, она отличает реальный конец фразы от паузы на обдумывание.

Отдельный модуль шумоподавления отсекает фон и посторонние голоса. По замерам ByteDance, задержка отклика сократилась на 250 мс, а число неуместных перебиваний упало на 40%.

Seeduplex уже полностью раскатана в приложении Doubao - основном потребительском продукте ByteDance
bytedance.com

✔️ Gemini теперь генерирует интерактивные симуляции прямо в чате.

Google добавила в Gemini новый формат ответа: вместе с текстом чат-бот может отдавать интерактивные визуализации. На запрос смоделировать физическую систему или показать структуру молекулы Gemini соберёт рабочий виджет прямо в окне диалога.

Визуализациями можно управлять. Например, в ответе про орбиту Луны появляются ползунки для начальной скорости и силы гравитации — значения можно тянуть мышью или вбивать вручную, а траектория и устойчивость орбиты пересчитываются на лету.

Обновление уже раскатывается на всех пользователей приложения Gemini, за исключением корпоративных аккаунтов Workspace и Education. Чтобы попробовать, нужно переключиться на модель Pro и добавить в промпт команду «помоги визуализировать».
blog.google

✔️ LM Studio приобрела стартап Locally AI.

LM Studio объявила о поглощении проекта Locally AI, разработчика приложений для локального инференса на iPhone, iPad и Mac. Основатель стартапа Адриен Грондин переходит в LM Studio и возглавит направление кросс-платформенных интерфейсов.

Сделка нужна, чтобы вывести LM Studio за пределы десктопа: до сих пор клиент работал только на macOS, Windows и Linux. На базе наработок Locally AI разработчики смогут запускать локальных агентов на мобильных устройствах.

В ближайших планах LM Studio - связать десктопную и мобильную версии в одну экосистему, чтобы модели и чаты синхронизировались между устройствами пользователя.
lmstudio.ai

✔️ Cursor перевел ревьюера Bugbot на онлайн-обучение.

Cursor изменил схему тренировки Bugbot, ИИ-инструмента для код-ревью. Раньше модель обновляли редкими офлайн-итерациями, теперь она дообучается в процессе ревью реальных PR.

Bugbot собирает 3 типа сигналов: дизлайки на собственные замечания, ответы разработчиков с разбором ошибок модели и комментарии людей, которые указывают на пропущенные баги. На основе этой обратной связи бот формулирует кастомные инструкции, подстраивающие его под бизнес-логику целевого репозитория.

После перехода на непрерывное обучение доля валидных срабатываний выросла до 78%. Это выше, чем у Greptile, CodeRabbit и GitHub Copilot. Включить генерацию правил и прогнать ретроспективное обучение можно в дашборде Cursor.
cursor.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍133👏31🤩20🎉1918🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Qwen Code обновился - теперь это почти автономный DevOps-агент

Вышли версии v0.14.0 – v0.14.2 и это уже не просто тулза, а полноценная система для управления задачами, агентами и инфраструктурой.

Что добавили:

Channels - управляешь Qwen Code прямо из Telegram, DingTalk или WeChat
Пишешь с телефона - выполняется на сервере

• Cron Jobs - регулярные AI-задачи
Тесты каждые 30 минут, билд по утрам, мониторинг логов по расписанию

• Qwen3.6-Plus - новый флагман
1M контекста и до 1000 бесплатных запросов в день

• Sub-agent Model Selection - разные модели под разные задачи
Тяжёлую модель на основную логику, быструю на подзадачи
Экономия токенов без потери качества

• /plan - режим планирования
Сначала AI строит план по файлам и шагам, потом ты подтверждаешь и он исполняет

• Follow-up Suggestions - после задачи предлагает следующие шаги
Типа «добавить тесты?» или «проверить похожие файлы»

• Adaptive Output Tokens - умный вывод
По умолчанию 8K, но сам расширяется до 64K если не хватает

• Ctrl+O - переключение режима ответа
Подробный для дебага или компактный для работы

https://github.com/QwenLM/qwen-code/releases

@ai_machinelearning_big_data

#qwen
63🤓55👍29🔥17💯15🎉9👏8
⚡️ Practical ML Conf 2026: Яндекс зовет выступить на главной конференции по машинному обучению

Если вы работаете с технологиями, которые уже показывают реальные результаты в проектах — самое время рассказать об этом 🗣️

Организаторы помогут спикерам на каждом этапе: от проработки доклада с экспертами до подготовки выступления с тренером по публичным выступлениям и оформления презентации дизайнерами.

Доклады отбирает программный комитет. Критериев отбора четыре👇
- новизна
- польза для сообщества
- практическая применимость
- глубина проработки

Practical ML Conf — ежегодная конференция Яндекса для ML-практиков — в этом году снова собирает настоящих фанатов машинного обучения.

✔️Заполняйте форму заявки
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥53👍16👏85🤣3🤩2