353K subscribers
4.53K photos
905 videos
17 files
4.97K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
В Москве и Санкт-Петербурге 24 января проходит Data Ёлка от VK и сообщества ODS

Это ежегодное событие для спецов в области машинного обучения и анализа данных. Можно посетить офлайн в Москве или в Санкт-Петербурге или подключиться онлайн.

В ML и Data Science подведут итоги 2025 года по ведущим направлениям, в том числе CodeGen, NLP, PyData, Open Source, MLOps & DE и другим. Московский ивент откроет исследователь из AI VK и подведет итоги по RecSys. Программа выстроена формате «стерео»: один канал посвящен аналитике и разбору инженерных подходов, второй — прикладным инсайтам, синтезу идей и индустриальным трендам.

Отдельный блок программы выделили для разбора лучших решений соревнования VK RecSys Challenge. 800 исследователей предложили почти 4 000 решений задачи холодного старта в рекомендациях.

В Москве и Питере в офлайне можно задать вопросы экспертам, среди которых:

Николай Никитин, Руководитель лаборатории, Институт ИИ, ИТМО
Владимир Байкалов, Ведущий исследователь AI VK
Антон Воронов, Technical Unit Lead, Авито
Пацакула Никита, Технический директор, Когнито
Евгений Никитин, Технический директор, Цельс
Иван Сосин, Исполнительный директор, Центр робототехники, Сбер

и другие.
Please open Telegram to view this post
VIEW IN TELEGRAM
44🔥12👍8🎅6🎄4🤬3🗿3🤔2🤣2
⚡️ Google выкатила TranslateGemma.

Google продолжает радовать открытыми сайд-релизами.

На этот раз они взяли свежую Gemma 3, накачали ее синтетикой от флагманской Gemini и отполировали через RL.

Поскольку база - Gemma 3, модель умеет переводить текст на картинках (OCR + Translation) из коробки, без дополнительных танцев с бубном

Google громко заявляет про поддержку 55 языков, на которых качество гарантировано. Но мелким шрифтом добавляют, что модель видела еще 500 языков.

Работают ли они? Скорее всего, на редких диалектах галлюцинации будут знатные.

В состав релиза вошли модели трех размерностей: 4B , 12B и 27B.

Справедливости ради - Google cравнивают новинку в основном с собой же. Пишут, что модель на 12 млрд. параметров уделывает базовую Gemma 3 на 27B.

Как она стоит против специализированных NLLB (если они еще живы в 2026) - вопрос открытый.


Веса уже на Hugging Face и Kaggle.

Хотя золотая середина в линейке на 12B вроде как компактная и легкая, но для топового качества на старшей версии все равно понадобится что-то на уровне H100.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
59😎38👍24🤔8🔥7👏6👨‍💻6
This media is not supported in your browser
VIEW IN TELEGRAM
✔️ ChatGPT Go за $8 в месяц теперь доступен глобально.

После успешного пилота в Индии, OpenAI открывает тариф Go для всех стран, где доступен ChatGPT. Подписка стоит $8 в месяц и заполняет нишу между бесплатной версией и планом Plus.

Подписчики Go получают доступ к модели GPT-5.2 Instant, увеличенные по сравнению с free в 10 раз лимиты на сообщения, генерацию изображений, загрузку файлов и расширенные память и контекстное окно.

Вместе с новым тарифом, OpenAI анонсировала внедрение рекламных блоков, которые начнут тестироваться в бесплатной версии и в платном Go на территории США. Полное отсутствие рекламы теперь гарантируется только в подписках Plus и Pro.
openai.com

✔️ Anthropic открывает доступ к Cowork для Pro-подписчиков.

Компания снизила порог входа для Claude Cowork - ранее функция была доступна только в тарифе Max, но теперь она открыта для пользователей подписки Pro.

Anthropic предупреждает: Cowork расходует ресурсы значительно интенсивнее обычного чата, поэтому владельцы Pro-аккаунтов могут исчерпать лимиты быстрее, чем пользователи Max.

Параллельно с расширением доступа вышло обновление клиента: улучшена стабильность соединений и добавлено обязательное подтверждение перед удалением файлов агентом.
Claude в сети Х

✔️ Рой ИИ-агентов на базе GPT-5.2 написал рабочий браузер за неделю.

В ходе масштабного эксперимента команда Cursor запустила сотни скоординированных ИИ-агентов, которые без участия людей с нуля написали веб-браузер объемом более 3 млн. строк кода. Весь процесс занял меньше 7 дней.

В реализации использовалась иерархическая структура: нейросети делились на планировщиков, исполнителей и валидаторов. Главным движком стала модель GPT-5.2 - она справилась с длительной автономной работой значительно лучше, чем Claude Opus 4.5. Модель от Anthropic на длинных дистанциях часто теряла качество.

Помимо браузера, ИИ-рой собрал эмулятор Windows 7 и клон Excel.
cursor.com

✔️ NASA запускает ИИ-инициативу для Луны и Марса.

NASA анонсировала Foundational Artificial Intelligence for the Moon and Mars (FAIMM) - программу, которая внедрит ИИ в процессы исследования дальнего космоса. Инициатива направлена на использование LLM и алгоритмов ML для обработки массивов данных, полученных в ходе лунных и марсианских миссий.

При этом профильное сообщество отмечает странный парадокс в стратегии агентства. По данным NASA Watch, FAIMM полностью игнорирует астробиологию, ключевую научную цель полетов на Марс, фокусируясь вместо этого на общих задачах освоения территорий.

Фактически, агентство создает инструмент для анализа данных красной планеты, исключая из его задач главный вопрос, ради которого эти данные собираются.
nasawatch.com

✔️ ИИ ускоряет карьеру ученых, но сужает горизонты мировой науки.

Анализ 41,3 млн. научных статей, опубликованный в Nature, выявил парадоксальное влияние ИИ на академическую среду. С одной стороны, ИИ-инструменты работают как социальный лифт: ученые, использующие нейросети, публикуются в 3 раза чаще и получают почти в 5 раз больше цитирований, чем их коллеги. В среднем они становятся руководителями проектов на 1.5 года раньше.

Однако, этот успех дорого обходится самой науке. Данные говорят, что массовое внедрение ИИ привело к сокращению глобального разнообразия научных тем на 4,6%, а профессиональное взаимодействие между учеными упало на 22%.

Вместо того чтобы стимулировать открытие новых областей, алгоритмы чаще используются для шлифовки и автоматизации задач в уже изученных нишах, фактически консервируя научный поиск в границах известного.
nature.com


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
172🤔57👍23🔥15👏5🤨5😐3💯1🤗1🫡1
🌟 NVIDIA KVzap: жмем KV-кэш в 4 раза.

Все любят длинный контекст, но для GPU это больно - KV-кэш растет линейно и быстро сжирает VRAM. Например, для Llama-65B на 128k токенов кэш весит 335 ГБ. Существующие методы прунинга либо медленные, либо тупые и режут важное, либо требуют переобучения модели.

NVIDIA предложили метод KVzap, который решает, какие токены можно забыть, глядя только на текущие хидден-стэйты.

🟡Логика метода разбита на 2 этапа:

Поиск идеала (KVzip+).
Берется медленный, но точный метод KVzip: модели скармливают текст, заставляют его повторить, и смотрят, на какие прошлые токены она реально обращает внимание. Это золотой стандарт важности токена. Но в проде так делать нельзя, это двойная работа.

Аппроксимация (KVzap).
Тут и происходит вся суть: крошечная модель-суррогат смотрит на входящий хидден-стэйт токена и предсказывает, насколько этот токен будет важен в будущем, то есть пытается угадать скор KVzip.

Модели 2-х видов:

KVzap-Linear: простейшая линейная проекция (одна матрица). Она берет хиден-стэйт и тупо проецирует его в скалярный скор важности. Сложность: экстремально низкая (~0.02%).

KVzap-MLP: двухслойный перцептрон. Внутри есть скрытый слой размером 1/8 от размерности модели и нелинейная активация. Сложность: низкая, но выше линейной (~1.1%).


🟡Все вместе это работает так

Токен залетает в слой трансформера, модель-суррогат быстро считает его скор важности. Если он ниже порога - токен в кэш не пишется или удаляется. Но при этом всегда оставляется скользящее окно из последних 128 токенов, чтобы не терять локальный контекст, иначе модель сыпется.

🟡Результаты тестов.

Проверяли на Qwen3-8B, Llama-3.1-8B и Qwen3-32B. Спойлер: работает везде.

Удалось выкинуть до 75% KV-кэша, а это сжатие в 4 раза. На бенчмарках RULER (длинный контекст), LongBench и AIME25 падение метрик или нулевое, или меньше 1%. Оверхед от суррогатной модели мизерный - менее 1% FLOPs.

🟡Звучит, конечно, как гем, но давайте про минусы:

🟠Нужно дообучить этот маленький MLP для каждого слоя целевой модели. Датасет нужен, но процесс быстрый.

🟠Удаление токенов создает рваный кэш. У разных голов будет разное количество сохраненных токенов.

Это плохо, потому что стандартные ядра Paged Attention любят структуру. Чтобы реально получить ускорение, а не только экономию памяти, нужно писать кастомные CUDA-ядра, которые смогут эффективно жевать блоки переменной длины.


🟠Порог отсечения фиксированный. Если промахнуться с ним, то модель начнет галлюцинировать или забудет начало.

🟡По итогу, KVzap - крутой шаг к тому, чтобы гонять длинные контексты на GPU попроще.

Метод умнее, чем Streaming LLM, и быстрее, чем полные методы разреженного внимания.

Ждем интеграции в vLLM или TRT-LLM, а пока, чтобы скрасить ожидание, NVIDIA собрала на HF интерактивный лидерборд популярных методик компрессии KV-кэша.

Код и веса моделей-суррогатов из тестов пейпера в открытом доступе, так что нет никаких ограничений, чтобы не покрутить KVzap на каком-нибудь тестовом сетапе.



@ai_machinelearning_big_data

#AI #ML #LLM #KVZAP #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
74👍60🔥20🤔8👏6🎉2🌚2🥰1
✔️ Sakana AI придумали, как LLM самим сортировать контекст по важности

Обычные языковые модели читают текст как одну длинную ленту.

Что ближе к началу внимания - то “важнее”.
Что дальше - то модель видит хуже.

И тут появляется проблема: если важный факт спрятан где-то далеко среди шума, модель может его просто не использовать.

Она тратит внимание на всё подряд, вместо того чтобы сосредоточиться на главном.

Sakana AI предложили решение - RePo (Context Re-Positioning).

Идея очень понятная: модель получает модуль, который позволяет динамически “перепозиционировать” контекст.

Примерно как человек:
ты читаешь длинный документ, понимаешь, что важная часть была 20 страниц назад - и мысленно перечитываешь её, а лишнее игнорируешь.

Что делает RePo
- подтягивает важные куски информации ближе
- отодвигает шум и лишний текст
- помогает вниманию модели фокусироваться на нужном

В модели есть обучаемый модуль, который **переназначает позиции токенов по смыслу**, а не по порядку

важно = то, что помогает уменьшать ошибку модели и правильно решать задачу
второстепенно = то, что не помогает (шум), поэтому “отодвигается” по позициям

В результате модель с такой памятью начинает лучше работать там, где LLM обычно страдают:
- когда контекст длинный
- когда много шума
- когда важные детали раскиданы далеко друг от друга
- когда данные структурированные (таблички, списки, правила)

Авторы показывают, что RePo даёт заметный прирост устойчивости, при этом не ухудшая общее качество.

▶️ Устойчивость к шуму (Noisy Context)
Средний результат по 8 noisy-бенчмаркам:

- Обычный RoPE: 21.07
- RePo: 28.31

🟡 Прирост: +7.24 пункта (сильно)

Авторы отдельно фиксируют ключевую цифру:
на noisy-eval (4K контекст) RePo лучше RoPE на +11.04 пункта.

🔥 Примеры прироста на конкретных задачах
(везде RePo > RoPE)

- TriviaQA: 61.47 → 73.02 (+11.55)
- GovReport: 6.23 → 16.80 (+10.57)
- 2WikiMultihopQA: 23.32 → 30.86 (+7.54)
- MuSiQue: 7.24 → 13.45 (+6.21)

Это шаг к моделям, которые не просто “читают что дали”, а умеют сами организовать свою рабочую память.

🟡Подробности: pub.sakana.ai/repo/
🟡Статья: arxiv.org/abs/2512.14391

@ai_machinelearning_big_data

#RePo #SakanaAI #LLM #AI #AIAgents #Context #LongContext #Attention
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
67🔥26👍10🐳1
Media is too big
VIEW IN TELEGRAM
В этом году масштабируем ML-пилот и не сойдем с ума 💯

80% времени зачастую уходят не на обучение ML-модели, а на объяснение коллегам, почему она принесет профит. А еще на переписывание пайплайна, документации, настройку CI/CD — и все это на этапе пилота. Самое коварное — в статистике, ведь только 10-20% ML-пилотов доходят до прода.

Пока вы были на новогодних каникулах, Selectel вместе с экспертами из «Контура» и «Точка Банка» разобрались, какие ML-проекты достойны релиза. Про экономику ML-проектов и реальные кейсы масштабирования смотрите в новом выпуске подкаста «Сегодня на ретро».

▶️ Что еще интересного есть в Selectel?
Если вы давно хотите развивать ML-проекты, но вам не хватает опыта, посмотрите и другие выпуски «Сегодня на ретро». В них Selectel делится реальными кейсами и бенчмарками успешных ML-моделей для разных бизнес-сегментов.

Selectel не первый год помогает компаниям разворачивать надежную IT-инфраструктуру для AI-решений. И если вы готовы масштабировать пилоты, присмотритесь к мощностям Selectel.

Реклама. АО "Селектел". erid:2W5zFJoBW4p
👍117😁7🔥3🥱3🙉3🤔1
Media is too big
VIEW IN TELEGRAM
🙂 Как Cursor вайбкодил браузер - наглядно.

Гендир Cursor, Майкл Труэлл, запостил в Х крутую тайм-лапс визуализацию процесса создания браузера роем агентов, о котором мы рассказывали на днях.

Сколько раз пересмотрели?

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
57🔥46👍19🤩8🤔3👨‍💻3❤‍🔥2🤗2💯1
📌 Библиотека алгоритмов робототехники на Python.

PythonRobotics - открытая коллекция кода на Python и учебник по алгоритмам робототехники, которую собрал Ацуши Сакаи.

🟡В проекте есть все:

🟢Локализация (EKF, фильтры частиц, гистограммные фильтры);
🟢SLAM (FastSLAM, ICP-сопоставление);
🟢Планирование пути (A, RRT, Дейкстра, D*, потенциальные поля, решетка состояний);
🟢Отслеживание траекторий (контроллер Стэнли, LQR, MPC);
🟢Навигация для манипуляторов;
🟢БПЛА;
🟢Проектирование движения для двуногих роботов.

К каждой теме есть визуальные анимации, математические объяснения и рабочий код.

Библиотека не перегружена, ее легко читать и понимать, она содержит практические алгоритмы. которые реально используются в индустрии.

Это отличный образовательный ресурс с 2 212 коммитами, вкладом 138 разработчиков и активной поддержкой.

Если вы изучаете робототехнику, создаете автономные системы или преподаете алгоритмы — этот ресурс для вас.

У проекта лицензия MIT, так что можно свободно использовать его в личных или коммерческих проектах.

А еще, это отличный пример, как выглядит хороший опен-сорс: образовательный, практичный, хорошо документированный и развиваемый сообществом.


@ai_machinelearning_big_data

#AI #ML #Robotics #Github
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥37👍3522👏4🤩3🤔1👌1😎1