Это ежегодное событие для спецов в области машинного обучения и анализа данных. Можно посетить офлайн в Москве или в Санкт-Петербурге или подключиться онлайн.
В ML и Data Science подведут итоги 2025 года по ведущим направлениям, в том числе CodeGen, NLP, PyData, Open Source, MLOps & DE и другим. Московский ивент откроет исследователь из AI VK и подведет итоги по RecSys. Программа выстроена формате «стерео»: один канал посвящен аналитике и разбору инженерных подходов, второй — прикладным инсайтам, синтезу идей и индустриальным трендам.
Отдельный блок программы выделили для разбора лучших решений соревнования VK RecSys Challenge. 800 исследователей предложили почти 4 000 решений задачи холодного старта в рекомендациях.
В Москве и Питере в офлайне можно задать вопросы экспертам, среди которых:
и другие.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤44🔥12👍8🎅6🎄4🤬3🗿3🤔2🤣2
Google продолжает радовать открытыми сайд-релизами.
На этот раз они взяли свежую Gemma 3, накачали ее синтетикой от флагманской Gemini и отполировали через RL.
Поскольку база - Gemma 3, модель умеет переводить текст на картинках (OCR + Translation) из коробки, без дополнительных танцев с бубном
Google громко заявляет про поддержку 55 языков, на которых качество гарантировано. Но мелким шрифтом добавляют, что модель видела еще 500 языков.
Работают ли они? Скорее всего, на редких диалектах галлюцинации будут знатные.
В состав релиза вошли модели трех размерностей: 4B , 12B и 27B.
Справедливости ради - Google cравнивают новинку в основном с собой же. Пишут, что модель на 12 млрд. параметров уделывает базовую Gemma 3 на 27B.
Как она стоит против специализированных NLLB (если они еще живы в 2026) - вопрос открытый.
Веса уже на Hugging Face и Kaggle.
Хотя золотая середина в линейке на 12B вроде как компактная и легкая, но для топового качества на старшей версии все равно понадобится что-то на уровне H100.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤59😎38👍24🤔8🔥7👏6👨💻6
This media is not supported in your browser
VIEW IN TELEGRAM
После успешного пилота в Индии, OpenAI открывает тариф Go для всех стран, где доступен ChatGPT. Подписка стоит $8 в месяц и заполняет нишу между бесплатной версией и планом Plus.
Подписчики Go получают доступ к модели GPT-5.2 Instant, увеличенные по сравнению с free в 10 раз лимиты на сообщения, генерацию изображений, загрузку файлов и расширенные память и контекстное окно.
Вместе с новым тарифом, OpenAI анонсировала внедрение рекламных блоков, которые начнут тестироваться в бесплатной версии и в платном Go на территории США. Полное отсутствие рекламы теперь гарантируется только в подписках Plus и Pro.
openai.com
Компания снизила порог входа для Claude Cowork - ранее функция была доступна только в тарифе Max, но теперь она открыта для пользователей подписки Pro.
Anthropic предупреждает: Cowork расходует ресурсы значительно интенсивнее обычного чата, поэтому владельцы Pro-аккаунтов могут исчерпать лимиты быстрее, чем пользователи Max.
Параллельно с расширением доступа вышло обновление клиента: улучшена стабильность соединений и добавлено обязательное подтверждение перед удалением файлов агентом.
Claude в сети Х
В ходе масштабного эксперимента команда Cursor запустила сотни скоординированных ИИ-агентов, которые без участия людей с нуля написали веб-браузер объемом более 3 млн. строк кода. Весь процесс занял меньше 7 дней.
В реализации использовалась иерархическая структура: нейросети делились на планировщиков, исполнителей и валидаторов. Главным движком стала модель GPT-5.2 - она справилась с длительной автономной работой значительно лучше, чем Claude Opus 4.5. Модель от Anthropic на длинных дистанциях часто теряла качество.
Помимо браузера, ИИ-рой собрал эмулятор Windows 7 и клон Excel.
cursor.com
NASA анонсировала Foundational Artificial Intelligence for the Moon and Mars (FAIMM) - программу, которая внедрит ИИ в процессы исследования дальнего космоса. Инициатива направлена на использование LLM и алгоритмов ML для обработки массивов данных, полученных в ходе лунных и марсианских миссий.
При этом профильное сообщество отмечает странный парадокс в стратегии агентства. По данным NASA Watch, FAIMM полностью игнорирует астробиологию, ключевую научную цель полетов на Марс, фокусируясь вместо этого на общих задачах освоения территорий.
Фактически, агентство создает инструмент для анализа данных красной планеты, исключая из его задач главный вопрос, ради которого эти данные собираются.
nasawatch.com
Анализ 41,3 млн. научных статей, опубликованный в Nature, выявил парадоксальное влияние ИИ на академическую среду. С одной стороны, ИИ-инструменты работают как социальный лифт: ученые, использующие нейросети, публикуются в 3 раза чаще и получают почти в 5 раз больше цитирований, чем их коллеги. В среднем они становятся руководителями проектов на 1.5 года раньше.
Однако, этот успех дорого обходится самой науке. Данные говорят, что массовое внедрение ИИ привело к сокращению глобального разнообразия научных тем на 4,6%, а профессиональное взаимодействие между учеными упало на 22%.
Вместо того чтобы стимулировать открытие новых областей, алгоритмы чаще используются для шлифовки и автоматизации задач в уже изученных нишах, фактически консервируя научный поиск в границах известного.
nature.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤72🤔57👍23🔥15👏5🤨5😐3💯1🤗1🫡1
Все любят длинный контекст, но для GPU это больно - KV-кэш растет линейно и быстро сжирает VRAM. Например, для Llama-65B на 128k токенов кэш весит 335 ГБ. Существующие методы прунинга либо медленные, либо тупые и режут важное, либо требуют переобучения модели.
NVIDIA предложили метод KVzap, который решает, какие токены можно забыть, глядя только на текущие хидден-стэйты.
Поиск идеала (KVzip+).
Берется медленный, но точный метод KVzip: модели скармливают текст, заставляют его повторить, и смотрят, на какие прошлые токены она реально обращает внимание. Это золотой стандарт важности токена. Но в проде так делать нельзя, это двойная работа.
Аппроксимация (KVzap).
Тут и происходит вся суть: крошечная модель-суррогат смотрит на входящий хидден-стэйт токена и предсказывает, насколько этот токен будет важен в будущем, то есть пытается угадать скор KVzip.
Модели 2-х видов:
KVzap-Linear: простейшая линейная проекция (одна матрица). Она берет хиден-стэйт и тупо проецирует его в скалярный скор важности. Сложность: экстремально низкая (~0.02%).
KVzap-MLP: двухслойный перцептрон. Внутри есть скрытый слой размером 1/8 от размерности модели и нелинейная активация. Сложность: низкая, но выше линейной (~1.1%).
Токен залетает в слой трансформера, модель-суррогат быстро считает его скор важности. Если он ниже порога - токен в кэш не пишется или удаляется. Но при этом всегда оставляется скользящее окно из последних 128 токенов, чтобы не терять локальный контекст, иначе модель сыпется.
Проверяли на Qwen3-8B, Llama-3.1-8B и Qwen3-32B. Спойлер:
Удалось выкинуть до 75% KV-кэша, а это сжатие в 4 раза. На бенчмарках RULER (длинный контекст), LongBench и AIME25 падение метрик или нулевое, или меньше 1%. Оверхед от суррогатной модели мизерный - менее 1% FLOPs.
Это плохо, потому что стандартные ядра Paged Attention любят структуру. Чтобы реально получить ускорение, а не только экономию памяти, нужно писать кастомные CUDA-ядра, которые смогут эффективно жевать блоки переменной длины.
Метод умнее, чем Streaming LLM, и быстрее, чем полные методы разреженного внимания.
Ждем интеграции в vLLM или TRT-LLM, а пока, чтобы скрасить ожидание, NVIDIA собрала на HF интерактивный лидерборд популярных методик компрессии KV-кэша.
Код и веса моделей-суррогатов из тестов пейпера в открытом доступе, так что нет никаких ограничений, чтобы не покрутить KVzap на каком-нибудь тестовом сетапе.
@ai_machinelearning_big_data
#AI #ML #LLM #KVZAP #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
❤74👍60🔥20🤔8👏6🎉2🌚2🥰1
Обычные языковые модели читают текст как одну длинную ленту.
Что ближе к началу внимания - то “важнее”.
Что дальше - то модель видит хуже.
И тут появляется проблема: если важный факт спрятан где-то далеко среди шума, модель может его просто не использовать.
Она тратит внимание на всё подряд, вместо того чтобы сосредоточиться на главном.
Sakana AI предложили решение - RePo (Context Re-Positioning).
Идея очень понятная: модель получает модуль, который позволяет динамически “перепозиционировать” контекст.
Примерно как человек:
ты читаешь длинный документ, понимаешь, что важная часть была 20 страниц назад - и мысленно перечитываешь её, а лишнее игнорируешь.
Что делает RePo
- подтягивает важные куски информации ближе
- отодвигает шум и лишний текст
- помогает вниманию модели фокусироваться на нужном
В модели есть обучаемый модуль, который **переназначает позиции токенов по смыслу**, а не по порядку
✅ важно = то, что помогает уменьшать ошибку модели и правильно решать задачу
❌ второстепенно = то, что не помогает (шум), поэтому “отодвигается” по позициям
В результате модель с такой памятью начинает лучше работать там, где LLM обычно страдают:
- когда контекст длинный
- когда много шума
- когда важные детали раскиданы далеко друг от друга
- когда данные структурированные (таблички, списки, правила)
Авторы показывают, что RePo даёт заметный прирост устойчивости, при этом не ухудшая общее качество.
Средний результат по 8 noisy-бенчмаркам:
- Обычный RoPE: 21.07
- RePo: 28.31
Авторы отдельно фиксируют ключевую цифру:
на noisy-eval (4K контекст) RePo лучше RoPE на +11.04 пункта.
(везде RePo > RoPE)
- TriviaQA: 61.47 → 73.02 (+11.55)
- GovReport: 6.23 → 16.80 (+10.57)
- 2WikiMultihopQA: 23.32 → 30.86 (+7.54)
- MuSiQue: 7.24 → 13.45 (+6.21)
Это шаг к моделям, которые не просто “читают что дали”, а умеют сами организовать свою рабочую память.
@ai_machinelearning_big_data
#RePo #SakanaAI #LLM #AI #AIAgents #Context #LongContext #Attention
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤67🔥26👍10🐳1
Media is too big
VIEW IN TELEGRAM
В этом году масштабируем ML-пилот и не сойдем с ума 💯
80% времени зачастую уходят не на обучение ML-модели, а на объяснение коллегам, почему она принесет профит. А еще на переписывание пайплайна, документации, настройку CI/CD — и все это на этапе пилота. Самое коварное — в статистике, ведь только 10-20% ML-пилотов доходят до прода.
Пока вы были на новогодних каникулах, Selectel вместе с экспертами из «Контура» и «Точка Банка» разобрались, какие ML-проекты достойны релиза. Про экономику ML-проектов и реальные кейсы масштабирования смотрите в новом выпуске подкаста «Сегодня на ретро».
▶️ Что еще интересного есть в Selectel?
Если вы давно хотите развивать ML-проекты, но вам не хватает опыта, посмотрите и другие выпуски «Сегодня на ретро». В них Selectel делится реальными кейсами и бенчмарками успешных ML-моделей для разных бизнес-сегментов.
Selectel не первый год помогает компаниям разворачивать надежную IT-инфраструктуру для AI-решений. И если вы готовы масштабировать пилоты, присмотритесь к мощностям Selectel.
Реклама. АО "Селектел". erid:2W5zFJoBW4p
80% времени зачастую уходят не на обучение ML-модели, а на объяснение коллегам, почему она принесет профит. А еще на переписывание пайплайна, документации, настройку CI/CD — и все это на этапе пилота. Самое коварное — в статистике, ведь только 10-20% ML-пилотов доходят до прода.
Пока вы были на новогодних каникулах, Selectel вместе с экспертами из «Контура» и «Точка Банка» разобрались, какие ML-проекты достойны релиза. Про экономику ML-проектов и реальные кейсы масштабирования смотрите в новом выпуске подкаста «Сегодня на ретро».
▶️ Что еще интересного есть в Selectel?
Если вы давно хотите развивать ML-проекты, но вам не хватает опыта, посмотрите и другие выпуски «Сегодня на ретро». В них Selectel делится реальными кейсами и бенчмарками успешных ML-моделей для разных бизнес-сегментов.
Selectel не первый год помогает компаниям разворачивать надежную IT-инфраструктуру для AI-решений. И если вы готовы масштабировать пилоты, присмотритесь к мощностям Selectel.
Реклама. АО "Селектел". erid:2W5zFJoBW4p
👍11❤7😁7🔥3🥱3🙉3🤔1
Media is too big
VIEW IN TELEGRAM
Гендир Cursor, Майкл Труэлл, запостил в Х крутую тайм-лапс визуализацию процесса создания браузера роем агентов, о котором мы рассказывали на днях.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
❤57🔥46👍19🤩8🤔3👨💻3❤🔥2🤗2💯1
PythonRobotics - открытая коллекция кода на Python и учебник по алгоритмам робототехники, которую собрал Ацуши Сакаи.
К каждой теме есть визуальные анимации, математические объяснения и рабочий код.
Библиотека не перегружена, ее легко читать и понимать, она содержит практические алгоритмы. которые реально используются в индустрии.
Это отличный образовательный ресурс с 2 212 коммитами, вкладом 138 разработчиков и активной поддержкой.
Если вы изучаете робототехнику, создаете автономные системы или преподаете алгоритмы — этот ресурс для вас.
У проекта лицензия MIT, так что можно свободно использовать его в личных или коммерческих проектах.
А еще, это отличный пример, как выглядит хороший опен-сорс: образовательный, практичный, хорошо документированный и развиваемый сообществом.
@ai_machinelearning_big_data
#AI #ML #Robotics #Github
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥37👍35❤22👏4🤩3🤔1👌1😎1