353K subscribers
4.53K photos
906 videos
17 files
4.97K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
✔️ ChatGPT Go за $8 в месяц теперь доступен глобально.

После успешного пилота в Индии, OpenAI открывает тариф Go для всех стран, где доступен ChatGPT. Подписка стоит $8 в месяц и заполняет нишу между бесплатной версией и планом Plus.

Подписчики Go получают доступ к модели GPT-5.2 Instant, увеличенные по сравнению с free в 10 раз лимиты на сообщения, генерацию изображений, загрузку файлов и расширенные память и контекстное окно.

Вместе с новым тарифом, OpenAI анонсировала внедрение рекламных блоков, которые начнут тестироваться в бесплатной версии и в платном Go на территории США. Полное отсутствие рекламы теперь гарантируется только в подписках Plus и Pro.
openai.com

✔️ Anthropic открывает доступ к Cowork для Pro-подписчиков.

Компания снизила порог входа для Claude Cowork - ранее функция была доступна только в тарифе Max, но теперь она открыта для пользователей подписки Pro.

Anthropic предупреждает: Cowork расходует ресурсы значительно интенсивнее обычного чата, поэтому владельцы Pro-аккаунтов могут исчерпать лимиты быстрее, чем пользователи Max.

Параллельно с расширением доступа вышло обновление клиента: улучшена стабильность соединений и добавлено обязательное подтверждение перед удалением файлов агентом.
Claude в сети Х

✔️ Рой ИИ-агентов на базе GPT-5.2 написал рабочий браузер за неделю.

В ходе масштабного эксперимента команда Cursor запустила сотни скоординированных ИИ-агентов, которые без участия людей с нуля написали веб-браузер объемом более 3 млн. строк кода. Весь процесс занял меньше 7 дней.

В реализации использовалась иерархическая структура: нейросети делились на планировщиков, исполнителей и валидаторов. Главным движком стала модель GPT-5.2 - она справилась с длительной автономной работой значительно лучше, чем Claude Opus 4.5. Модель от Anthropic на длинных дистанциях часто теряла качество.

Помимо браузера, ИИ-рой собрал эмулятор Windows 7 и клон Excel.
cursor.com

✔️ NASA запускает ИИ-инициативу для Луны и Марса.

NASA анонсировала Foundational Artificial Intelligence for the Moon and Mars (FAIMM) - программу, которая внедрит ИИ в процессы исследования дальнего космоса. Инициатива направлена на использование LLM и алгоритмов ML для обработки массивов данных, полученных в ходе лунных и марсианских миссий.

При этом профильное сообщество отмечает странный парадокс в стратегии агентства. По данным NASA Watch, FAIMM полностью игнорирует астробиологию, ключевую научную цель полетов на Марс, фокусируясь вместо этого на общих задачах освоения территорий.

Фактически, агентство создает инструмент для анализа данных красной планеты, исключая из его задач главный вопрос, ради которого эти данные собираются.
nasawatch.com

✔️ ИИ ускоряет карьеру ученых, но сужает горизонты мировой науки.

Анализ 41,3 млн. научных статей, опубликованный в Nature, выявил парадоксальное влияние ИИ на академическую среду. С одной стороны, ИИ-инструменты работают как социальный лифт: ученые, использующие нейросети, публикуются в 3 раза чаще и получают почти в 5 раз больше цитирований, чем их коллеги. В среднем они становятся руководителями проектов на 1.5 года раньше.

Однако, этот успех дорого обходится самой науке. Данные говорят, что массовое внедрение ИИ привело к сокращению глобального разнообразия научных тем на 4,6%, а профессиональное взаимодействие между учеными упало на 22%.

Вместо того чтобы стимулировать открытие новых областей, алгоритмы чаще используются для шлифовки и автоматизации задач в уже изученных нишах, фактически консервируя научный поиск в границах известного.
nature.com


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
173🤔57👍23🔥15👏5🤨5😐3💯1🤗1🫡1
🌟 NVIDIA KVzap: жмем KV-кэш в 4 раза.

Все любят длинный контекст, но для GPU это больно - KV-кэш растет линейно и быстро сжирает VRAM. Например, для Llama-65B на 128k токенов кэш весит 335 ГБ. Существующие методы прунинга либо медленные, либо тупые и режут важное, либо требуют переобучения модели.

NVIDIA предложили метод KVzap, который решает, какие токены можно забыть, глядя только на текущие хидден-стэйты.

🟡Логика метода разбита на 2 этапа:

Поиск идеала (KVzip+).
Берется медленный, но точный метод KVzip: модели скармливают текст, заставляют его повторить, и смотрят, на какие прошлые токены она реально обращает внимание. Это золотой стандарт важности токена. Но в проде так делать нельзя, это двойная работа.

Аппроксимация (KVzap).
Тут и происходит вся суть: крошечная модель-суррогат смотрит на входящий хидден-стэйт токена и предсказывает, насколько этот токен будет важен в будущем, то есть пытается угадать скор KVzip.

Модели 2-х видов:

KVzap-Linear: простейшая линейная проекция (одна матрица). Она берет хиден-стэйт и тупо проецирует его в скалярный скор важности. Сложность: экстремально низкая (~0.02%).

KVzap-MLP: двухслойный перцептрон. Внутри есть скрытый слой размером 1/8 от размерности модели и нелинейная активация. Сложность: низкая, но выше линейной (~1.1%).


🟡Все вместе это работает так

Токен залетает в слой трансформера, модель-суррогат быстро считает его скор важности. Если он ниже порога - токен в кэш не пишется или удаляется. Но при этом всегда оставляется скользящее окно из последних 128 токенов, чтобы не терять локальный контекст, иначе модель сыпется.

🟡Результаты тестов.

Проверяли на Qwen3-8B, Llama-3.1-8B и Qwen3-32B. Спойлер: работает везде.

Удалось выкинуть до 75% KV-кэша, а это сжатие в 4 раза. На бенчмарках RULER (длинный контекст), LongBench и AIME25 падение метрик или нулевое, или меньше 1%. Оверхед от суррогатной модели мизерный - менее 1% FLOPs.

🟡Звучит, конечно, как гем, но давайте про минусы:

🟠Нужно дообучить этот маленький MLP для каждого слоя целевой модели. Датасет нужен, но процесс быстрый.

🟠Удаление токенов создает рваный кэш. У разных голов будет разное количество сохраненных токенов.

Это плохо, потому что стандартные ядра Paged Attention любят структуру. Чтобы реально получить ускорение, а не только экономию памяти, нужно писать кастомные CUDA-ядра, которые смогут эффективно жевать блоки переменной длины.


🟠Порог отсечения фиксированный. Если промахнуться с ним, то модель начнет галлюцинировать или забудет начало.

🟡По итогу, KVzap - крутой шаг к тому, чтобы гонять длинные контексты на GPU попроще.

Метод умнее, чем Streaming LLM, и быстрее, чем полные методы разреженного внимания.

Ждем интеграции в vLLM или TRT-LLM, а пока, чтобы скрасить ожидание, NVIDIA собрала на HF интерактивный лидерборд популярных методик компрессии KV-кэша.

Код и веса моделей-суррогатов из тестов пейпера в открытом доступе, так что нет никаких ограничений, чтобы не покрутить KVzap на каком-нибудь тестовом сетапе.



@ai_machinelearning_big_data

#AI #ML #LLM #KVZAP #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
75👍60🔥20🤔8👏6🎉2🌚2🥰1
✔️ Sakana AI придумали, как LLM самим сортировать контекст по важности

Обычные языковые модели читают текст как одну длинную ленту.

Что ближе к началу внимания - то “важнее”.
Что дальше - то модель видит хуже.

И тут появляется проблема: если важный факт спрятан где-то далеко среди шума, модель может его просто не использовать.

Она тратит внимание на всё подряд, вместо того чтобы сосредоточиться на главном.

Sakana AI предложили решение - RePo (Context Re-Positioning).

Идея очень понятная: модель получает модуль, который позволяет динамически “перепозиционировать” контекст.

Примерно как человек:
ты читаешь длинный документ, понимаешь, что важная часть была 20 страниц назад - и мысленно перечитываешь её, а лишнее игнорируешь.

Что делает RePo
- подтягивает важные куски информации ближе
- отодвигает шум и лишний текст
- помогает вниманию модели фокусироваться на нужном

В модели есть обучаемый модуль, который **переназначает позиции токенов по смыслу**, а не по порядку

важно = то, что помогает уменьшать ошибку модели и правильно решать задачу
второстепенно = то, что не помогает (шум), поэтому “отодвигается” по позициям

В результате модель с такой памятью начинает лучше работать там, где LLM обычно страдают:
- когда контекст длинный
- когда много шума
- когда важные детали раскиданы далеко друг от друга
- когда данные структурированные (таблички, списки, правила)

Авторы показывают, что RePo даёт заметный прирост устойчивости, при этом не ухудшая общее качество.

▶️ Устойчивость к шуму (Noisy Context)
Средний результат по 8 noisy-бенчмаркам:

- Обычный RoPE: 21.07
- RePo: 28.31

🟡 Прирост: +7.24 пункта (сильно)

Авторы отдельно фиксируют ключевую цифру:
на noisy-eval (4K контекст) RePo лучше RoPE на +11.04 пункта.

🔥 Примеры прироста на конкретных задачах
(везде RePo > RoPE)

- TriviaQA: 61.47 → 73.02 (+11.55)
- GovReport: 6.23 → 16.80 (+10.57)
- 2WikiMultihopQA: 23.32 → 30.86 (+7.54)
- MuSiQue: 7.24 → 13.45 (+6.21)

Это шаг к моделям, которые не просто “читают что дали”, а умеют сами организовать свою рабочую память.

🟡Подробности: pub.sakana.ai/repo/
🟡Статья: arxiv.org/abs/2512.14391

@ai_machinelearning_big_data

#RePo #SakanaAI #LLM #AI #AIAgents #Context #LongContext #Attention
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
67🔥29👍10🐳1
Media is too big
VIEW IN TELEGRAM
В этом году масштабируем ML-пилот и не сойдем с ума 💯

80% времени зачастую уходят не на обучение ML-модели, а на объяснение коллегам, почему она принесет профит. А еще на переписывание пайплайна, документации, настройку CI/CD — и все это на этапе пилота. Самое коварное — в статистике, ведь только 10-20% ML-пилотов доходят до прода.

Пока вы были на новогодних каникулах, Selectel вместе с экспертами из «Контура» и «Точка Банка» разобрались, какие ML-проекты достойны релиза. Про экономику ML-проектов и реальные кейсы масштабирования смотрите в новом выпуске подкаста «Сегодня на ретро».

▶️ Что еще интересного есть в Selectel?
Если вы давно хотите развивать ML-проекты, но вам не хватает опыта, посмотрите и другие выпуски «Сегодня на ретро». В них Selectel делится реальными кейсами и бенчмарками успешных ML-моделей для разных бизнес-сегментов.

Selectel не первый год помогает компаниям разворачивать надежную IT-инфраструктуру для AI-решений. И если вы готовы масштабировать пилоты, присмотритесь к мощностям Selectel.

Реклама. АО "Селектел". erid:2W5zFJoBW4p
👍11😁87🔥4🥱3🙉3🤔1
Media is too big
VIEW IN TELEGRAM
🙂 Как Cursor вайбкодил браузер - наглядно.

Гендир Cursor, Майкл Труэлл, запостил в Х крутую тайм-лапс визуализацию процесса создания браузера роем агентов, о котором мы рассказывали на днях.

Сколько раз пересмотрели?

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
58🔥47👍21🤩8🤔3👨‍💻3❤‍🔥2🤗2💯1
📌 Библиотека алгоритмов робототехники на Python.

PythonRobotics - открытая коллекция кода на Python и учебник по алгоритмам робототехники, которую собрал Ацуши Сакаи.

🟡В проекте есть все:

🟢Локализация (EKF, фильтры частиц, гистограммные фильтры);
🟢SLAM (FastSLAM, ICP-сопоставление);
🟢Планирование пути (A, RRT, Дейкстра, D*, потенциальные поля, решетка состояний);
🟢Отслеживание траекторий (контроллер Стэнли, LQR, MPC);
🟢Навигация для манипуляторов;
🟢БПЛА;
🟢Проектирование движения для двуногих роботов.

К каждой теме есть визуальные анимации, математические объяснения и рабочий код.

Библиотека не перегружена, ее легко читать и понимать, она содержит практические алгоритмы. которые реально используются в индустрии.

Это отличный образовательный ресурс с 2 212 коммитами, вкладом 138 разработчиков и активной поддержкой.

Если вы изучаете робототехнику, создаете автономные системы или преподаете алгоритмы — этот ресурс для вас.

У проекта лицензия MIT, так что можно свободно использовать его в личных или коммерческих проектах.

А еще, это отличный пример, как выглядит хороший опен-сорс: образовательный, практичный, хорошо документированный и развиваемый сообществом.


@ai_machinelearning_big_data

#AI #ML #Robotics #Github
Please open Telegram to view this post
VIEW IN TELEGRAM
👍42🔥4027👏4🤩3🤔1👌1🥱1😎1
Media is too big
VIEW IN TELEGRAM
✔️ Годовая выручка OpenAI пробила отметку в $20 млрд. на фоне 10х роста компьюта.

Финдир OpenAI Сара Фрайер раскрыла свежую статистику: объем продаж за год превысил $20 млрд. Для сравнения, в 2023 году этот показатель составлял всего $2 млрд.

За тот же период вычислительные мощности OpenAI выросли с 0,2 ГВт до почти 1,9 ГВт. По словам Фрайер, выручка фактически ограничена только доступностью железа: если бы мощностей было больше, монетизация шла бы еще быстрее.

Чтобы поддерживать темп, OpenAI отказалась от стратегии единственного провайдера вычислений и теперь работает с диверсифицированной экосистемой партнеров. 2026 год в компании уже объявили годом "практического внедрения", делая ставку на то, что инвестиции в дата-центры начнут окупаться за счет реального применения ИИ в бизнесе и науке.
openai.com

✔️ Sequoia Capital впервые вложится в Anthropic.

Легендарный венчурный фонд готовится к своей первой инвестиции в разработчика Claude. Решение принято после недавней смены руководства фонда: новые управляющие партнеры отказались от консервативной тактики избегания концентрации капитала в нескольких сверхдорогих компаниях.

Sequoia уже владеет долями в конкурентах Anthropic: OpenAI и xAI. Традиционно венчурные фирмы не финансируют соперничающие стартапы, однако масштабы ИИ-индустрии заставляют переписывать правила игры.

Инвестиция станет частью гигантского раунда финансирования с целью в $25 млрд. Оценка Anthropic при этом достигнет $350 млрд, удвоившись всего за 4 месяца. Сама компания уже начала юридическую подготовку к IPO.
ft.com

✔️ Южнокорейцы тратят на ИИ больше, чем на Netflix.

По данным аналитиков из Aicel Technologies, ежемесячный объем платежей за подписки на ИИ достиг $55–60 млн. Это больше, чем средняя месячная выручка Netflix в стране, которая в 2024 году составляла около $50–55 млн.

Безоговорочным лидером остается ChatGPT с долей 71,5%, за ним с большим отрывом следуют Gemini (11%) и Claude (10,7%). Средний чек у физлиц составляет $24, в то время как бизнес тратит около $74 в месяц.

Эксперты отмечают, что генеративный ИИ стремительно превращается в базовую услугу. При текущей годовой выручке в $654 млн. рынок ИИ-подписок в Южной Корее уже в этом году может обогнать Coupang — крупнейший маркетплейс страны.
kedglobal.com

✔️ Raspberry Pi представила плату расширения AI HAT+2.

Новый модуль для Raspberry Pi 5 превращает одноплатник в станцию для работы с генеративным ИИ. Устройство подключается через PCIe и базируется на нейропроцессоре Hailo-10H, который выдает до 40 TOPS в вычислениях INT4.

На борту AI HAT+2 8 ГБ собственной памяти LPDDR4X в которую загружаются языковые и визуально-языковые модели, не отнимая ресурсы у основного процессора.

Новинка уже доступна по цене $130. Первые тесты подтверждают разгрузку CPU, однако бета-тестеры говорят, что программная экосистема для генеративных задач все еще находится в стадии активного развития.
raspberrypi.com

✔️ В Columbia Engineering обучили робота реалистичной мимике с помощью YouTube.

Команда Creative Machines Lab показала робота с гибким силиконовым лицом и 26 приводами, который самостоятельно освоил липсинк. Результаты работы, опубликованные в Science Robotics, демонстрируют новый подход к преодолению эффекта "зловещей долины" в робототехнике.

Вместо традиционных политик, инженеры применили метод наблюдательного обучения. Процесс проходил в 2 этапа: сначала робот кривлялся перед зеркалом, сопоставляя работу своих моторов с визуальным результатом, а затем анализировал тысячи видеороликов с людьми на YouTube, обучаясь связывать звуки речи с движениями губ.

Система показала способность адаптироваться к разным языкам без специальной перенастройки, хотя пока испытывает трудности со сложными звуками. Авторы уверены, что сочетание этой адаптивной мимики с разговорными моделями уровня ChatGPT или Gemini станет следующим шагом к созданию эмпатичных роботов-компаньонов.
columbia.edu


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍18🤩169🔥8👏2🤣2🎉1