Data Secrets
88.9K subscribers
6.74K photos
736 videos
20 files
2.97K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
⚡️ Мы с командой Data Secrets снова приехали на Data Fusion

Это одна из крупнейших ежегодных конференций по ИИ и анализу данных. В этот раз проект вышел на еще больший масштаб: собрались главы всего бигтеха, огромное количество специалистов и много иностранных гостей.

В программе 70+ сессий, среди тем: экономика данных, инфраструктура ИИ, агенты, RL, CV, NLP, Open Source, Embodied AI, рексис, кибербез, AgentOps. Если вы работаете в IT – это вам точно надо.

Делимся ссылкой на трансляцию докладов и расписание для тех, с кем в этот раз не встретимся очно.

Мы сегодня уже успели послушать дискуссию про ИИ агентов и Embodied AI с участием Радослава Нейчева, Тиграна Саркисова (директор по управлению данными в X5), Романа Стягюгина (руководитель ИИ в VK) и других экспертов.

Прозвучало несколько интересных мыслей о том, что останаливает нас на пути полного внедрения агентов и развития ИИ в индустрии:

Во-первых, это, конечно, стоимость. Агенты и LLM – это все еще очень дорого. У большинства стран просто нет необходимой инфраструктуры. А что касается прода, то, как сказал Радослав: "Иногда все еще лучше просто воткнуть CatBoost".

Во-вторых, неочевидно: образование. По словам Константина Романова, директора по ИИ в Билайне, 80% мировых экспертов все еще приходится только на Китай и США.

В-третьих, инженерия. Модели уже достаточно хороши, чтобы работать качественно, но настройка необходимого окружения и оркестрация агентов требует слишком много ресурсов – человеческих и финансовых.

Скоро, кстати, стартует сессия с двумя специалистами из Китая, они расскажут про опыт внедрения AI со своей стороны. Присоединяйтесь к конференции здесь: https://data-fusion.ru/
Please open Telegram to view this post
VIEW IN TELEGRAM
46🗿33👍25🤔10🤯2🕊1🤨1👾1
Data Secrets
OpenAI закончила претрейн своей следующей модели, а еще в стартапе появился отдел AGI Deployment The Information получили доступ к нескольким внутренним запискам стартапа и выяснили, что там сейчас происходят довольно большие изменения. Альтман якобы говорит…
OpenAI пойдут точно по стопам Anthropic: они заканчивают разработку модели, которую выпустят только для ограниченного числа компаний

Модель называется Spud (картошка). В конце марта слухи о ней уже ходили: The Information тогда сообщали, что OpenAI закончили претрейн, и что модель получилась настолько сильной, что вокруг нее даже начала меняться структура компании.

В частности, вместо отдела продуктовых интеграций там образовалось подразделение «AGI Deployment». Эта команда будет отвечать за то, как Spud будет работать в продуктах. Сообщалось также, что OpenAI планируют построить на ее основе «супер‑приложение», в котором объединят ChatGPT, Codex и браузер Atlas.

Но теперь оказывается, что запуск Spud на широкую аудиторию пока откладывается. Причина – та же, что и у Anthropic: мол, модель слишком опасна в терминах автономности и возможностей кибератак. Так что в ближайшем будущем доступ получит только небольшая группа компаний (но надеемся, что хотя бы метрики мы увидим).

Только не списывай точь-в-точь...
😁192523074🤯2🤩1👾1
Илон Маск обучает модель на 10 триллионов параметров

В Твиттере он недавно заявил, что на Colossus 2 сейчас обучается целых 7 моделей:

- Imagine V2
- 2 варианта модели на 1T
- 2 варианта модели на 1.5T
- модель на 6T
- модель на 10T

Если это правда, то две последние бьют (скорее всего) любые рекорды по размеру среди современных моделей. Причем не просто бьют, а на порядок: аналитики насчитывают в текущих фронтирах максимум 1–1,8 триллионов параметров.

Но это если эти громадины действительно дообучат, а то Илон у нас любитель раскидываться цифрами и датами 🤫

"Нужно наверстать упущенное" – написал Маск.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍125😁4432🤯19🔥31
Останется ли Nvidia монополистом в ИИ, или рынок уже начал ломаться

На Data Fusion только что послушали сильную практическую сессию про альтернативы Nvidia. На сцене были эксперты из МФТИ, ИИ МГУ, НотаТех, ВТБ и Т1. Разговор получился неожиданно приземленным: без хайпа, зато с цифрами, кейсами и трезвым взглядом на то, что реально происходит с инфраструктурой.

Главное: поиск альтернатив – больше не экзотика. Это вынужденная стратегия. ИИ нужно внедрять всем, а значит всем нужны мощности. Но доступ к Nvidia усложняется, и для многих стран, включая Китай и Россию, это уже вопрос не удобства, а возможности вообще участвовать в гонке.

⚙️ Отсюда и начинается движение. В первую очередь – появляются китайские GPU. Артем Каранович из T1 сравнивает этот рынок с рынком автомобилей: если раньше китайцы выглядели странно и сыро, то сейчас появляются полноценные игроки.

Лев Меркушов из ВТБ рассказал, что они проводили масштабное тестирование на широком спектре задач и установили, что китайские карточки – это уже вполне production-ready решение, и компании начинают осознанно диверсифицироваться. Да, это сложнее, и проблем достаточно, но зависеть от одного вендора становится слишком рискованно.

⚙️ Но железо – это только один слой. Когда давление на инфраструктуру растет, неизбежно приходится оптимизироваться и инженерно.

И тут показательный кейс был от Ильи Семенова из Ростелекома. Они занимались анализом видеопотока для ЕГЭ (выявляли списывающих), и нужно было ускорить тяжелый пайплайн в 4 раза без изменения кластера.

В итоге инженеры сделали ×9 – за счет перехода на смешанную точность (FP16 + FP32) и дистилляции. То есть часть проблем с «не хватает GPU» на практике часто решается не закупкой, а нормальной работой с моделями.

⚙️ В итоге картина такая: Nvidia по-прежнему остается лидером – за счет экосистемы и удобства. Но монополия начинает размываться. Сам Хуанг признает, что конкуренция появляется, и сильная.

А что касается практики, то сейчас альтернатива – это не один «убийца», а комбинация: другое железо, инженерные оптимизации и адаптация софта.

Еще раз напоминаем, что трансляция Data Fusion идет прямо сейчас здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
😁72🗿28👍1715🔥3🤔3🤝1💘1👾11
ReplaceMe: в ИТМО придумали, как радикально ускорять LLM без дообучения

На конференции Data Fusion уже 5 лет вручают премию Data Fusion Awards. Награждают компании, лаборатории и отдельные статьи. С каждым годом популярность премии растет: в 2026 на трек "Научный прорыв года в ИИ" поступило уже более 140 заявок. Призовой фонд составил 3 миллиона рублей.

Поздравляем победителей этого года и советуем к прочтению их работы:

1. Татьяна Земскова с серией работ о 3DGraphLLM – про то, как ребра графов могут помочь роботам лучше понимать окружающий мир
2. Александр Колесов с серией работ Field Matching – о разработке генеративной модели на основе идеи электростатического согласования полей
3. Дмитрий Шопхоев с работой ReplaceMe – про сжатие LLM

Последняя работа приглянулась нам особенно. Студенты ИТМО с научными руководителями обнаружили крайне интересную вещь: в трансформерах целые группы слоев можно схлопывать до линейных операций, существенно ускоряя модели без больших потерь в качестве.

Почти любая попытка прунинга обычно упирается в необходимость дообучения, но здесь ученые продемонстрировали совершенно другой подход. Они берут последовательность трансформер-блоков, которые "по идее" выполняют сложные нелинейные преобразования, и заменяют их одной линейной операцией, подобранной так, чтобы она максимально точно воспроизводила их поведение.

Для этого не нужно обучать модель заново – достаточно прогнать небольшой калибровочный датасет через оригинальную сеть и посчитать линейное отображение между входами и выходами этих блоков.

Авторы показывают, что можно удалить примерно до четверти слоев и сохранить около 90% исходной производительности. Это очень сильный результат, если учитывать, что речь идёт о полностью training-free подходе. На фоне других методов сжатия ReplaceMe выглядит особенно сильно: при сопоставимом уровне прунинга он держит качество лучше большинства подходов и при этом избавляет от дорогостоящего дообучения.

Действительно значимая работа. Еще раз поздравляем авторов с заслуженной победой и желаем дальнейших сильных результатов и научных прорывов!
🔥21153👍41🗿1472🤯22🍓1👾1
OpenAI сделали новую Pro Lite подписку за 100 долларов

Доступы будут все те же самые, что и у «настоящего» Pro за 200$, только в Codex лимиты поменьше.

То есть: вам доступна GPT-5.4 Pro, ChatGPT Pulse и есть безлимитный доступ к Instant и Thinking моделям в ChatGPT, НО в Codex ваши лимиты в 5 раз больше, чем в Plus (а не в ~10 раз больше, как в полноценном Pro). А еще:

Чтобы отпраздновать запуск, мы увеличиваем использование Codex до 31 мая, чтобы подписчики Pro Lite $100 получили до 10х лимитов ChatGPT Plus на Codex для реализации ваших самых амбициозных идей.


Опять же, все для конкуренции с Anthropic: у тех уже давно есть Max подписка за 100 долларов. Такой формат видимо пользуется популярностью, потому что хорошо закрывает большой и страшный для юзера разрыв между 20$ и 200$, и очевидно больше подходит очень многим.

https://chatgpt.com/pricing/
👍65🔥2414😁7
⚡️В службе поддержки Т-Банка уже больше года работает AI-сотрудник

Оператора зовут Афанасий Иванов (сокращенно – АИ). Он использует те же инструменты и интерфейсы, что и живые сотрудники. Главная его фича – он позволяет легко масштабировать нагрузку, помогая бизнесу расти.

О таком ИИ-специалисте на GoCloud 2026 рассказал руководитель направления обработки естественного языка (NLP) в Центре ИИ Т-Банка Артем Бондарь. По его словам, Афанасий прошел тот же путь, что и обычный сотрудник, например, две недели получал доступ в системы. Именно благодаря такому drop-in сценарию он способен работать по тем же рельсам, что и живые люди.

Эксперт отметил, что самый заметный сегодня финансовый эффект дает автоматизация поддержки и операционки. Для этого задействуют целый спектр GenAI-подходов. Помимо AI-воркера, в компании есть еще два основных направления. Для четко регламентированных бизнес-процессов — пошаговая автоматизация с помощью LLM, а для общих задач — агенты, которые ищут решения в сконструированной для них среде.

Получается, KPI у Афанасия тоже есть. Что думаете, коллеги?🤫
Please open Telegram to view this post
VIEW IN TELEGRAM
1233👍73🤨65❤‍🔥50🔥40🗿18😁10🤯1
Традиционно начинаем день с обновлений Anthropic: на этот раз они выкатили Advisor Strategy

Это способ получить почти топовое качество без оплаты топовой модели. Вот как работает:

– Есть две модели: Executor (исполнитель, дешевая и быстрая модель, Sonnet) и Advisor (советник, дорогая и сильная модель, Opus).

– Исполнитель делает всю основную работу. Но когда сталкивается со сложным моментом, вызывает advisor, который подсказывает, что делать дальше.

– Все происходит внутри одного запроса и вмешательства юзера не требует.

На самом деле задач, которые требуют вмешательства сильной модели, не так много. Так что на практике такой подход выходит ощутимо дешевле Opus (примерно на 10-12%) с качеством сильно выше Sonnet. Например, относительно базового Sonnet на SWE bench метрика растет почти на 3 процентных пункта.

Полезная вещь
120🔥53👍29😁2
Practical ML Conf 2026 принимает заявки на доклады

Яндекс открыл подачу заявок на участие в качестве спикера. Конференция хардовая: технические доклады, инженерные мастер-классы, аудитория мидл+.

Ждут именно практику: ML-технологии, которые уже работают в продакшене и приносят измеримую пользу. Заявки оцениваются по четырём критериям – новизна, польза для сообщества, практическая применимость и техническая глубина.

Тем, кого отберут, помогут с подготовкой: проработка доклада с программным комитетом, работа с тренером по публичным выступлениям, оформление презентации от дизайнеров. Плюс промо до и после конференции.

Ключевые даты:
до 22 мая – прием заявок
6-10 июля – решение программного комитета
август-сентябрь – подготовка совместно с комитетом
19 сентября – выступление

Если есть что рассказать по существу – это хороший повод заявить о себе перед профессиональным сообществом.

Подробности здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
15🔥6❤‍🔥3👍3😁2🤔2🗿2🤗1
😁😆😁 не забыть напомнить подписчикам, что скоро нас всех заменит ИИ
Please open Telegram to view this post
VIEW IN TELEGRAM
3😁33984🗿29🆒14💯11👍7🤯5😎42🔥2🦄1
Стало известно, что Anthropic собирается разрабатывать собственные ИИ-чипы

Сейчас они используют смесь из GPU Nvidia, TPU от Google и чипов Amazon. Но спрос на Claude продолжает быстро расти, и Anthropic снова сталкивается с нехваткой ускорителей.

С помощью своих чипов они планируют еще больше диверсифицировать инфраструктуру и снизить зависимость от внешних вендоров.

Напоминаем, что OpenAI тоже занимаются разработкой собственных чипов, так что это уже тренд.
73👍35🔥21😁9💯21
Как перейти от ИИ-экспериментов к рабочим системам

Рассказываем, где узнать реальный опыт тех, кто встроил искусственный интеллект в ключевые процессы компании и извлек из этого реальную выгоду. 22 апреля присоединяйтесь к конференции МЛечный путь от Selectel, провайдера инфраструктуры для ИИ.

Эксперты топовых ИТ-компаний расскажут:

🔺Как ускорить ML-пайплайны и снизить издержки на инференс без потери качества
🔺Как безопасно внедрить генеративные модели в ключевые процессы и управлять эффектом этого внедрения
🔺Как интегрировать модели в существующую ИТ-архитектуру

Конференция пройдет 22 апреля в Москве. Участие бесплатное, регистрируйтесь: https://slc.tl/y3n1g

Реклама. АО "Селектел". erid:2W5zFHkxnsK
🗿11👍43😁2
SWE-bench Verified и Terminal-Bench могут быть на 100% взломаны с помощью простого хака

Ученые из Беркли доказали это, сделав агента, который проходит тесты на 100%, при этом не решив по-настоящему ни одной задачки.

При этом эксплойты, которые ломают бенчмарки, простые до смешного. Для SWE bench агент просто добавлял в репозиторий 10-строчный скрипт, который всегда возвращал «passed» для всех тестов, и система этому верила.

Итог: 0 пофикшенных багов и 100% на 500 задачах в SWE Verified и 731 задаче в SWE Pro. Получается, SOTA ☕️

В Terminal-Bench то же самое – агент просто подменил curl, перехватил установку зависимостей, подсунул зараженный бинарник и сам записал «правильный» результат: 89/89. При том что ни одна задача реально не была решена.

Авторы проверили еще 5 бенчмарков, и в каждом нашли подобные уязвимости. Почти никакие бенчи не защищены от reward hacking, а современные модельки уже достаточно умные, чтобы их находить. Выводы делайте сами 🫠
Please open Telegram to view this post
VIEW IN TELEGRAM
3😁15132128👍41