Data Secrets
88.9K subscribers
6.73K photos
736 videos
20 files
2.97K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Media is too big
VIEW IN TELEGRAM
Anthropic выпустили Claude Managed Agents – среду для запуска сложных и долгих агентных задач

По сути, автопилот: вы задаете цель, инструменты и ограничения, а платформа берет на себя весь рантайм, все планирование, весь мониторинг и инфраструктуру.

То есть теперь вам вообще не нужно самостоятельно заниматься оркестрацией, управлять файлами и тд, Managed Agents все делает за вас.

Систему уже успели попробовать несколько ранних клиентов. Например, у Notion она уже внедрена на уровне полноценного исполнителя: команды работают с Managed Agents над долгоиграющими процессами.

Они захватывают этот рынок все больше

https://www.anthropic.com/engineering/managed-agents
1🤯116🔥4524🤨4😁3👍2🤔221
⚡️ Мы с командой Data Secrets снова приехали на Data Fusion

Это одна из крупнейших ежегодных конференций по ИИ и анализу данных. В этот раз проект вышел на еще больший масштаб: собрались главы всего бигтеха, огромное количество специалистов и много иностранных гостей.

В программе 70+ сессий, среди тем: экономика данных, инфраструктура ИИ, агенты, RL, CV, NLP, Open Source, Embodied AI, рексис, кибербез, AgentOps. Если вы работаете в IT – это вам точно надо.

Делимся ссылкой на трансляцию докладов и расписание для тех, с кем в этот раз не встретимся очно.

Мы сегодня уже успели послушать дискуссию про ИИ агентов и Embodied AI с участием Радослава Нейчева, Тиграна Саркисова (директор по управлению данными в X5), Романа Стягюгина (руководитель ИИ в VK) и других экспертов.

Прозвучало несколько интересных мыслей о том, что останаливает нас на пути полного внедрения агентов и развития ИИ в индустрии:

Во-первых, это, конечно, стоимость. Агенты и LLM – это все еще очень дорого. У большинства стран просто нет необходимой инфраструктуры. А что касается прода, то, как сказал Радослав: "Иногда все еще лучше просто воткнуть CatBoost".

Во-вторых, неочевидно: образование. По словам Константина Романова, директора по ИИ в Билайне, 80% мировых экспертов все еще приходится только на Китай и США.

В-третьих, инженерия. Модели уже достаточно хороши, чтобы работать качественно, но настройка необходимого окружения и оркестрация агентов требует слишком много ресурсов – человеческих и финансовых.

Скоро, кстати, стартует сессия с двумя специалистами из Китая, они расскажут про опыт внедрения AI со своей стороны. Присоединяйтесь к конференции здесь: https://data-fusion.ru/
Please open Telegram to view this post
VIEW IN TELEGRAM
39🗿33👍24🤔10🤯2🕊1🤨1👾1
Data Secrets
OpenAI закончила претрейн своей следующей модели, а еще в стартапе появился отдел AGI Deployment The Information получили доступ к нескольким внутренним запискам стартапа и выяснили, что там сейчас происходят довольно большие изменения. Альтман якобы говорит…
OpenAI пойдут точно по стопам Anthropic: они заканчивают разработку модели, которую выпустят только для ограниченного числа компаний

Модель называется Spud (картошка). В конце марта слухи о ней уже ходили: The Information тогда сообщали, что OpenAI закончили претрейн, и что модель получилась настолько сильной, что вокруг нее даже начала меняться структура компании.

В частности, вместо отдела продуктовых интеграций там образовалось подразделение «AGI Deployment». Эта команда будет отвечать за то, как Spud будет работать в продуктах. Сообщалось также, что OpenAI планируют построить на ее основе «супер‑приложение», в котором объединят ChatGPT, Codex и браузер Atlas.

Но теперь оказывается, что запуск Spud на широкую аудиторию пока откладывается. Причина – та же, что и у Anthropic: мол, модель слишком опасна в терминах автономности и возможностей кибератак. Так что в ближайшем будущем доступ получит только небольшая группа компаний (но надеемся, что хотя бы метрики мы увидим).

Только не списывай точь-в-точь...
😁184522774🤯1🤩1👾1
Илон Маск обучает модель на 10 триллионов параметров

В Твиттере он недавно заявил, что на Colossus 2 сейчас обучается целых 7 моделей:

- Imagine V2
- 2 варианта модели на 1T
- 2 варианта модели на 1.5T
- модель на 6T
- модель на 10T

Если это правда, то две последние бьют (скорее всего) любые рекорды по размеру среди современных моделей. Причем не просто бьют, а на порядок: аналитики насчитывают в текущих фронтирах максимум 1–1,8 триллионов параметров.

Но это если эти громадины действительно дообучат, а то Илон у нас любитель раскидываться цифрами и датами 🤫

"Нужно наверстать упущенное" – написал Маск.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍114😁4231🤯19🔥2
Останется ли Nvidia монополистом в ИИ, или рынок уже начал ломаться

На Data Fusion только что послушали сильную практическую сессию про альтернативы Nvidia. На сцене были эксперты из МФТИ, ИИ МГУ, НотаТех, ВТБ и Т1. Разговор получился неожиданно приземленным: без хайпа, зато с цифрами, кейсами и трезвым взглядом на то, что реально происходит с инфраструктурой.

Главное: поиск альтернатив – больше не экзотика. Это вынужденная стратегия. ИИ нужно внедрять всем, а значит всем нужны мощности. Но доступ к Nvidia усложняется, и для многих стран, включая Китай и Россию, это уже вопрос не удобства, а возможности вообще участвовать в гонке.

⚙️ Отсюда и начинается движение. В первую очередь – появляются китайские GPU. Артем Каранович из T1 сравнивает этот рынок с рынком автомобилей: если раньше китайцы выглядели странно и сыро, то сейчас появляются полноценные игроки.

Лев Меркушов из ВТБ рассказал, что они проводили масштабное тестирование на широком спектре задач и установили, что китайские карточки – это уже вполне production-ready решение, и компании начинают осознанно диверсифицироваться. Да, это сложнее, и проблем достаточно, но зависеть от одного вендора становится слишком рискованно.

⚙️ Но железо – это только один слой. Когда давление на инфраструктуру растет, неизбежно приходится оптимизироваться и инженерно.

И тут показательный кейс был от Ильи Семенова из Ростелекома. Они занимались анализом видеопотока для ЕГЭ (выявляли списывающих), и нужно было ускорить тяжелый пайплайн в 4 раза без изменения кластера.

В итоге инженеры сделали ×9 – за счет перехода на смешанную точность (FP16 + FP32) и дистилляции. То есть часть проблем с «не хватает GPU» на практике часто решается не закупкой, а нормальной работой с моделями.

⚙️ В итоге картина такая: Nvidia по-прежнему остается лидером – за счет экосистемы и удобства. Но монополия начинает размываться. Сам Хуанг признает, что конкуренция появляется, и сильная.

А что касается практики, то сейчас альтернатива – это не один «убийца», а комбинация: другое железо, инженерные оптимизации и адаптация софта.

Еще раз напоминаем, что трансляция Data Fusion идет прямо сейчас здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
😁64🗿24👍1513🔥3🤔2💘1👾11
ReplaceMe: в ИТМО придумали, как радикально ускорять LLM без дообучения

На конференции Data Fusion уже 5 лет вручают премию Data Fusion Awards. Награждают компании, лаборатории и отдельные статьи. С каждым годом популярность премии растет: в 2026 на трек "Научный прорыв года в ИИ" поступило уже более 140 заявок. Призовой фонд составил 3 миллиона рублей.

Поздравляем победителей этого года и советуем к прочтению их работы:

1. Татьяна Земскова с серией работ о 3DGraphLLM – про то, как ребра графов могут помочь роботам лучше понимать окружающий мир
2. Александр Колесов с серией работ Field Matching – о разработке генеративной модели на основе идеи электростатического согласования полей
3. Дмитрий Шопхоев с работой ReplaceMe – про сжатие LLM

Последняя работа приглянулась нам особенно. Студенты ИТМО с научными руководителями обнаружили крайне интересную вещь: в трансформерах целые группы слоев можно схлопывать до линейных операций, существенно ускоряя модели без больших потерь в качестве.

Почти любая попытка прунинга обычно упирается в необходимость дообучения, но здесь ученые продемонстрировали совершенно другой подход. Они берут последовательность трансформер-блоков, которые "по идее" выполняют сложные нелинейные преобразования, и заменяют их одной линейной операцией, подобранной так, чтобы она максимально точно воспроизводила их поведение.

Для этого не нужно обучать модель заново – достаточно прогнать небольшой калибровочный датасет через оригинальную сеть и посчитать линейное отображение между входами и выходами этих блоков.

Авторы показывают, что можно удалить примерно до четверти слоев и сохранить около 90% исходной производительности. Это очень сильный результат, если учитывать, что речь идёт о полностью training-free подходе. На фоне других методов сжатия ReplaceMe выглядит особенно сильно: при сопоставимом уровне прунинга он держит качество лучше большинства подходов и при этом избавляет от дорогостоящего дообучения.

Действительно значимая работа. Еще раз поздравляем авторов с заслуженной победой и желаем дальнейших сильных результатов и научных прорывов!
🔥14341👍33🗿1152🤯2🍓1👾11