Data Secrets
О, Андрей Карпаты навайбкодил собственный Твиттер https://karpathytalk.com Андрей заявил, что разочарован в X/Twitter, Threads и Substack, потому что качество контента на этих платформах оставляет желать лучшего, а сами платформы неуважительно относятся…
Тем временем происходящее в новой соцсети Андрея Карпаты:
1😁445❤55😎25🗿9❤🔥5🤔5👍2🤝2🤩1👾1
Media is too big
VIEW IN TELEGRAM
Anthropic выпустили Claude Managed Agents – среду для запуска сложных и долгих агентных задач
По сути, автопилот: вы задаете цель, инструменты и ограничения, а платформа берет на себя весь рантайм, все планирование, весь мониторинг и инфраструктуру.
То есть теперь вам вообще не нужно самостоятельно заниматься оркестрацией, управлять файлами и тд, Managed Agents все делает за вас.
Систему уже успели попробовать несколько ранних клиентов. Например, у Notion она уже внедрена на уровне полноценного исполнителя: команды работают с Managed Agents над долгоиграющими процессами.
Они захватывают этот рынок все больше
https://www.anthropic.com/engineering/managed-agents
По сути, автопилот: вы задаете цель, инструменты и ограничения, а платформа берет на себя весь рантайм, все планирование, весь мониторинг и инфраструктуру.
То есть теперь вам вообще не нужно самостоятельно заниматься оркестрацией, управлять файлами и тд, Managed Agents все делает за вас.
Систему уже успели попробовать несколько ранних клиентов. Например, у Notion она уже внедрена на уровне полноценного исполнителя: команды работают с Managed Agents над долгоиграющими процессами.
Они захватывают этот рынок все больше
https://www.anthropic.com/engineering/managed-agents
1🤯116🔥45❤24🤨4😁3👍2🤔2 2 1
Data Secrets
Anthropic выпускают новую суперсильную модель Claude Mythos, но доступ к ней есть только по закрытой программе поиска уязвимостей Итак, это не учебная тревога: в Anthropic разработали новую мощнейшую модель. Вот здесь лежит системная карта с бенчмарками:…
Кстати, теперь мы наконец знаем, благодаря кому у Anthropic такая невероятная скорость разработки ⌨️
Please open Telegram to view this post
VIEW IN TELEGRAM
😁117 31🔥15 2
Это одна из крупнейших ежегодных конференций по ИИ и анализу данных. В этот раз проект вышел на еще больший масштаб: собрались главы всего бигтеха, огромное количество специалистов и много иностранных гостей.
В программе 70+ сессий, среди тем: экономика данных, инфраструктура ИИ, агенты, RL, CV, NLP, Open Source, Embodied AI, рексис, кибербез, AgentOps. Если вы работаете в IT – это вам точно надо.
Делимся ссылкой на трансляцию докладов и расписание для тех, с кем в этот раз не встретимся очно.
Мы сегодня уже успели послушать дискуссию про ИИ агентов и Embodied AI с участием Радослава Нейчева, Тиграна Саркисова (директор по управлению данными в X5), Романа Стягюгина (руководитель ИИ в VK) и других экспертов.
Прозвучало несколько интересных мыслей о том, что останаливает нас на пути полного внедрения агентов и развития ИИ в индустрии:
Скоро, кстати, стартует сессия с двумя специалистами из Китая, они расскажут про опыт внедрения AI со своей стороны. Присоединяйтесь к конференции здесь: https://data-fusion.ru/
Please open Telegram to view this post
VIEW IN TELEGRAM
❤39🗿33👍24🤔10🤯2🕊1🤨1👾1
Data Secrets
OpenAI закончила претрейн своей следующей модели, а еще в стартапе появился отдел AGI Deployment The Information получили доступ к нескольким внутренним запискам стартапа и выяснили, что там сейчас происходят довольно большие изменения. Альтман якобы говорит…
OpenAI пойдут точно по стопам Anthropic: они заканчивают разработку модели, которую выпустят только для ограниченного числа компаний
Модель называется Spud (картошка). В конце марта слухи о ней уже ходили: The Information тогда сообщали, что OpenAI закончили претрейн, и что модель получилась настолько сильной, что вокруг нее даже начала меняться структура компании.
В частности, вместо отдела продуктовых интеграций там образовалось подразделение «AGI Deployment». Эта команда будет отвечать за то, как Spud будет работать в продуктах. Сообщалось также, что OpenAI планируют построить на ее основе «супер‑приложение», в котором объединят ChatGPT, Codex и браузер Atlas.
Но теперь оказывается, что запуск Spud на широкую аудиторию пока откладывается. Причина – та же, что и у Anthropic: мол, модель слишком опасна в терминах автономности и возможностей кибератак. Так что в ближайшем будущем доступ получит только небольшая группа компаний (но надеемся, что хотя бы метрики мы увидим).
Только не списывай точь-в-точь...
Модель называется Spud (картошка). В конце марта слухи о ней уже ходили: The Information тогда сообщали, что OpenAI закончили претрейн, и что модель получилась настолько сильной, что вокруг нее даже начала меняться структура компании.
В частности, вместо отдела продуктовых интеграций там образовалось подразделение «AGI Deployment». Эта команда будет отвечать за то, как Spud будет работать в продуктах. Сообщалось также, что OpenAI планируют построить на ее основе «супер‑приложение», в котором объединят ChatGPT, Codex и браузер Atlas.
Но теперь оказывается, что запуск Spud на широкую аудиторию пока откладывается. Причина – та же, что и у Anthropic: мол, модель слишком опасна в терминах автономности и возможностей кибератак. Так что в ближайшем будущем доступ получит только небольшая группа компаний (но надеемся, что хотя бы метрики мы увидим).
Только не списывай точь-в-точь...
😁184 52 27❤7 4🤯1🤩1👾1
Илон Маск обучает модель на 10 триллионов параметров
В Твиттере он недавно заявил, что на Colossus 2 сейчас обучается целых 7 моделей:
- Imagine V2
- 2 варианта модели на 1T
- 2 варианта модели на 1.5T
- модель на 6T
- модель на 10T
Если это правда, то две последние бьют (скорее всего) любые рекорды по размеру среди современных моделей. Причем не просто бьют, а на порядок: аналитики насчитывают в текущих фронтирах максимум 1–1,8 триллионов параметров.
Но это если эти громадины действительно дообучат, а то Илон у нас любитель раскидываться цифрами и датами🤫
В Твиттере он недавно заявил, что на Colossus 2 сейчас обучается целых 7 моделей:
- Imagine V2
- 2 варианта модели на 1T
- 2 варианта модели на 1.5T
- модель на 6T
- модель на 10T
Если это правда, то две последние бьют (скорее всего) любые рекорды по размеру среди современных моделей. Причем не просто бьют, а на порядок: аналитики насчитывают в текущих фронтирах максимум 1–1,8 триллионов параметров.
Но это если эти громадины действительно дообучат, а то Илон у нас любитель раскидываться цифрами и датами
"Нужно наверстать упущенное" – написал Маск.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍114😁42❤31🤯19🔥2
Останется ли Nvidia монополистом в ИИ, или рынок уже начал ломаться
На Data Fusion только что послушали сильную практическую сессию про альтернативы Nvidia. На сцене были эксперты из МФТИ, ИИ МГУ, НотаТех, ВТБ и Т1. Разговор получился неожиданно приземленным: без хайпа, зато с цифрами, кейсами и трезвым взглядом на то, что реально происходит с инфраструктурой.
Главное: поиск альтернатив – больше не экзотика. Это вынужденная стратегия. ИИ нужно внедрять всем, а значит всем нужны мощности. Но доступ к Nvidia усложняется, и для многих стран, включая Китай и Россию, это уже вопрос не удобства, а возможности вообще участвовать в гонке.
⚙️ Отсюда и начинается движение. В первую очередь – появляются китайские GPU. Артем Каранович из T1 сравнивает этот рынок с рынком автомобилей: если раньше китайцы выглядели странно и сыро, то сейчас появляются полноценные игроки.
Лев Меркушов из ВТБ рассказал, что они проводили масштабное тестирование на широком спектре задач и установили, что китайские карточки – это уже вполне production-ready решение, и компании начинают осознанно диверсифицироваться. Да, это сложнее, и проблем достаточно, но зависеть от одного вендора становится слишком рискованно.
⚙️ Но железо – это только один слой. Когда давление на инфраструктуру растет, неизбежно приходится оптимизироваться и инженерно.
И тут показательный кейс был от Ильи Семенова из Ростелекома. Они занимались анализом видеопотока для ЕГЭ (выявляли списывающих), и нужно было ускорить тяжелый пайплайн в 4 раза без изменения кластера.
В итоге инженеры сделали ×9 – за счет перехода на смешанную точность (FP16 + FP32) и дистилляции. То есть часть проблем с «не хватает GPU» на практике часто решается не закупкой, а нормальной работой с моделями.
⚙️ В итоге картина такая: Nvidia по-прежнему остается лидером – за счет экосистемы и удобства. Но монополия начинает размываться. Сам Хуанг признает, что конкуренция появляется, и сильная.
А что касается практики, то сейчас альтернатива – это не один «убийца», а комбинация: другое железо, инженерные оптимизации и адаптация софта.
Еще раз напоминаем, что трансляция Data Fusion идет прямо сейчас здесь
На Data Fusion только что послушали сильную практическую сессию про альтернативы Nvidia. На сцене были эксперты из МФТИ, ИИ МГУ, НотаТех, ВТБ и Т1. Разговор получился неожиданно приземленным: без хайпа, зато с цифрами, кейсами и трезвым взглядом на то, что реально происходит с инфраструктурой.
Главное: поиск альтернатив – больше не экзотика. Это вынужденная стратегия. ИИ нужно внедрять всем, а значит всем нужны мощности. Но доступ к Nvidia усложняется, и для многих стран, включая Китай и Россию, это уже вопрос не удобства, а возможности вообще участвовать в гонке.
Лев Меркушов из ВТБ рассказал, что они проводили масштабное тестирование на широком спектре задач и установили, что китайские карточки – это уже вполне production-ready решение, и компании начинают осознанно диверсифицироваться. Да, это сложнее, и проблем достаточно, но зависеть от одного вендора становится слишком рискованно.
И тут показательный кейс был от Ильи Семенова из Ростелекома. Они занимались анализом видеопотока для ЕГЭ (выявляли списывающих), и нужно было ускорить тяжелый пайплайн в 4 раза без изменения кластера.
В итоге инженеры сделали ×9 – за счет перехода на смешанную точность (FP16 + FP32) и дистилляции. То есть часть проблем с «не хватает GPU» на практике часто решается не закупкой, а нормальной работой с моделями.
А что касается практики, то сейчас альтернатива – это не один «убийца», а комбинация: другое железо, инженерные оптимизации и адаптация софта.
Еще раз напоминаем, что трансляция Data Fusion идет прямо сейчас здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
😁64🗿24👍15❤13🔥3🤔2💘1👾1 1
Data Secrets
Anthropic выпустили Claude Managed Agents – среду для запуска сложных и долгих агентных задач По сути, автопилот: вы задаете цель, инструменты и ограничения, а платформа берет на себя весь рантайм, все планирование, весь мониторинг и инфраструктуру. То…
This media is not supported in your browser
VIEW IN TELEGRAM
1000 и 1 стартап на агентах сегодня:
🫡59 18 9❤4👏2👾1
ReplaceMe: в ИТМО придумали, как радикально ускорять LLM без дообучения
На конференции Data Fusion уже 5 лет вручают премию Data Fusion Awards. Награждают компании, лаборатории и отдельные статьи. С каждым годом популярность премии растет: в 2026 на трек "Научный прорыв года в ИИ" поступило уже более 140 заявок. Призовой фонд составил 3 миллиона рублей.
Поздравляем победителей этого года и советуем к прочтению их работы:
1. Татьяна Земскова с серией работ о 3DGraphLLM – про то, как ребра графов могут помочь роботам лучше понимать окружающий мир
2. Александр Колесов с серией работ Field Matching – о разработке генеративной модели на основе идеи электростатического согласования полей
3. Дмитрий Шопхоев с работой ReplaceMe – про сжатие LLM
Последняя работа приглянулась нам особенно. Студенты ИТМО с научными руководителями обнаружили крайне интересную вещь: в трансформерах целые группы слоев можно схлопывать до линейных операций, существенно ускоряя модели без больших потерь в качестве.
Почти любая попытка прунинга обычно упирается в необходимость дообучения, но здесь ученые продемонстрировали совершенно другой подход. Они берут последовательность трансформер-блоков, которые "по идее" выполняют сложные нелинейные преобразования, и заменяют их одной линейной операцией, подобранной так, чтобы она максимально точно воспроизводила их поведение.
Для этого не нужно обучать модель заново – достаточно прогнать небольшой калибровочный датасет через оригинальную сеть и посчитать линейное отображение между входами и выходами этих блоков.
Авторы показывают, что можно удалить примерно до четверти слоев и сохранить около 90% исходной производительности. Это очень сильный результат, если учитывать, что речь идёт о полностью training-free подходе. На фоне других методов сжатия ReplaceMe выглядит особенно сильно: при сопоставимом уровне прунинга он держит качество лучше большинства подходов и при этом избавляет от дорогостоящего дообучения.
Действительно значимая работа. Еще раз поздравляем авторов с заслуженной победой и желаем дальнейших сильных результатов и научных прорывов!
На конференции Data Fusion уже 5 лет вручают премию Data Fusion Awards. Награждают компании, лаборатории и отдельные статьи. С каждым годом популярность премии растет: в 2026 на трек "Научный прорыв года в ИИ" поступило уже более 140 заявок. Призовой фонд составил 3 миллиона рублей.
Поздравляем победителей этого года и советуем к прочтению их работы:
1. Татьяна Земскова с серией работ о 3DGraphLLM – про то, как ребра графов могут помочь роботам лучше понимать окружающий мир
2. Александр Колесов с серией работ Field Matching – о разработке генеративной модели на основе идеи электростатического согласования полей
3. Дмитрий Шопхоев с работой ReplaceMe – про сжатие LLM
Последняя работа приглянулась нам особенно. Студенты ИТМО с научными руководителями обнаружили крайне интересную вещь: в трансформерах целые группы слоев можно схлопывать до линейных операций, существенно ускоряя модели без больших потерь в качестве.
Почти любая попытка прунинга обычно упирается в необходимость дообучения, но здесь ученые продемонстрировали совершенно другой подход. Они берут последовательность трансформер-блоков, которые "по идее" выполняют сложные нелинейные преобразования, и заменяют их одной линейной операцией, подобранной так, чтобы она максимально точно воспроизводила их поведение.
Для этого не нужно обучать модель заново – достаточно прогнать небольшой калибровочный датасет через оригинальную сеть и посчитать линейное отображение между входами и выходами этих блоков.
Авторы показывают, что можно удалить примерно до четверти слоев и сохранить около 90% исходной производительности. Это очень сильный результат, если учитывать, что речь идёт о полностью training-free подходе. На фоне других методов сжатия ReplaceMe выглядит особенно сильно: при сопоставимом уровне прунинга он держит качество лучше большинства подходов и при этом избавляет от дорогостоящего дообучения.
Действительно значимая работа. Еще раз поздравляем авторов с заслуженной победой и желаем дальнейших сильных результатов и научных прорывов!
🔥143❤41👍33🗿11 5☃2🤯2🍓1👾1 1