Media is too big
VIEW IN TELEGRAM
CEO робо-стартапа FigureAI показал новое видео работы их робота Figure 2.0
Видео, предположительно, снято на заводе BMW, где роботы компании "стажируются" в реальных условиях уже с прошлого года. Гуманоид автономно сканирует, обрабатывает и сортирует пакеты разного размера.
Обратите внимание на скорость принятия решений и плавность движений. Робот почти не останавливается + руки работают ну очень акуратно для железки.
Видео, кстати, выложили через час после того, как директору стартапа в коментариях написали, что "это НИКОГДА не будет работать с произвольной партией пакетов"😎
Видео, предположительно, снято на заводе BMW, где роботы компании "стажируются" в реальных условиях уже с прошлого года. Гуманоид автономно сканирует, обрабатывает и сортирует пакеты разного размера.
Обратите внимание на скорость принятия решений и плавность движений. Робот почти не останавливается + руки работают ну очень акуратно для железки.
Видео, кстати, выложили через час после того, как директору стартапа в коментариях написали, что "это НИКОГДА не будет работать с произвольной партией пакетов"
Please open Telegram to view this post
VIEW IN TELEGRAM
AIRI показали универсального ИИ-агента для роботов и индустриальных процессов, способного к самообучению и самокоррекции
Институт выкатил новую Action-модель под названием Vintix, и она умеет кое-что по-настоящему крутое. В отличие от классических агентов, Vintix не просто выполняет задачи, а имитирует сам процесс обучения с подкреплением. То есть, учится сама — даже если вы даёте минимум обратной связи.
Внутри — трансформер с расширенным контекстом и очень плотным представлением данных: состояние, действие и награда сжаты в один токен. Это даёт в 3 раза больше информации на вход, чем у аналогов вроде GATO от DeepMind или JAT от HuggingFace.
Агент устойчив к шуму, задержкам и неполной информации, что критично для промышленных задач. Его уже прогнали по целой серии бенчмарков: от базовой моторики до сложных сценариев с шумом и многозадачностью. В итоге: универсальность + стабильность и на симуляциях, и на производственных задачах. Сейчас модель работает в симуляции на RTX 3070 со стабильными 30 Гц. В будущем обещают мультимодальность (видео, сенсоры), больше данных и переход к более долгосрочному планированию.
А ещё Vintix в опенсорсе. Статью покажут на ICML в июле 2025. Следим 👀
Институт выкатил новую Action-модель под названием Vintix, и она умеет кое-что по-настоящему крутое. В отличие от классических агентов, Vintix не просто выполняет задачи, а имитирует сам процесс обучения с подкреплением. То есть, учится сама — даже если вы даёте минимум обратной связи.
Внутри — трансформер с расширенным контекстом и очень плотным представлением данных: состояние, действие и награда сжаты в один токен. Это даёт в 3 раза больше информации на вход, чем у аналогов вроде GATO от DeepMind или JAT от HuggingFace.
Агент устойчив к шуму, задержкам и неполной информации, что критично для промышленных задач. Его уже прогнали по целой серии бенчмарков: от базовой моторики до сложных сценариев с шумом и многозадачностью. В итоге: универсальность + стабильность и на симуляциях, и на производственных задачах. Сейчас модель работает в симуляции на RTX 3070 со стабильными 30 Гц. В будущем обещают мультимодальность (видео, сенсоры), больше данных и переход к более долгосрочному планированию.
А ещё Vintix в опенсорсе. Статью покажут на ICML в июле 2025. Следим 👀
Data Secrets
Nvidia не перестает радовать: совместно с Корнеллским Университетом они предложили Eso-LM – новую архитектуру, сочетающую в себе авторегрессию и диффузию
Буквально в прошлом посте мы написали, что, возможно, за диффузионными текстовыми моделями будущее, – и сразу же наткнулись на только что выпущенную статью Nvidia про новую архитектуру, основанную на этой идее.
Кратко разбираем:
➖ Авторегрессивные модели (трансформеры) генерируют токены слева направо, а диффузионные – постепенно размаскировывают последовательность в любом порядке. Это значит, что диффузию можно параллелить на инференсе, восстанавливая по нескольку токенов за раз, а трансформеры – нет. В Eso-LM авторы попытались соединить два подхода, чтобы качество было, как у авторегрессии, а скорость – как у диффузии.
➖ Тут у нас две фазы инференса. Сначала диффузионная: модель параллельно восстанавливает большинство токенов. Затем авторегрессивная: оставшиеся замаскированные позиции достраиваются последовательно слева направо.
➖ При этом в диффузионной фазе токены восстанавливаются по заранее заданному расписанию, которое определяется перестановкой индексов σ – эта схема определяет, какие позиции размаскируются на каждом шаге. Благодаря тому, что порядок фиксирован, для уже восстановленных токенов можно накапливать KV-кеш и быстро переиспользовать его в автоконтекстной фазе. Это называется казуальным вниманием.
В итоге у нас: качество – трансформеров, а скорость – диффузии. На тестах Eso-LM демонстрирует perplexity около 25.97 против 22.83 у обычного авторегрессивного трансформера.
Статья полностью
Буквально в прошлом посте мы написали, что, возможно, за диффузионными текстовыми моделями будущее, – и сразу же наткнулись на только что выпущенную статью Nvidia про новую архитектуру, основанную на этой идее.
Кратко разбираем:
В итоге у нас: качество – трансформеров, а скорость – диффузии. На тестах Eso-LM демонстрирует perplexity около 25.97 против 22.83 у обычного авторегрессивного трансформера.
Статья полностью
Please open Telegram to view this post
VIEW IN TELEGRAM
Такую вот битву роботов сегодня наблюдали на МТС True Tech Day
Организаторы построили настоящую небольшую арену и весь день проводили там вот такие заварушки. Попробовать поуправлять роботом мог каждый участник (мы тоже пытались).
Это, кстати, была не единственная активность: еще можно было попробовать решить айти-тест одновременно с ездой на велосипеде, попытаться взломать систему Tesla Model X (как тебе такое, Илон Маск?), пройти полосу препятствий или даже заняться гик-хэндмейдом.
На хэндмейд не успели, но ребята там паяли себе декоративные платы с AI-помощниками и эмуляторами. Идеальный аксессуар на рюкзак, не то что эти ваши Лабубу.
Организаторы построили настоящую небольшую арену и весь день проводили там вот такие заварушки. Попробовать поуправлять роботом мог каждый участник (мы тоже пытались).
Это, кстати, была не единственная активность: еще можно было попробовать решить айти-тест одновременно с ездой на велосипеде, попытаться взломать систему Tesla Model X (как тебе такое, Илон Маск?), пройти полосу препятствий или даже заняться гик-хэндмейдом.
На хэндмейд не успели, но ребята там паяли себе декоративные платы с AI-помощниками и эмуляторами. Идеальный аксессуар на рюкзак, не то что эти ваши Лабубу.
+900 миллионов долларов на вайб-кодинг: Cursor сообщили о том, что привлекли новый раунд инвестиций
Для них это уже серия C. Финансирование дали Thrive, Accel, Andreessen Horowitz и DST (это очень крупные и влиятельные фонды).
Кстати, стабильная годовая выручка Cursor с подписок уже превышает 500 миллионов долларов. Напоминаем, что стартапу всего два года.
Для них это уже серия C. Финансирование дали Thrive, Accel, Andreessen Horowitz и DST (это очень крупные и влиятельные фонды).
Кстати, стабильная годовая выручка Cursor с подписок уже превышает 500 миллионов долларов. Напоминаем, что стартапу всего два года.
Media is too big
VIEW IN TELEGRAM
Eleven Labs удивили всех своей новой моделью синтеза речи
Казалось бы, в наше время уже сложно таким впечатлить, но их новая text2speech Eleven v3 смогла. Послушайте демо и сами все поймете.
Модель может: петь, смеяться, вздыхать, шептать. И, в целом, звучит все ну очень естественно (даже иногда не по себе😬 ). Можно генерировать мульти-голосовые диалоги и детально контролировать интонации тегами (как на видео). Поддерживают около 70 языков, русский тоже.
Сейчас модель вышла в публичную альфу, и в июне на нее будут скидки 80%. Пишут, что, так как это исследовательское превью, модель пока требует больше промпт инжиниринга. Видимо, пока не тюнили отдельно на instruction following.
Пробуем здесь
Казалось бы, в наше время уже сложно таким впечатлить, но их новая text2speech Eleven v3 смогла. Послушайте демо и сами все поймете.
Модель может: петь, смеяться, вздыхать, шептать. И, в целом, звучит все ну очень естественно (даже иногда не по себе
Сейчас модель вышла в публичную альфу, и в июне на нее будут скидки 80%. Пишут, что, так как это исследовательское превью, модель пока требует больше промпт инжиниринга. Видимо, пока не тюнили отдельно на instruction following.
Пробуем здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
Немного о том, как ИИ меняет внутренние рабочие процессы в бигтехе
В последнее время так и сыпятся новости о том, как бигтехи внедряют ИИ в написание кода и автоматизируют разработку. Microsoft хвастается, что у них AI пишет уже 30% кода, стартапы открывают вакансии вайб-кодеров, и даже в OpenAI разработчики делигируют задачи в ChatGPT.
У нас девелоперы тоже не отстают. Даниэль, фронтенд-разработчик из Яндекса рассказал о том, как у них нейросети меняют рабочие процессы. В компании тоже активно внедряют ИИ во всех командах.
Причем очень многие пилят свои пет-проекты и MCP, которые затем распространяются по командам, и на фоне этого образовывается целое сообщество. Сейчас во внутреннем чатике энтузиастов уже более 1000 человек.
О конкретных кейсах и о том, чем именно чаще всего пользуются сотрудники – читайте сами в посте. Очень показательно.
Поделитесь, какой процент строк кода в ваших проектах уже написан сетями?
В последнее время так и сыпятся новости о том, как бигтехи внедряют ИИ в написание кода и автоматизируют разработку. Microsoft хвастается, что у них AI пишет уже 30% кода, стартапы открывают вакансии вайб-кодеров, и даже в OpenAI разработчики делигируют задачи в ChatGPT.
У нас девелоперы тоже не отстают. Даниэль, фронтенд-разработчик из Яндекса рассказал о том, как у них нейросети меняют рабочие процессы. В компании тоже активно внедряют ИИ во всех командах.
Причем очень многие пилят свои пет-проекты и MCP, которые затем распространяются по командам, и на фоне этого образовывается целое сообщество. Сейчас во внутреннем чатике энтузиастов уже более 1000 человек.
О конкретных кейсах и о том, чем именно чаще всего пользуются сотрудники – читайте сами в посте. Очень показательно.
Поделитесь, какой процент строк кода в ваших проектах уже написан сетями?
Data Secrets
+900 миллионов долларов на вайб-кодинг: Cursor сообщили о том, что привлекли новый раунд инвестиций Для них это уже серия C. Финансирование дали Thrive, Accel, Andreessen Horowitz и DST (это очень крупные и влиятельные фонды). Кстати, стабильная годовая…
А пока Cursor празднует новый раунд инвестиций, у других провайдеров вайб-кодинга Windsurf что-то пошло не так
Anthropic почти полностью отрубили им доступ к своим моделям, включая так любимые разработчиками Sonnet 3.7 и 3.5.
Все из-за того, что стартап покупает OpenAI (подробности – здесь). Кстати, подтверждения окончательной сделки пока все еще не было, но антропики видимо решили действовать заранее.
Они говорят, что ограничены в вычислениях, и хотели бы тратить их на «более надежное сотрудничество». CSO Anthropic Джаред Каплан сказал, что «было бы странно продавать наши модели OpenAI».
В чем они не правы?
Anthropic почти полностью отрубили им доступ к своим моделям, включая так любимые разработчиками Sonnet 3.7 и 3.5.
Все из-за того, что стартап покупает OpenAI (подробности – здесь). Кстати, подтверждения окончательной сделки пока все еще не было, но антропики видимо решили действовать заранее.
Они говорят, что ограничены в вычислениях, и хотели бы тратить их на «более надежное сотрудничество». CSO Anthropic Джаред Каплан сказал, что «было бы странно продавать наши модели OpenAI».
В чем они не правы?
Data Secrets
+900 миллионов долларов на вайб-кодинг: Cursor сообщили о том, что привлекли новый раунд инвестиций Для них это уже серия C. Финансирование дали Thrive, Accel, Andreessen Horowitz и DST (это очень крупные и влиятельные фонды). Кстати, стабильная годовая…
Никогда такого не было и вот опять
На Тех-Френдли Викенд готовят ивент, который позволит по-настоящему примерить на себя роль кибербезопасника
Организаторы фестиваля проведут мастер-класс «Ctrl+Alt+Defend» от ведущего провайдера комплексного кибербеза «Солар». Под руководством опытных экспертов вы будете расследовать инциденты, выявлять уязвимости и даже отражать смоделированные атаки на «Тех-Френдли Викенд» в режиме реального времени.
Идеальная возможность попробовать свои силы и новую специальность.
Мастер-класс пройдет 8 июня в 13:30 в Нижнем Новгороде (молодежный центр «Высота»).
Не забудьте зарегистрироваться и пройти быстрое тестирование, чтобы вас могли распределить в нужную команду: пентест, blue team или CISO.
Ну а если не готовы ехать в Новгород, проходите интерактивные задания у ребят в блоге и выигрывайте мерч "Солара".
Организаторы фестиваля проведут мастер-класс «Ctrl+Alt+Defend» от ведущего провайдера комплексного кибербеза «Солар». Под руководством опытных экспертов вы будете расследовать инциденты, выявлять уязвимости и даже отражать смоделированные атаки на «Тех-Френдли Викенд» в режиме реального времени.
Идеальная возможность попробовать свои силы и новую специальность.
Мастер-класс пройдет 8 июня в 13:30 в Нижнем Новгороде (молодежный центр «Высота»).
Не забудьте зарегистрироваться и пройти быстрое тестирование, чтобы вас могли распределить в нужную команду: пентест, blue team или CISO.
Ну а если не готовы ехать в Новгород, проходите интерактивные задания у ребят в блоге и выигрывайте мерч "Солара".
Data Secrets
Дилан Патель считает, что у Anthropic есть модели сильнее, чем o3, но они не релизят их из соображений безопасности Патель – очень известный в сети ИИ-аналитик и ведущий эксперт SemiAnalysis, которые как раз специализируются на исследованиях и консалтинге…
Media is too big
VIEW IN TELEGRAM
Дилан Патель говорит что, судя по всему, OpenAI достигли потолка своих вычислительных возможностей
Их последний раунд претрейна (видимо, для GPT-4.5) был насколько масштабным, что они буквально уперлись в потолок и не смогут сделать ничего больше (в плане размера моделей), пока не появится Старгейт.
Поэтому сейчас фокус смещается на новые архитектуры, обучение с подкреплением и работу над эффективностью моделей.
Напоминаем, что Старгейт тем временем уже строится
Их последний раунд претрейна (видимо, для GPT-4.5) был насколько масштабным, что они буквально уперлись в потолок и не смогут сделать ничего больше (в плане размера моделей), пока не появится Старгейт.
Поэтому сейчас фокус смещается на новые архитектуры, обучение с подкреплением и работу над эффективностью моделей.
Напоминаем, что Старгейт тем временем уже строится