Суставы без людей: «машины делают машины» по‑шанхайски
Пока Илон Маск из Tesla повторяет мантру про Optimus и «машины должны делать машины», китайцы решили не спорить, а просто начать с самого приземлённого — деталей. Компания Eyou Robot Technology заявила, что первой в мире запустила в Шанхае полностью автоматическое производство «суставов» (шарнирных сочленений) для человекоподобных роботов — без участия человека. Площадку официально открыли на прошлой неделе, текущая мощность — 100 тысяч сочленений в год, а дальше план — утроить объёмы.
Eyou Robot Technology основана в 2018 году, к массовому выпуску комплектующих приступила в 2023-м, а в прошлом году поставки превысили 95 тысяч штук. Эти «суставы» уже идут многим китайским производителям, включая AgiBot. При этом отрасль признаёт: робототехника вряд ли будет развиваться «как автопром» — там всё шло плавно, а здесь ждут взрывной спрос, как только решат ключевые технологические проблемы.
Cами производители, вроде UBTech, считают, что производительность труда роботов составляет лишь 30-50 % от человеческой, причём только в довольно специфических операциях типа складывания коробок и контроля качества продукции. Но всё ещё впереди: так, UBTech приоритетной для себя задачей на этот год считает разработку полнофункциональной кисти, не уступающей человеческой руке по возможностям.
@anti_robots
Пока Илон Маск из Tesla повторяет мантру про Optimus и «машины должны делать машины», китайцы решили не спорить, а просто начать с самого приземлённого — деталей. Компания Eyou Robot Technology заявила, что первой в мире запустила в Шанхае полностью автоматическое производство «суставов» (шарнирных сочленений) для человекоподобных роботов — без участия человека. Площадку официально открыли на прошлой неделе, текущая мощность — 100 тысяч сочленений в год, а дальше план — утроить объёмы.
Eyou Robot Technology основана в 2018 году, к массовому выпуску комплектующих приступила в 2023-м, а в прошлом году поставки превысили 95 тысяч штук. Эти «суставы» уже идут многим китайским производителям, включая AgiBot. При этом отрасль признаёт: робототехника вряд ли будет развиваться «как автопром» — там всё шло плавно, а здесь ждут взрывной спрос, как только решат ключевые технологические проблемы.
Cами производители, вроде UBTech, считают, что производительность труда роботов составляет лишь 30-50 % от человеческой, причём только в довольно специфических операциях типа складывания коробок и контроля качества продукции. Но всё ещё впереди: так, UBTech приоритетной для себя задачей на этот год считает разработку полнофункциональной кисти, не уступающей человеческой руке по возможностям.
@anti_robots
Atlas расправил плечи — и посоветовал профсоюзам не играть в луддистов
В Эр-Рияде на полях Global Labor Market Conference чиновник Международной организации труда (МОТ) Ли Сан Хон посоветовал работникам Hyundai Motor не пытаться «запретить будущее», а прокачивать навыки, которые пригодятся и после выхода на линию роботов-гуманоидов.
Ли Сан Хон напомнил: у Kia роботы уже помогают собирать электромобили в Кванмёне, а массовых сокращений не случилось. Его рецепт — не платить людям «за ничегонеделание», а выстроить нормальную перераспределённую занятость после автоматизации: даже старшим сотрудникам стоит осваивать новые компетенции, потому что роботов всё равно придётся обслуживать и обновлять.
На фото: робот Atlas берёт в руки автозапчасть на выставочном стенде Hyundai Motor на выставке CES 2026 в Лас-Вегасе, 8 января
@anti_robots
В Эр-Рияде на полях Global Labor Market Conference чиновник Международной организации труда (МОТ) Ли Сан Хон посоветовал работникам Hyundai Motor не пытаться «запретить будущее», а прокачивать навыки, которые пригодятся и после выхода на линию роботов-гуманоидов.
Ранее местный профсоюз заявил, что «ни один робот» не появится на производстве без соглашения с менеджментом — после презентации Atlas на CES 2026 и планов поставить их на сборочные линии уже к 2028 году. Но чиновник МОТ назвал это «нереалистичным» и просто переговорной тактикой.
Ли Сан Хон напомнил: у Kia роботы уже помогают собирать электромобили в Кванмёне, а массовых сокращений не случилось. Его рецепт — не платить людям «за ничегонеделание», а выстроить нормальную перераспределённую занятость после автоматизации: даже старшим сотрудникам стоит осваивать новые компетенции, потому что роботов всё равно придётся обслуживать и обновлять.
На фото: робот Atlas берёт в руки автозапчасть на выставочном стенде Hyundai Motor на выставке CES 2026 в Лас-Вегасе, 8 января
@anti_robots
На заводах Tesla не нашлось ни одного работающего Optimus
На звонке по итогам Tesla за Q4 2025 Илон Маск внезапно признал: прямо сейчас в заводах Tesla нет ни одного фирменного робота, который делал бы «полезную работу». И прозвучало это особенно контрастно на фоне прежних заявлений. В июне 2024 официальный аккаунт Tesla уверял про «два Optimus, автономно выполняющих задачи на фабрике», а на собрании акционеров Маск обещал к 2025 уже «одну–две тысячи» роботов в производстве.
В январе 2025 план стал ещё смелее: «примерно 10 тысяч» роботов «в этом году», и «несколько тысяч» — «полезны к концу года». Теперь же версия такая: проект «всё ещё на ранней стадии», «в R&D», старые версии уходят на покой, а «материально» на фабриках робот не используется; заметные объёмы производства — «вероятно, к концу этого года».
Дальше — знакомый паттерн: в 2025 Tesla так и не приблизилась к «тысячам» произведённых Optimus (не было признаков даже «сотен»), а на прямой вопрос «сколько роботов есть» Маск на звонке не ответил. Публичные демонстрации до сих пор сводились к простым задачам вроде раздачи бутылок воды — и с сильной опорой на телеуправление, а не автономность.
При этом в свежем апдейте для акционеров Tesla обещает в Q1 показать Optimus Gen 3 (апгрейды относительно v2.5, включая новый дизайн руки), называет его первым дизайном «под массовое производство» и говорит о подготовке линий со стартом до конца 2026 и целевой мощностью 1 млн роботов в год.
Эксперты говорят, что Маск снова пытается продать инвесторам "железо" вперёд "софта", как это уже было с беспилотными авто. На текущем этапе развития пристроить роботов на производстве не могут (или не хотят) даже в самой Tesla.
@anti_robots
На звонке по итогам Tesla за Q4 2025 Илон Маск внезапно признал: прямо сейчас в заводах Tesla нет ни одного фирменного робота, который делал бы «полезную работу». И прозвучало это особенно контрастно на фоне прежних заявлений. В июне 2024 официальный аккаунт Tesla уверял про «два Optimus, автономно выполняющих задачи на фабрике», а на собрании акционеров Маск обещал к 2025 уже «одну–две тысячи» роботов в производстве.
В январе 2025 план стал ещё смелее: «примерно 10 тысяч» роботов «в этом году», и «несколько тысяч» — «полезны к концу года». Теперь же версия такая: проект «всё ещё на ранней стадии», «в R&D», старые версии уходят на покой, а «материально» на фабриках робот не используется; заметные объёмы производства — «вероятно, к концу этого года».
Дальше — знакомый паттерн: в 2025 Tesla так и не приблизилась к «тысячам» произведённых Optimus (не было признаков даже «сотен»), а на прямой вопрос «сколько роботов есть» Маск на звонке не ответил. Публичные демонстрации до сих пор сводились к простым задачам вроде раздачи бутылок воды — и с сильной опорой на телеуправление, а не автономность.
При этом в свежем апдейте для акционеров Tesla обещает в Q1 показать Optimus Gen 3 (апгрейды относительно v2.5, включая новый дизайн руки), называет его первым дизайном «под массовое производство» и говорит о подготовке линий со стартом до конца 2026 и целевой мощностью 1 млн роботов в год.
Эксперты говорят, что Маск снова пытается продать инвесторам "железо" вперёд "софта", как это уже было с беспилотными авто. На текущем этапе развития пристроить роботов на производстве не могут (или не хотят) даже в самой Tesla.
@anti_robots
Electrek
Musk admits no Optimus robots are doing 'useful work' at Tesla — after claiming otherwise
Elon Musk admitted on Tesla’s Q4 2025 earnings call today that the company doesn’t have any Optimus robots doing useful...
👍1
Никто на рынке не знает, как сделать роботов достаточно умными, чтобы быть полезными
По крайней мере, так считает Ян ЛеКун. Одних из главных исследователей в области ИИ в очередной раз поспорил с Илоном Маском о том, кто на самом деле понимает, как сделать многочисленные Unitree и другие шасси действительно эффективными в быту и на производстве — а то типичный робот не сможет даже заварить вам кофе.
В исходном видео звучит следующая мысль:
Как решить проблему? Через «модели мира», которыми активно занимаются лидеры рынка. Как бывший сотрудник Meta*, ЛеКун очевидно вспоминает про V-JEPA (Joint Embedding Predictive Architecture) — последнюю версию прямо позиционировали как способ научить ИИ "думать" в физическом пространстве, "понимая" физические правила через заучивание паттернов.
Аналогичными проектами занимаются Nvidia, Google и ряд стартапов. Но вот в Tesla, по крайней мере публично, этим озаботиться не успели. Маск больше занят своими попытками слить в одно бизнес SpaceX с Tesla и xAI; видимо, чтобы отправить Optimus сразу в космос...
* Meta признана в России экстремистской и запрещена
@anti_robots
По крайней мере, так считает Ян ЛеКун. Одних из главных исследователей в области ИИ в очередной раз поспорил с Илоном Маском о том, кто на самом деле понимает, как сделать многочисленные Unitree и другие шасси действительно эффективными в быту и на производстве — а то типичный робот не сможет даже заварить вам кофе.
В исходном видео звучит следующая мысль:
«17-летнему человеку достаточно 10-20 часов практики, чтобы научиться водить. Мы же имеем миллионы часов датасетов. В теории через имитацию имитации и ML можно научить машину водить, как человек, но надёжного результата не выходит.
В то же время много компаний строят гуманоидных роботов, которые показывают навыки кунг-фу и прочие впечатляющие вещи. Но это предзаписанные действия. А миллионы часов записей пригождаются лишь для того, чтобы эта сложная техника научилась выполнять несколько узких задач.
У этих роботов нет понимания "здравого смысла" даже на уровне вашего кота. Что уж говорить о человеке. Главный вызов следующих нескольких лет — дать машинам понимание окружающего мира. Языковые подходы здесь не работают».
Как решить проблему? Через «модели мира», которыми активно занимаются лидеры рынка. Как бывший сотрудник Meta*, ЛеКун очевидно вспоминает про V-JEPA (Joint Embedding Predictive Architecture) — последнюю версию прямо позиционировали как способ научить ИИ "думать" в физическом пространстве, "понимая" физические правила через заучивание паттернов.
Аналогичными проектами занимаются Nvidia, Google и ряд стартапов. Но вот в Tesla, по крайней мере публично, этим озаботиться не успели. Маск больше занят своими попытками слить в одно бизнес SpaceX с Tesla и xAI; видимо, чтобы отправить Optimus сразу в космос...
* Meta признана в России экстремистской и запрещена
@anti_robots
Китай готовится побить рекорд по продаже роботов
Аналитики Morgan Stanley ждут, что в 2026 продажи человекоподобных роботов в стране вырастут на 133% — до 28 тысяч штук (хотя ещё недавно банк закладывал примерно вдвое меньше). На фоне масштабирования производства падает и себестоимость компонентов: в этом году — на 16%, а Bain & Co вообще обещает к 2035 почти −70%.
Цены тоже должны пойти на спад: в Китае от $50 тысяч в 2024 году до $21 тысяч к середине века, в США — с $200 до $75 тысяч. Роботы станут доступнее даже для стран с невысокими доходами — а вот кто и как будет считать экономику внедрения, вопрос открытый.
По прогнозу банка, к 2036 в эксплуатации окажется около 25,4 млн человекоподобных роботов: это лишь 2% рынка, но дальше начинается экспонента — 13% к 2040-м и 42% к 2044 году.
В 2026 году из всех введённых в эксплуатацию таких роботов 80% придётся на Китай . Bain ожидает, что ближайшие «естественные среды обитания» — автопром, добыча и стройка, а бытовое применение — не раньше 2035 года.
И да, место для специализированных роботов никуда не денется: узкие повторяющиеся операции они часто делают выгоднее и быстрее по эффекту. По продажам картина такая: 12 тысяч в прошлом году, 28 тысяч в этом, 262 тысячи к 2030-му и 2,6 млн к 2035 году.
@anti_robots
Аналитики Morgan Stanley ждут, что в 2026 продажи человекоподобных роботов в стране вырастут на 133% — до 28 тысяч штук (хотя ещё недавно банк закладывал примерно вдвое меньше). На фоне масштабирования производства падает и себестоимость компонентов: в этом году — на 16%, а Bain & Co вообще обещает к 2035 почти −70%.
Цены тоже должны пойти на спад: в Китае от $50 тысяч в 2024 году до $21 тысяч к середине века, в США — с $200 до $75 тысяч. Роботы станут доступнее даже для стран с невысокими доходами — а вот кто и как будет считать экономику внедрения, вопрос открытый.
По прогнозу банка, к 2036 в эксплуатации окажется около 25,4 млн человекоподобных роботов: это лишь 2% рынка, но дальше начинается экспонента — 13% к 2040-м и 42% к 2044 году.
В 2026 году из всех введённых в эксплуатацию таких роботов 80% придётся на Китай . Bain ожидает, что ближайшие «естественные среды обитания» — автопром, добыча и стройка, а бытовое применение — не раньше 2035 года.
И да, место для специализированных роботов никуда не денется: узкие повторяющиеся операции они часто делают выгоднее и быстрее по эффекту. По продажам картина такая: 12 тысяч в прошлом году, 28 тысяч в этом, 262 тысячи к 2030-му и 2,6 млн к 2035 году.
@anti_robots
South China Morning Post
China’s humanoid robot sales to double this year as costs fall: Morgan Stanley
The US investment bank revises its China robot sales forecast to 28,000 units this year, while it sees parts prices falling 16 per cent.
Media is too big
VIEW IN TELEGRAM
Всё, что остаётся — только идти
Unitree решила доказать надёжность своего гуманоидного G1 в условиях, где обычно проверяют не роботов, а здравый смысл: машина прошла 130 тысяч шагов по снегу при -47,4°C в районе Алтая (Синьцзян), «нарисовав» эмблему зимней Олимпиады размером 186 × 100 метров.
В отчёте это называют первым случаем автономной ходьбы гуманоидного робота в экстремальном холоде. Навигацию с сантиметровой точностью обеспечивала спутниковая система Beidou. Именно адаптивное планирование маршрута позволило не превратить робота в дорогую статую.
@anti_robots
Unitree решила доказать надёжность своего гуманоидного G1 в условиях, где обычно проверяют не роботов, а здравый смысл: машина прошла 130 тысяч шагов по снегу при -47,4°C в районе Алтая (Синьцзян), «нарисовав» эмблему зимней Олимпиады размером 186 × 100 метров.
В отчёте это называют первым случаем автономной ходьбы гуманоидного робота в экстремальном холоде. Навигацию с сантиметровой точностью обеспечивала спутниковая система Beidou. Именно адаптивное планирование маршрута позволило не превратить робота в дорогую статую.
@anti_robots
Forwarded from Нецифровая экономика (Илья Склюев)
На что годятся складские роботы
В 2024 году российский бизнес полностью роботизировал 5,9% складских площадей. К концу 2025-го показатель подрос уже до 7,2%. И хоть все повсеместно говорят о роботизации, внедрять такие решения на горизонте до 2027 года планируют около 26% компаний. Такие данные озвучил исполнительный директор Координационного совета по логистике (КСЛ) Василий Демин на конференции «Роботизация предприятий 2026». По оценке КСЛ, вот в каких роботах сейчас нуждается бизнес 👆
На встрече участники рынка также рассказали, какие именно решения они внедряют:
▪️ Яндекс подключил к одному из московских дарксторов Лавки свою YRMS-систему. Она контролирует работу 12 автономных мобильных роботов (AMR), которые перевозят стеллажи с товарами к сотрудникам, и 8 станций консолидации. Как утверждает директор по развитию бизнеса Яндекс Роботикс Егор Клушин, решение позволило повысить на 30% скорость комплектации заказов и на 15% — плотность хранения. Ранее мы даже делали обзор на внутрянку этого склада.
▪️ Холдинг «Свеза» по производству картона, бумаги и фанеры задействует на складах автоматические управляемые тележки (AGV) для перемещения палет по строго заданным маршрутам и роботов-манипуляторов для покраски торцов, сканера дефектов и починки шпона. По словам директора по развитию бизнес системы Николая Городецкого, решения «экономят» более 1500 отработанных рабочих часов в год.
▪️ Директор по логистике многопрофильного дистрибьютора Single Source Supplies (S3) Вадим Урин рассказал, что на складах компании уже работают AMR- и AGV-роботы, а также автономные вилочные погрузчики (FMR), комплектовщики (CTU), сортировщики (ACR) и комплектаторы (Pick and Place). За последние 1,5 года одни только 10 автоматических покрасочных роботов (APR) помогли сократить 8 штатных единиц (44 чел/ч в сутки).
При этом суммарную ёмкость отечественного рынка роботизации складов на ближайшие пять лет КСЛ оценивает в 230 млрд руб. В прошлом году компании инвестировали из этой суммы 37 млрд руб. и ещё около 29 млрд руб. планируется вложить в текущем.
Дарья Соловьёва, специально для @antidigital
В 2024 году российский бизнес полностью роботизировал 5,9% складских площадей. К концу 2025-го показатель подрос уже до 7,2%. И хоть все повсеместно говорят о роботизации, внедрять такие решения на горизонте до 2027 года планируют около 26% компаний. Такие данные озвучил исполнительный директор Координационного совета по логистике (КСЛ) Василий Демин на конференции «Роботизация предприятий 2026». По оценке КСЛ, вот в каких роботах сейчас нуждается бизнес 👆
На встрече участники рынка также рассказали, какие именно решения они внедряют:
При этом суммарную ёмкость отечественного рынка роботизации складов на ближайшие пять лет КСЛ оценивает в 230 млрд руб. В прошлом году компании инвестировали из этой суммы 37 млрд руб. и ещё около 29 млрд руб. планируется вложить в текущем.
Дарья Соловьёва, специально для @antidigital
Please open Telegram to view this post
VIEW IN TELEGRAM
Сбер представил Green-VLA — открытое руководство по созданию архитектуры управления роботами
VLA (Vision-Language-Action) — это класс моделей, которые одновременно видят картинку, понимают текстовую команду и сразу выдают действия для робота: куда тянуть манипулятор, когда закрывать захват, как повернуться и так далее. Но их интеграция на практике требует тщательной проработки методологии и синхронизации с "железом".
Поэтому в Сбере разработали фреймворк Green-VLA, описывающий архитектуру управления на примере робота Грина. Чтобы она работала в реальном мире, авторы обучают систему по шагам:
Для обучения они построили конвейер обработки данных и собрали примерно 3 тысячи часов демонстраций: записи того, как роботы выполняют задачи. Эти данные они чистят, приводят к одному темпу и формату, а управление делают единым интерфейсом, чтобы одна и та же модель могла управлять гуманоидом, мобильным манипулятором и стационарной рукой.
На этапе работы (когда робот уже выполняет задачи) систему дополняют “страховками”:
▪️ она оценивает, как продвигается задача и когда пора переходить к следующему шагу;
▪️ пытается понять, не попала ли она в незнакомую ситуацию (где может ошибиться);
▪️ и использует подсказки, чтобы точнее выбирать цель — например, какой именно предмет взять или куда именно тянуть руку.
В тестах на популярных наборах задач и на реальном роботе авторы показывают, что финальный этап “дожима” через обучение с подкреплением заметно улучшает процент успеха, устойчивость и способность выполнять длинные цепочки действий без развала.
Green-VLA позиционируется как открытая методология обучения, а не готовый универсальный контроллер для роботов. С отчётом можно ознакомиться на arXiv и Hugging Face. Отмечают, что материал занял первое место среди статей дня на портале Hugging Face, обогнав работы Moonshot AI и совместные исследования китайских и американских университетов.
@anti_robots
VLA (Vision-Language-Action) — это класс моделей, которые одновременно видят картинку, понимают текстовую команду и сразу выдают действия для робота: куда тянуть манипулятор, когда закрывать захват, как повернуться и так далее. Но их интеграция на практике требует тщательной проработки методологии и синхронизации с "железом".
Поэтому в Сбере разработали фреймворк Green-VLA, описывающий архитектуру управления на примере робота Грина. Чтобы она работала в реальном мире, авторы обучают систему по шагам:
Сначала учат модель хорошо понимать изображение и текст; потом — связывать слова с объектами и действиями в сцене; затем — учат на большом наборе записей, как действуют разные роботы; потом — подгоняют под конкретного робота; и в конце — “дожимают” обучение так, чтобы поведение стало надёжнее (через обучение с подкреплением).
Для обучения они построили конвейер обработки данных и собрали примерно 3 тысячи часов демонстраций: записи того, как роботы выполняют задачи. Эти данные они чистят, приводят к одному темпу и формату, а управление делают единым интерфейсом, чтобы одна и та же модель могла управлять гуманоидом, мобильным манипулятором и стационарной рукой.
На этапе работы (когда робот уже выполняет задачи) систему дополняют “страховками”:
В тестах на популярных наборах задач и на реальном роботе авторы показывают, что финальный этап “дожима” через обучение с подкреплением заметно улучшает процент успеха, устойчивость и способность выполнять длинные цепочки действий без развала.
Green-VLA позиционируется как открытая методология обучения, а не готовый универсальный контроллер для роботов. С отчётом можно ознакомиться на arXiv и Hugging Face. Отмечают, что материал занял первое место среди статей дня на портале Hugging Face, обогнав работы Moonshot AI и совместные исследования китайских и американских университетов.
@anti_robots
Please open Telegram to view this post
VIEW IN TELEGRAM
В Госдуме прописали первое регулирование для роботов
Автором законопроекта выступил первый зампред комитета Госдумы по региональной политике и местному (пока не роботизированному) самоуправлению Сергей Морозов. Об этом он рассказал на форуме «Робототехника, интеллект машин и механизмов 2026».
На общественное обсуждение документ обещают вынести до конца февраля, затем — внести в нижнюю палату; при этом текущая версия ещё не обсуждалась в комитете, хотя текст писали вместе с отраслью и общественными объединениями, а компании зовут подключаться к доработке.
Внутри, по словам Морозова, — «комплексная» правовая база на весь жизненный цикл (от НИОКР до серийного производства и безопасной эксплуатации), определения ключевых терминов (робототехническая система, ИИ и др.), принцип приоритета безопасности человека, обязательное страхование гражданской ответственности для систем повышенного риска и поддержка отечественных разработчиков.
Отдельно подчёркнуто: юридическая ответственность «всегда остаётся за человеком». Видимо, если ошибётся алгоритм, палкой будут бить непосредственно разработчика. В этом контексте можно вспомнить новости об очередной итерации законопроекта по беспилотным ТС — там как раз сделали упор на ответственность за ДТП.
Параллельно законопроект пытается быть не только «про запреты», но и про стимулы: меры по поддержке НИОКР, подготовке кадров и внедрению роботов, плюс новые правовые статусы для организаций со стратегическими инвестициями (чтобы открыть доступ к адресной поддержке) и для специализированных территорий вроде технопарков робототехники. Ещё обещают закрепить «регуляторные песочницы» и основы международного технологического сотрудничества.
Впрочем, пока всё это писано лишь вилами по воде. Ждём публикацию проекта и отзывы отрасли.
@anti_robots
Автором законопроекта выступил первый зампред комитета Госдумы по региональной политике и местному (пока не роботизированному) самоуправлению Сергей Морозов. Об этом он рассказал на форуме «Робототехника, интеллект машин и механизмов 2026».
На общественное обсуждение документ обещают вынести до конца февраля, затем — внести в нижнюю палату; при этом текущая версия ещё не обсуждалась в комитете, хотя текст писали вместе с отраслью и общественными объединениями, а компании зовут подключаться к доработке.
Внутри, по словам Морозова, — «комплексная» правовая база на весь жизненный цикл (от НИОКР до серийного производства и безопасной эксплуатации), определения ключевых терминов (робототехническая система, ИИ и др.), принцип приоритета безопасности человека, обязательное страхование гражданской ответственности для систем повышенного риска и поддержка отечественных разработчиков.
Отдельно подчёркнуто: юридическая ответственность «всегда остаётся за человеком». Видимо, если ошибётся алгоритм, палкой будут бить непосредственно разработчика. В этом контексте можно вспомнить новости об очередной итерации законопроекта по беспилотным ТС — там как раз сделали упор на ответственность за ДТП.
Параллельно законопроект пытается быть не только «про запреты», но и про стимулы: меры по поддержке НИОКР, подготовке кадров и внедрению роботов, плюс новые правовые статусы для организаций со стратегическими инвестициями (чтобы открыть доступ к адресной поддержке) и для специализированных территорий вроде технопарков робототехники. Ещё обещают закрепить «регуляторные песочницы» и основы международного технологического сотрудничества.
Впрочем, пока всё это писано лишь вилами по воде. Ждём публикацию проекта и отзывы отрасли.
@anti_robots
Ведомости
Госдума написала свой закон для роботов и андроидов
Он должен закрепить за человеком юридическую ответственность за инциденты с робототехническими системами
This media is not supported in your browser
VIEW IN TELEGRAM
Просчитать логистику тысячи роботов на ходу поможет CAMAR
Исследователи из AIRI и МФТИ представили новую среду для ля обучения и тестирования алгоритмов управления тысячами автономных агентов одновременно. Такие сценарии характерны для автоматизации складов, городской логистики и систем автономного транспорта.
В рамках CAMAR разработчик может задавать собственные правила движения агентов и создавать разные типы карт — от простых складских помещений до плотной городской застройки. Система поддерживает корректную работу с 800 и более роботами и может одновременно просчитывать более 100 тысяч шагов движения в секунду.
CAMAR позволяет сравнивать разные подходы к управлению: как основанные на ML методы, так и классические алгоритмы поиска маршрута. Кроме того, поддерживаются гибридные решения, где традиционные методы и обучение работают совместно. Это даёт возможность объективно оценивать, какие стратегии лучше справляются с конкретными задачами.
Проект распространяется как open-source под лицензией MIT и доступен для исследователей и компаний. Почитать подробнее о том, как работает технология, можно в статье на arXiv.
@anti_robots
Исследователи из AIRI и МФТИ представили новую среду для ля обучения и тестирования алгоритмов управления тысячами автономных агентов одновременно. Такие сценарии характерны для автоматизации складов, городской логистики и систем автономного транспорта.
В рамках CAMAR разработчик может задавать собственные правила движения агентов и создавать разные типы карт — от простых складских помещений до плотной городской застройки. Система поддерживает корректную работу с 800 и более роботами и может одновременно просчитывать более 100 тысяч шагов движения в секунду.
CAMAR позволяет сравнивать разные подходы к управлению: как основанные на ML методы, так и классические алгоритмы поиска маршрута. Кроме того, поддерживаются гибридные решения, где традиционные методы и обучение работают совместно. Это даёт возможность объективно оценивать, какие стратегии лучше справляются с конкретными задачами.
«В CAMAR агенты действуют через непрерывное управление, в среде есть коллекция процедурно генерируемых карт, поддержка гетерогенных агентов, и при этом работает быстро - ~100k шагов в секунду внутри jax.jit. Мы также предлагаем евал-протокол, чтобы трекать прогресс по этой задаче, ну и пробенчили основные RL алгоритмы и их гибриды с классическим RRT* планировщиком», — пояснили разработчики.
Проект распространяется как open-source под лицензией MIT и доступен для исследователей и компаний. Почитать подробнее о том, как работает технология, можно в статье на arXiv.
@anti_robots
❤1
Нероботы
Просчитать логистику тысячи роботов на ходу поможет CAMAR Исследователи из AIRI и МФТИ представили новую среду для ля обучения и тестирования алгоритмов управления тысячами автономных агентов одновременно. Такие сценарии характерны для автоматизации складов…
Работа была принята на AAAI-2026 и получила Best Poster Award среди более чем 24 тысяч поданных исследований и 4 000 тысяч. Сам постер — в приложении 👆
@anti_robots
@anti_robots
❤1
Игроки в Pokémon Go обучили роботов
Когда в Pokémon Go в 2016 году играли сотни миллионов людей, казалось, что это просто глобальная истерия вокруг дополненной реальности. Игроки бродили по улицам, наводя камеры телефонов на здания, площади и памятники в надежде поймать виртуального покемона. Но спустя почти десятилетие выясняется, что эта массовая «охота» создала один из самых ценных наборов данных для робототехники.
Игра была разработана компанией Niantic, а сегодня её технологическое наследие развивает новая структура — Niantic Spatial. За годы существования игр вроде Pokémon Go и Ingress пользователи сделали миллиарды фотографий городских пространств. Каждое изображение сопровождалось точными метаданными: координатами телефона, углом камеры, направлением движения и даже скоростью. В сумме это превратилось в уникальную базу из примерно 30 миллиардов изображений городской среды.
Теперь эти данные используются для создания так называемой системы визуального позиционирования — технологии, которая определяет местоположение не по GPS, а по тому, что «видит» камера. Новая модель Niantic Spatial может определить положение устройства с точностью до нескольких сантиметров, просто анализируя несколько фотографий окружающих зданий или других ориентиров.
Это особенно важно для городских роботов. Стартап Coco Robotics уже тестирует эту технологию на своих автономных курьерах — небольших роботах, которые развозят еду и продукты в городах вроде Лос-Анджелеса, Чикаго и Хельсинки. Роботы движутся по тротуарам со скоростью около 8 км/ч и могут перевозить несколько коробок пиццы или пакеты с продуктами. Но для них главная проблема — навигация.
В плотной городской застройке GPS часто ошибается. Сигналы отражаются от высотных зданий и создают так называемый «городской каньон», где позиция на карте может «прыгать» на десятки метров. Для человека это просто раздражающий баг синей точки на карте. Для робота-курьера — риск застрять не на той улице или подъехать к ресторану с другой стороны квартала.
Технология Niantic Spatial позволяет роботам использовать камеры как систему ориентации: сравнивая окружающую картинку с огромной базой изображений, они могут точно понять, где находятся. Это помогает подъезжать к нужному входу ресторана, останавливаться прямо у двери клиента и не мешать прохожим.
Интересно, что изначально компания разрабатывала эту систему ради будущих AR-очков. Чтобы виртуальные объекты выглядели реалистично, система должна идеально понимать, где пользователь стоит и куда смотрит. Но, как признают разработчики, неожиданной аудиторией для этой технологии стали роботы.
Фактически Niantic Spatial пытается построить то, что её основатели называют «живой картой» мира — гипердетальную цифровую модель реальности, которая постоянно обновляется. Роботы, двигаясь по городам, будут добавлять новые данные и уточнять карту. В результате появится не просто навигационная система, а своего рода цифровой двойник мира.
В этом и состоит новая идея так называемых world models — моделей, которые позволяют искусственному интеллекту понимать физическую реальность, а не только тексты и изображения. Пока большие языковые модели хорошо работают с информацией, но плохо ориентируются в реальном пространстве. Чтобы роботы могли безопасно ходить по тротуарам или работать на стройках, им нужно не только «знать», но и буквально понимать, как устроен мир вокруг.
Парадокс в том, что фундамент для такой машинной карты мира заложили миллионы людей, которые просто гуляли по улицам, пытаясь поймать виртуального Пикачу. В итоге игра, задуманная как развлечение, оказалась гигантским проектом по картографированию реальности — и, возможно, одной из самых неожиданных инфраструктур для будущей робототехники.
@anti_robots
Когда в Pokémon Go в 2016 году играли сотни миллионов людей, казалось, что это просто глобальная истерия вокруг дополненной реальности. Игроки бродили по улицам, наводя камеры телефонов на здания, площади и памятники в надежде поймать виртуального покемона. Но спустя почти десятилетие выясняется, что эта массовая «охота» создала один из самых ценных наборов данных для робототехники.
Игра была разработана компанией Niantic, а сегодня её технологическое наследие развивает новая структура — Niantic Spatial. За годы существования игр вроде Pokémon Go и Ingress пользователи сделали миллиарды фотографий городских пространств. Каждое изображение сопровождалось точными метаданными: координатами телефона, углом камеры, направлением движения и даже скоростью. В сумме это превратилось в уникальную базу из примерно 30 миллиардов изображений городской среды.
Теперь эти данные используются для создания так называемой системы визуального позиционирования — технологии, которая определяет местоположение не по GPS, а по тому, что «видит» камера. Новая модель Niantic Spatial может определить положение устройства с точностью до нескольких сантиметров, просто анализируя несколько фотографий окружающих зданий или других ориентиров.
Это особенно важно для городских роботов. Стартап Coco Robotics уже тестирует эту технологию на своих автономных курьерах — небольших роботах, которые развозят еду и продукты в городах вроде Лос-Анджелеса, Чикаго и Хельсинки. Роботы движутся по тротуарам со скоростью около 8 км/ч и могут перевозить несколько коробок пиццы или пакеты с продуктами. Но для них главная проблема — навигация.
В плотной городской застройке GPS часто ошибается. Сигналы отражаются от высотных зданий и создают так называемый «городской каньон», где позиция на карте может «прыгать» на десятки метров. Для человека это просто раздражающий баг синей точки на карте. Для робота-курьера — риск застрять не на той улице или подъехать к ресторану с другой стороны квартала.
Технология Niantic Spatial позволяет роботам использовать камеры как систему ориентации: сравнивая окружающую картинку с огромной базой изображений, они могут точно понять, где находятся. Это помогает подъезжать к нужному входу ресторана, останавливаться прямо у двери клиента и не мешать прохожим.
Интересно, что изначально компания разрабатывала эту систему ради будущих AR-очков. Чтобы виртуальные объекты выглядели реалистично, система должна идеально понимать, где пользователь стоит и куда смотрит. Но, как признают разработчики, неожиданной аудиторией для этой технологии стали роботы.
Фактически Niantic Spatial пытается построить то, что её основатели называют «живой картой» мира — гипердетальную цифровую модель реальности, которая постоянно обновляется. Роботы, двигаясь по городам, будут добавлять новые данные и уточнять карту. В результате появится не просто навигационная система, а своего рода цифровой двойник мира.
В этом и состоит новая идея так называемых world models — моделей, которые позволяют искусственному интеллекту понимать физическую реальность, а не только тексты и изображения. Пока большие языковые модели хорошо работают с информацией, но плохо ориентируются в реальном пространстве. Чтобы роботы могли безопасно ходить по тротуарам или работать на стройках, им нужно не только «знать», но и буквально понимать, как устроен мир вокруг.
Парадокс в том, что фундамент для такой машинной карты мира заложили миллионы людей, которые просто гуляли по улицам, пытаясь поймать виртуального Пикачу. В итоге игра, задуманная как развлечение, оказалась гигантским проектом по картографированию реальности — и, возможно, одной из самых неожиданных инфраструктур для будущей робототехники.
@anti_robots
MIT Technology Review
How Pokémon Go is giving delivery robots an inch-perfect view of the world
Niantic's AI spinout is training a new world model using 30 billion images of urban landmarks crowdsourced from players.
🔥1
Роботы присмотрят за американским флотом
Стартап Gecko Robotics подписал крупнейший для себя контракт с ВМФ США. Сделка оформлена как пятилетний контракт с первоначальным объёмом $54 млн и потолком $71 млн.
Компания отправит своих роботов, умеющих шустро ползать по вертикальным поверхностям, осматривать корабли и собирать максимально подробные данные об их состоянии. Они будут забираться в труднодоступные места, сканируя металл, сварные швы и конструкции. На основе этих данных будет создана цифровая модель корабля — digital twin, которую можно будет превратить в живую карту состояния судна: система отслеживает износ, прогнозирует поломки и подсказывает, когда и что нужно ремонтировать.
Начнут с 18 кораблей Тихоокеанского флота, но замысел проекта гораздо шире. Сегодня в любой момент времени примерно 40% кораблей ВМС США находятся вне строя из-за долгих и дорогих циклов обслуживания. Ежегодные расходы на это оцениваются в $13–20 млрд. Но если постоянно мониторить состояние оборудования с помощью роботов и сенсоров, можно перейти от ремонта по факту поломки к предиктивному — устранять проблемы ещё до того, как корабль отправится на месяцы в док.
Цель — к 2027 году довести готовность кораблей до 80%, и без автоматизации обслуживания это почти невозможно.
@anti_robots
Стартап Gecko Robotics подписал крупнейший для себя контракт с ВМФ США. Сделка оформлена как пятилетний контракт с первоначальным объёмом $54 млн и потолком $71 млн.
Компания отправит своих роботов, умеющих шустро ползать по вертикальным поверхностям, осматривать корабли и собирать максимально подробные данные об их состоянии. Они будут забираться в труднодоступные места, сканируя металл, сварные швы и конструкции. На основе этих данных будет создана цифровая модель корабля — digital twin, которую можно будет превратить в живую карту состояния судна: система отслеживает износ, прогнозирует поломки и подсказывает, когда и что нужно ремонтировать.
Начнут с 18 кораблей Тихоокеанского флота, но замысел проекта гораздо шире. Сегодня в любой момент времени примерно 40% кораблей ВМС США находятся вне строя из-за долгих и дорогих циклов обслуживания. Ежегодные расходы на это оцениваются в $13–20 млрд. Но если постоянно мониторить состояние оборудования с помощью роботов и сенсоров, можно перейти от ремонта по факту поломки к предиктивному — устранять проблемы ещё до того, как корабль отправится на месяцы в док.
Цель — к 2027 году довести готовность кораблей до 80%, и без автоматизации обслуживания это почти невозможно.
@anti_robots
TechCrunch
Gecko Robotics lands the largest U.S. Navy robotics deal yet | TechCrunch
Gecko Robotics inked a five-year deal to help the U.S. Navy monitor and predict needed maintenance on its fleet of ships.
🫡1
300 ГБ RAM на каждую машину и робота: Micron считает растущую выручку
Память в последние годы оказалась не скучной комплектухой, а почти новой нефтью AI-эпохи. Вот и Micron отчиталась за второй квартал 2026 года так, будто продаёт не DRAM и NAND, а билеты в дефицитное будущее.
Выручка компании за Q2 2026 составила $23,86 млрд против $8,05 млрд годом ранее. По сравнению с прошлым кварталом Micron прибавила больше $10 млрд выручки — редкий аттракцион даже по меркам нынешнего ИИ-бума. Чистая прибыль выросла до $13,79 млрд против $1,58 млрд прошлого года, а в следующем квартале компания ждёт уже $33,5 млрд выручки против $9,3 млрд год назад.
Самая яркая часть истории — прогноз по «железному аппетиту» будущих устройств. По оценке CEO Санджая Мехротры, если автопром всерьёз пойдёт в L4-автономность, то объём памяти в машине может вырасти с нынешних примерно 16 ГБ до более чем 300 ГБ. И примерно такой же вычислительный класс, по его мнению, потребуется роботам: рынок робототехники Micron вообще видит как потенциальный 20-летний вектор роста.
Рынок, впрочем, на такой праздник жизни отреагировал без шампанского: акции Micron после отчёта быстро пошли на спад. По данным Reuters, инвесторов смутило прежде всего увеличение плана капзатрат на 2026 финансовый год более чем до $25 млрд и обещания продолжать в том же духе в 2027 году. Большие ставки при долгой игре впечатлили не всех.
@anti_robots
Память в последние годы оказалась не скучной комплектухой, а почти новой нефтью AI-эпохи. Вот и Micron отчиталась за второй квартал 2026 года так, будто продаёт не DRAM и NAND, а билеты в дефицитное будущее.
Выручка компании за Q2 2026 составила $23,86 млрд против $8,05 млрд годом ранее. По сравнению с прошлым кварталом Micron прибавила больше $10 млрд выручки — редкий аттракцион даже по меркам нынешнего ИИ-бума. Чистая прибыль выросла до $13,79 млрд против $1,58 млрд прошлого года, а в следующем квартале компания ждёт уже $33,5 млрд выручки против $9,3 млрд год назад.
Самая яркая часть истории — прогноз по «железному аппетиту» будущих устройств. По оценке CEO Санджая Мехротры, если автопром всерьёз пойдёт в L4-автономность, то объём памяти в машине может вырасти с нынешних примерно 16 ГБ до более чем 300 ГБ. И примерно такой же вычислительный класс, по его мнению, потребуется роботам: рынок робототехники Micron вообще видит как потенциальный 20-летний вектор роста.
Рынок, впрочем, на такой праздник жизни отреагировал без шампанского: акции Micron после отчёта быстро пошли на спад. По данным Reuters, инвесторов смутило прежде всего увеличение плана капзатрат на 2026 финансовый год более чем до $25 млрд и обещания продолжать в том же духе в 2027 году. Большие ставки при долгой игре впечатлили не всех.
@anti_robots
The Register
Your next car might need 300 GB of RAM, and so will autonomous robots
: Micron plans to cash in, after already growing revenue $10 billion in a single quarter
🔥1
