Нероботы
42 subscribers
6 photos
1 video
12 links
Download Telegram
Channel created
Channel photo updated
Суставы без людей: «машины делают машины» по‑шанхайски

Пока Илон Маск из Tesla повторяет мантру про Optimus и «машины должны делать машины», китайцы решили не спорить, а просто начать с самого приземлённого — деталей. Компания Eyou Robot Technology заявила, что первой в мире запустила в Шанхае полностью автоматическое производство «суставов» (шарнирных сочленений) для человекоподобных роботов — без участия человека. Площадку официально открыли на прошлой неделе, текущая мощность — 100 тысяч сочленений в год, а дальше план — утроить объёмы.

Eyou Robot Technology основана в 2018 году, к массовому выпуску комплектующих приступила в 2023-м, а в прошлом году поставки превысили 95 тысяч штук. Эти «суставы» уже идут многим китайским производителям, включая AgiBot. При этом отрасль признаёт: робототехника вряд ли будет развиваться «как автопром» — там всё шло плавно, а здесь ждут взрывной спрос, как только решат ключевые технологические проблемы.

Cами производители, вроде UBTech, считают, что производительность труда роботов составляет лишь 30-50 % от человеческой, причём только в довольно специфических операциях типа складывания коробок и контроля качества продукции. Но всё ещё впереди: так, UBTech приоритетной для себя задачей на этот год считает разработку полнофункциональной кисти, не уступающей человеческой руке по возможностям.

@anti_robots
Atlas расправил плечи — и посоветовал профсоюзам не играть в луддистов

В Эр-Рияде на полях Global Labor Market Conference чиновник Международной организации труда (МОТ) Ли Сан Хон посоветовал работникам Hyundai Motor не пытаться «запретить будущее», а прокачивать навыки, которые пригодятся и после выхода на линию роботов-гуманоидов.

Ранее местный профсоюз заявил, что «ни один робот» не появится на производстве без соглашения с менеджментом — после презентации Atlas на CES 2026 и планов поставить их на сборочные линии уже к 2028 году. Но чиновник МОТ назвал это «нереалистичным» и просто переговорной тактикой.


Ли Сан Хон напомнил: у Kia роботы уже помогают собирать электромобили в Кванмёне, а массовых сокращений не случилось. Его рецепт — не платить людям «за ничегонеделание», а выстроить нормальную перераспределённую занятость после автоматизации: даже старшим сотрудникам стоит осваивать новые компетенции, потому что роботов всё равно придётся обслуживать и обновлять.

На фото: робот Atlas берёт в руки автозапчасть на выставочном стенде Hyundai Motor на выставке CES 2026 в Лас-Вегасе, 8 января

@anti_robots
На заводах Tesla не нашлось ни одного работающего Optimus

На звонке по итогам Tesla за Q4 2025 Илон Маск внезапно признал: прямо сейчас в заводах Tesla нет ни одного фирменного робота, который делал бы «полезную работу». И прозвучало это особенно контрастно на фоне прежних заявлений. В июне 2024 официальный аккаунт Tesla уверял про «два Optimus, автономно выполняющих задачи на фабрике», а на собрании акционеров Маск обещал к 2025 уже «одну–две тысячи» роботов в производстве.

В январе 2025 план стал ещё смелее: «примерно 10 тысяч» роботов «в этом году», и «несколько тысяч» — «полезны к концу года». Теперь же версия такая: проект «всё ещё на ранней стадии», «в R&D», старые версии уходят на покой, а «материально» на фабриках робот не используется; заметные объёмы производства — «вероятно, к концу этого года».

Дальше — знакомый паттерн: в 2025 Tesla так и не приблизилась к «тысячам» произведённых Optimus (не было признаков даже «сотен»), а на прямой вопрос «сколько роботов есть» Маск на звонке не ответил. Публичные демонстрации до сих пор сводились к простым задачам вроде раздачи бутылок воды — и с сильной опорой на телеуправление, а не автономность.

При этом в свежем апдейте для акционеров Tesla обещает в Q1 показать Optimus Gen 3 (апгрейды относительно v2.5, включая новый дизайн руки), называет его первым дизайном «под массовое производство» и говорит о подготовке линий со стартом до конца 2026 и целевой мощностью 1 млн роботов в год.

Эксперты говорят, что Маск снова пытается продать инвесторам "железо" вперёд "софта", как это уже было с беспилотными авто. На текущем этапе развития пристроить роботов на производстве не могут (или не хотят) даже в самой Tesla.

@anti_robots
👍1
Никто на рынке не знает, как сделать роботов достаточно умными, чтобы быть полезными

По крайней мере, так считает Ян ЛеКун. Одних из главных исследователей в области ИИ в очередной раз поспорил с Илоном Маском о том, кто на самом деле понимает, как сделать многочисленные Unitree и другие шасси действительно эффективными в быту и на производстве — а то типичный робот не сможет даже заварить вам кофе.

В исходном видео звучит следующая мысль:

«17-летнему человеку достаточно 10-20 часов практики, чтобы научиться водить. Мы же имеем миллионы часов датасетов. В теории через имитацию имитации и ML можно научить машину водить, как человек, но надёжного результата не выходит.

В то же время много компаний строят гуманоидных роботов, которые показывают навыки кунг-фу и прочие впечатляющие вещи. Но это предзаписанные действия. А миллионы часов записей пригождаются лишь для того, чтобы эта сложная техника научилась выполнять несколько узких задач.

У этих роботов нет понимания "здравого смысла" даже на уровне вашего кота. Что уж говорить о человеке. Главный вызов следующих нескольких лет — дать машинам понимание окружающего мира. Языковые подходы здесь не работают».


Как решить проблему? Через «модели мира», которыми активно занимаются лидеры рынка. Как бывший сотрудник Meta*, ЛеКун очевидно вспоминает про V-JEPA (Joint Embedding Predictive Architecture) — последнюю версию прямо позиционировали как способ научить ИИ "думать" в физическом пространстве, "понимая" физические правила через заучивание паттернов.

Аналогичными проектами занимаются Nvidia, Google и ряд стартапов. Но вот в Tesla, по крайней мере публично, этим озаботиться не успели. Маск больше занят своими попытками слить в одно бизнес SpaceX с Tesla и xAI; видимо, чтобы отправить Optimus сразу в космос...

* Meta признана в России экстремистской и запрещена

@anti_robots
Китай готовится побить рекорд по продаже роботов

Аналитики Morgan Stanley ждут, что в 2026 продажи человекоподобных роботов в стране вырастут на 133% — до 28 тысяч штук (хотя ещё недавно банк закладывал примерно вдвое меньше). На фоне масштабирования производства падает и себестоимость компонентов: в этом году — на 16%, а Bain & Co вообще обещает к 2035 почти −70%.

Цены тоже должны пойти на спад: в Китае от $50 тысяч в 2024 году до $21 тысяч к середине века, в США — с $200 до $75 тысяч. Роботы станут доступнее даже для стран с невысокими доходами — а вот кто и как будет считать экономику внедрения, вопрос открытый.

По прогнозу банка, к 2036 в эксплуатации окажется около 25,4 млн человекоподобных роботов: это лишь 2% рынка, но дальше начинается экспонента — 13% к 2040-м и 42% к 2044 году.

В 2026 году из всех введённых в эксплуатацию таких роботов 80% придётся на Китай . Bain ожидает, что ближайшие «естественные среды обитания» — автопром, добыча и стройка, а бытовое применение — не раньше 2035 года.

И да, место для специализированных роботов никуда не денется: узкие повторяющиеся операции они часто делают выгоднее и быстрее по эффекту. По продажам картина такая: 12 тысяч в прошлом году, 28 тысяч в этом, 262 тысячи к 2030-му и 2,6 млн к 2035 году.

@anti_robots
Media is too big
VIEW IN TELEGRAM
Всё, что остаётся — только идти

Unitree решила доказать надёжность своего гуманоидного G1 в условиях, где обычно проверяют не роботов, а здравый смысл: машина прошла 130 тысяч шагов по снегу при -47,4°C в районе Алтая (Синьцзян), «нарисовав» эмблему зимней Олимпиады размером 186 × 100 метров.

В отчёте это называют первым случаем автономной ходьбы гуманоидного робота в экстремальном холоде. Навигацию с сантиметровой точностью обеспечивала спутниковая система Beidou. Именно адаптивное планирование маршрута позволило не превратить робота в дорогую статую.

@anti_robots
Forwarded from Нецифровая экономика (Илья Склюев)
На что годятся складские роботы

В 2024 году российский бизнес полностью роботизировал 5,9% складских площадей. К концу 2025-го показатель подрос уже до 7,2%. И хоть все повсеместно говорят о роботизации, внедрять такие решения на горизонте до 2027 года планируют около 26% компаний. Такие данные озвучил исполнительный директор Координационного совета по логистике (КСЛ) Василий Демин на конференции «Роботизация предприятий 2026». По оценке КСЛ, вот в каких роботах сейчас нуждается бизнес 👆

На встрече участники рынка также рассказали, какие именно решения они внедряют:

▪️Яндекс подключил к одному из московских дарксторов Лавки свою YRMS-систему. Она контролирует работу 12 автономных мобильных роботов (AMR), которые перевозят стеллажи с товарами к сотрудникам, и 8 станций консолидации. Как утверждает директор по развитию бизнеса Яндекс Роботикс Егор Клушин, решение позволило повысить на 30% скорость комплектации заказов и на 15% — плотность хранения. Ранее мы даже делали обзор на внутрянку этого склада.

▪️Холдинг «Свеза» по производству картона, бумаги и фанеры задействует на складах автоматические управляемые тележки (AGV) для перемещения палет по строго заданным маршрутам и роботов-манипуляторов для покраски торцов, сканера дефектов и починки шпона. По словам директора по развитию бизнес системы Николая Городецкого, решения «экономят» более 1500 отработанных рабочих часов в год.

▪️Директор по логистике многопрофильного дистрибьютора Single Source Supplies (S3) Вадим Урин рассказал, что на складах компании уже работают AMR- и AGV-роботы, а также автономные вилочные погрузчики (FMR), комплектовщики (CTU), сортировщики (ACR) и комплектаторы (Pick and Place). За последние 1,5 года одни только 10 автоматических покрасочных роботов (APR) помогли сократить 8 штатных единиц (44 чел/ч в сутки).

При этом суммарную ёмкость отечественного рынка роботизации складов на ближайшие пять лет КСЛ оценивает в 230 млрд руб. В прошлом году компании инвестировали из этой суммы 37 млрд руб. и ещё около 29 млрд руб. планируется вложить в текущем.

Дарья Соловьёва, специально для @antidigital
Please open Telegram to view this post
VIEW IN TELEGRAM
Сбер представил Green-VLA — открытое руководство по созданию архитектуры управления роботами

VLA (Vision-Language-Action) — это класс моделей, которые одновременно видят картинку, понимают текстовую команду и сразу выдают действия для робота: куда тянуть манипулятор, когда закрывать захват, как повернуться и так далее. Но их интеграция на практике требует тщательной проработки методологии и синхронизации с "железом".

Поэтому в Сбере разработали фреймворк Green-VLA, описывающий архитектуру управления на примере робота Грина. Чтобы она работала в реальном мире, авторы обучают систему по шагам:

Сначала учат модель хорошо понимать изображение и текст; потом — связывать слова с объектами и действиями в сцене; затем — учат на большом наборе записей, как действуют разные роботы; потом — подгоняют под конкретного робота; и в конце — “дожимают” обучение так, чтобы поведение стало надёжнее (через обучение с подкреплением).


Для обучения они построили конвейер обработки данных и собрали примерно 3 тысячи часов демонстраций: записи того, как роботы выполняют задачи. Эти данные они чистят, приводят к одному темпу и формату, а управление делают единым интерфейсом, чтобы одна и та же модель могла управлять гуманоидом, мобильным манипулятором и стационарной рукой.

На этапе работы (когда робот уже выполняет задачи) систему дополняют “страховками”:

▪️ она оценивает, как продвигается задача и когда пора переходить к следующему шагу;

▪️ пытается понять, не попала ли она в незнакомую ситуацию (где может ошибиться);

▪️ и использует подсказки, чтобы точнее выбирать цель — например, какой именно предмет взять или куда именно тянуть руку.

В тестах на популярных наборах задач и на реальном роботе авторы показывают, что финальный этап “дожима” через обучение с подкреплением заметно улучшает процент успеха, устойчивость и способность выполнять длинные цепочки действий без развала.

Green-VLA позиционируется как открытая методология обучения, а не готовый универсальный контроллер для роботов. С отчётом можно ознакомиться на arXiv и Hugging Face. Отмечают, что материал занял первое место среди статей дня на портале Hugging Face, обогнав работы Moonshot AI и совместные исследования китайских и американских университетов.

@anti_robots
Please open Telegram to view this post
VIEW IN TELEGRAM
В Госдуме прописали первое регулирование для роботов

Автором законопроекта выступил первый зампред комитета Госдумы по региональной политике и местному (пока не роботизированному) самоуправлению Сергей Морозов. Об этом он рассказал на форуме «Робототехника, интеллект машин и механизмов 2026».

На общественное обсуждение документ обещают вынести до конца февраля, затем — внести в нижнюю палату; при этом текущая версия ещё не обсуждалась в комитете, хотя текст писали вместе с отраслью и общественными объединениями, а компании зовут подключаться к доработке.

Внутри, по словам Морозова, — «комплексная» правовая база на весь жизненный цикл (от НИОКР до серийного производства и безопасной эксплуатации), определения ключевых терминов (робототехническая система, ИИ и др.), принцип приоритета безопасности человека, обязательное страхование гражданской ответственности для систем повышенного риска и поддержка отечественных разработчиков.

Отдельно подчёркнуто: юридическая ответственность «всегда остаётся за человеком». Видимо, если ошибётся алгоритм, палкой будут бить непосредственно разработчика. В этом контексте можно вспомнить новости об очередной итерации законопроекта по беспилотным ТС — там как раз сделали упор на ответственность за ДТП.

Параллельно законопроект пытается быть не только «про запреты», но и про стимулы: меры по поддержке НИОКР, подготовке кадров и внедрению роботов, плюс новые правовые статусы для организаций со стратегическими инвестициями (чтобы открыть доступ к адресной поддержке) и для специализированных территорий вроде технопарков робототехники. Ещё обещают закрепить «регуляторные песочницы» и основы международного технологического сотрудничества.

Впрочем, пока всё это писано лишь вилами по воде. Ждём публикацию проекта и отзывы отрасли.

@anti_robots
This media is not supported in your browser
VIEW IN TELEGRAM
Просчитать логистику тысячи роботов на ходу поможет CAMAR

Исследователи из AIRI и МФТИ представили новую среду для ля обучения и тестирования алгоритмов управления тысячами автономных агентов одновременно. Такие сценарии характерны для автоматизации складов, городской логистики и систем автономного транспорта.

В рамках CAMAR разработчик может задавать собственные правила движения агентов и создавать разные типы карт — от простых складских помещений до плотной городской застройки. Система поддерживает корректную работу с 800 и более роботами и может одновременно просчитывать более 100 тысяч шагов движения в секунду.

CAMAR позволяет сравнивать разные подходы к управлению: как основанные на ML методы, так и классические алгоритмы поиска маршрута. Кроме того, поддерживаются гибридные решения, где традиционные методы и обучение работают совместно. Это даёт возможность объективно оценивать, какие стратегии лучше справляются с конкретными задачами.

«В CAMAR агенты действуют через непрерывное управление, в среде есть коллекция процедурно генерируемых карт, поддержка гетерогенных агентов, и при этом работает быстро - ~100k шагов в секунду внутри jax.jit. Мы также предлагаем евал-протокол, чтобы трекать прогресс по этой задаче, ну и пробенчили основные RL алгоритмы и их гибриды с классическим RRT* планировщиком», — пояснили разработчики.


Проект распространяется как open-source под лицензией MIT и доступен для исследователей и компаний. Почитать подробнее о том, как работает технология, можно в статье на arXiv.

@anti_robots
1
Игроки в Pokémon Go обучили роботов

Когда в Pokémon Go в 2016 году играли сотни миллионов людей, казалось, что это просто глобальная истерия вокруг дополненной реальности. Игроки бродили по улицам, наводя камеры телефонов на здания, площади и памятники в надежде поймать виртуального покемона. Но спустя почти десятилетие выясняется, что эта массовая «охота» создала один из самых ценных наборов данных для робототехники.

Игра была разработана компанией Niantic, а сегодня её технологическое наследие развивает новая структура — Niantic Spatial. За годы существования игр вроде Pokémon Go и Ingress пользователи сделали миллиарды фотографий городских пространств. Каждое изображение сопровождалось точными метаданными: координатами телефона, углом камеры, направлением движения и даже скоростью. В сумме это превратилось в уникальную базу из примерно 30 миллиардов изображений городской среды.

Теперь эти данные используются для создания так называемой системы визуального позиционирования — технологии, которая определяет местоположение не по GPS, а по тому, что «видит» камера. Новая модель Niantic Spatial может определить положение устройства с точностью до нескольких сантиметров, просто анализируя несколько фотографий окружающих зданий или других ориентиров.

Это особенно важно для городских роботов. Стартап Coco Robotics уже тестирует эту технологию на своих автономных курьерах — небольших роботах, которые развозят еду и продукты в городах вроде Лос-Анджелеса, Чикаго и Хельсинки. Роботы движутся по тротуарам со скоростью около 8 км/ч и могут перевозить несколько коробок пиццы или пакеты с продуктами. Но для них главная проблема — навигация.

В плотной городской застройке GPS часто ошибается. Сигналы отражаются от высотных зданий и создают так называемый «городской каньон», где позиция на карте может «прыгать» на десятки метров. Для человека это просто раздражающий баг синей точки на карте. Для робота-курьера — риск застрять не на той улице или подъехать к ресторану с другой стороны квартала.

Технология Niantic Spatial позволяет роботам использовать камеры как систему ориентации: сравнивая окружающую картинку с огромной базой изображений, они могут точно понять, где находятся. Это помогает подъезжать к нужному входу ресторана, останавливаться прямо у двери клиента и не мешать прохожим.

Интересно, что изначально компания разрабатывала эту систему ради будущих AR-очков. Чтобы виртуальные объекты выглядели реалистично, система должна идеально понимать, где пользователь стоит и куда смотрит. Но, как признают разработчики, неожиданной аудиторией для этой технологии стали роботы.

Фактически Niantic Spatial пытается построить то, что её основатели называют «живой картой» мира — гипердетальную цифровую модель реальности, которая постоянно обновляется. Роботы, двигаясь по городам, будут добавлять новые данные и уточнять карту. В результате появится не просто навигационная система, а своего рода цифровой двойник мира.

В этом и состоит новая идея так называемых world models — моделей, которые позволяют искусственному интеллекту понимать физическую реальность, а не только тексты и изображения. Пока большие языковые модели хорошо работают с информацией, но плохо ориентируются в реальном пространстве. Чтобы роботы могли безопасно ходить по тротуарам или работать на стройках, им нужно не только «знать», но и буквально понимать, как устроен мир вокруг.

Парадокс в том, что фундамент для такой машинной карты мира заложили миллионы людей, которые просто гуляли по улицам, пытаясь поймать виртуального Пикачу. В итоге игра, задуманная как развлечение, оказалась гигантским проектом по картографированию реальности — и, возможно, одной из самых неожиданных инфраструктур для будущей робототехники.

@anti_robots
🔥1
Роботы присмотрят за американским флотом

Стартап Gecko Robotics подписал крупнейший для себя контракт с ВМФ США. Сделка оформлена как пятилетний контракт с первоначальным объёмом $54 млн и потолком $71 млн.

Компания отправит своих роботов, умеющих шустро ползать по вертикальным поверхностям, осматривать корабли и собирать максимально подробные данные об их состоянии. Они будут забираться в труднодоступные места, сканируя металл, сварные швы и конструкции. На основе этих данных будет создана цифровая модель корабля — digital twin, которую можно будет превратить в живую карту состояния судна: система отслеживает износ, прогнозирует поломки и подсказывает, когда и что нужно ремонтировать.

Начнут с 18 кораблей Тихоокеанского флота, но замысел проекта гораздо шире. Сегодня в любой момент времени примерно 40% кораблей ВМС США находятся вне строя из-за долгих и дорогих циклов обслуживания. Ежегодные расходы на это оцениваются в $13–20 млрд. Но если постоянно мониторить состояние оборудования с помощью роботов и сенсоров, можно перейти от ремонта по факту поломки к предиктивному — устранять проблемы ещё до того, как корабль отправится на месяцы в док.

Цель — к 2027 году довести готовность кораблей до 80%, и без автоматизации обслуживания это почти невозможно.

@anti_robots
🫡1
300 ГБ RAM на каждую машину и робота: Micron считает растущую выручку

Память в последние годы оказалась не скучной комплектухой, а почти новой нефтью AI-эпохи. Вот и Micron отчиталась за второй квартал 2026 года так, будто продаёт не DRAM и NAND, а билеты в дефицитное будущее.

Выручка компании за Q2 2026 составила $23,86 млрд против $8,05 млрд годом ранее. По сравнению с прошлым кварталом Micron прибавила больше $10 млрд выручки — редкий аттракцион даже по меркам нынешнего ИИ-бума. Чистая прибыль выросла до $13,79 млрд против $1,58 млрд прошлого года, а в следующем квартале компания ждёт уже $33,5 млрд выручки против $9,3 млрд год назад.

Самая яркая часть истории — прогноз по «железному аппетиту» будущих устройств. По оценке CEO Санджая Мехротры, если автопром всерьёз пойдёт в L4-автономность, то объём памяти в машине может вырасти с нынешних примерно 16 ГБ до более чем 300 ГБ. И примерно такой же вычислительный класс, по его мнению, потребуется роботам: рынок робототехники Micron вообще видит как потенциальный 20-летний вектор роста.

Рынок, впрочем, на такой праздник жизни отреагировал без шампанского: акции Micron после отчёта быстро пошли на спад. По данным Reuters, инвесторов смутило прежде всего увеличение плана капзатрат на 2026 финансовый год более чем до $25 млрд и обещания продолжать в том же духе в 2027 году. Большие ставки при долгой игре впечатлили не всех.

@anti_robots
🔥1