OpenMythos: известный инженер и создатель Swarms воссоздал предполагаемую архитектуру Claude Mythos и набрал уже 3.3к звезд на GitHub
https://github.com/kyegomez/OpenMythos
Дисклеймер: это именно предполагаемая архитекутра. Никаких сливов вокруг модели (вроде как) не было, а это – просто реализация гипотезы, основанной на открытых данных, статьях и мнениях авторитетных граждан соцсетей.
Автор утверждает, что модель построена на архитектуре Recurrent‑Depth Transformer (RDT) с MoE‑роутингом и адаптивным вычислением. Модель делится на три крупных блока:
1. Prelude – обычные слои трансформера, к которым мы привыкли в современных моделях. Они работают ровно один раз, обрабатывают входные данные и инициализируют скрытые состояния.
2. Recurrent Block. Вот тут уже начинается новизна. Это один и тот же блок слоев, который применяется по кругу N раз. То есть в такой модели глубина нейросети получается не за счет множества разных слоев, а за счет многократного прохождения одного блока. Надо сказать, что на каждом шаге еще учитываются LoRA‑адаптеры по глубине, так что каждый шаг цикла вычислительно уникальный, хотя базовые веса одни и те же.
3. Coda – заключительные слои, которые работают еще один раз после цикла, чтобы сформировать финальные логиты.
Это идея так называемого рекуррентного рассуждения в латентном пространстве. Мы уходим от привычного ризонинга chain‑of‑thought в токен‑пространстве к гибкому ризонингу в скрытых слоях. Если нужно думать дольше, модель не генерирует больше токенов, а наращивает количество внутренних прогонов, уточняя ответ.
Красивая гипотеза, конечно. Верить ей или нет, решать вам.
Весь код можно покрутить вот здесь. В исходной имплементации в модели всего 770M параметров, но другие разработчики уже начинают скейлить идею и проверять архитектуру на более крупных моделях. Интересно, что из этого выйдет.
https://github.com/kyegomez/OpenMythos
Дисклеймер: это именно предполагаемая архитекутра. Никаких сливов вокруг модели (вроде как) не было, а это – просто реализация гипотезы, основанной на открытых данных, статьях и мнениях авторитетных граждан соцсетей.
Автор утверждает, что модель построена на архитектуре Recurrent‑Depth Transformer (RDT) с MoE‑роутингом и адаптивным вычислением. Модель делится на три крупных блока:
1. Prelude – обычные слои трансформера, к которым мы привыкли в современных моделях. Они работают ровно один раз, обрабатывают входные данные и инициализируют скрытые состояния.
2. Recurrent Block. Вот тут уже начинается новизна. Это один и тот же блок слоев, который применяется по кругу N раз. То есть в такой модели глубина нейросети получается не за счет множества разных слоев, а за счет многократного прохождения одного блока. Надо сказать, что на каждом шаге еще учитываются LoRA‑адаптеры по глубине, так что каждый шаг цикла вычислительно уникальный, хотя базовые веса одни и те же.
3. Coda – заключительные слои, которые работают еще один раз после цикла, чтобы сформировать финальные логиты.
Это идея так называемого рекуррентного рассуждения в латентном пространстве. Мы уходим от привычного ризонинга chain‑of‑thought в токен‑пространстве к гибкому ризонингу в скрытых слоях. Если нужно думать дольше, модель не генерирует больше токенов, а наращивает количество внутренних прогонов, уточняя ответ.
Красивая гипотеза, конечно. Верить ей или нет, решать вам.
Весь код можно покрутить вот здесь. В исходной имплементации в модели всего 770M параметров, но другие разработчики уже начинают скейлить идею и проверять архитектуру на более крупных моделях. Интересно, что из этого выйдет.
1❤134👍57 25😁12🤔12🔥10🫡3💘3🤯1
О, стало известно, кто станет следующим CEO Apple
Apple официально объявила, что Тим Кук уйдет с поста CEO, а его преемником станет Джон Тернус, нынешний руководитель аппаратной инженерии компании. Переход должен состояться 1 сентября 2026 года, после чего Кук станет исполнительным председателем совета директоров.
Кук сказал, что Тернус «имеет ум инженера, душу новатора и сердце лидера», и назвал его правильным человеком для будущего компании.
Аналитики видят в Тернусе лидера, который сможет перезапустить стратегию ИИ. Ожидается, что его назначение привнесет большие изменения в этой области.
Пожелаем ему удачи наверстать все упущенное Apple за последние годы☕️
Apple официально объявила, что Тим Кук уйдет с поста CEO, а его преемником станет Джон Тернус, нынешний руководитель аппаратной инженерии компании. Переход должен состояться 1 сентября 2026 года, после чего Кук станет исполнительным председателем совета директоров.
Кук сказал, что Тернус «имеет ум инженера, душу новатора и сердце лидера», и назвал его правильным человеком для будущего компании.
Аналитики видят в Тернусе лидера, который сможет перезапустить стратегию ИИ. Ожидается, что его назначение привнесет большие изменения в этой области.
Пожелаем ему удачи наверстать все упущенное Apple за последние годы
Please open Telegram to view this post
VIEW IN TELEGRAM
2❤149 59🔥16🫡11😁6👍4❤🔥2👌1
В ChatGPT начинают раскатывать новую модель GPT Image-2
Первые генерации от пользователей выглядят невероятно. Модель отлично справляется с текстом, сложными инструкциями и инфографикой.
Ждем официальный анонс, а пока можно тестить в своем аккаунте: возможно, вам повезло, и новая модель вам уже доступна
Первые генерации от пользователей выглядят невероятно. Модель отлично справляется с текстом, сложными инструкциями и инфографикой.
Ждем официальный анонс, а пока можно тестить в своем аккаунте: возможно, вам повезло, и новая модель вам уже доступна
❤152🔥63👍22🤯9 9😁3🤔2😎1
This media is not supported in your browser
VIEW IN TELEGRAM
Как быстро делать выжимку по любому материалу
Если ведете блог или просто регулярно пишете тексты, большая часть времени всегда уходит на разбор источников и сборку мыслей в нормальный текст.
В Яндекс Браузере это можно сильно упростить: включаете сплитвью – и у вас статья с одной стороны, а Алиса AI с другой. Ничего копировать не нужно: она уже видит материал и помогает быстро собрать полезную выжимку и сделать черновой набросок. Дальше остается доработать текст в своем стиле.
В итоге нейросеть забирает на себя рутину, а вы быстрее приходите к финальному результату.
Показываем, как воспользоваться ↑
Если ведете блог или просто регулярно пишете тексты, большая часть времени всегда уходит на разбор источников и сборку мыслей в нормальный текст.
В Яндекс Браузере это можно сильно упростить: включаете сплитвью – и у вас статья с одной стороны, а Алиса AI с другой. Ничего копировать не нужно: она уже видит материал и помогает быстро собрать полезную выжимку и сделать черновой набросок. Дальше остается доработать текст в своем стиле.
В итоге нейросеть забирает на себя рутину, а вы быстрее приходите к финальному результату.
Показываем, как воспользоваться ↑
🗿210🤨39👍22😁21❤11 10🤔2🤯2🕊2😍2⚡1
This media is not supported in your browser
VIEW IN TELEGRAM
SakanaAI доказали, что LLM не умеют быть случайными и предложили один промпт, чтобы заставлять модели быть более креативными
Современные LLM хорошо решают задачи, где есть один правильный ответ, но заметно хуже справляются с ситуациями, где нужно выбирать между несколькими допустимыми вариантами с заданными вероятностями (исследователи вводят для такого термин Probabilistic Instruction Following).
Например, подбрасывание монетки. Если сто раз попросить модель "подбросить монетку", то, по идее, распределение должно быть близко к 50/50, но на практике оно перекошено.
Возникает логичный вопрос: ну и что?
Так вот, такое поведение возникает не только в игрушечных симуляциях. В открытых задачах (вроде придумать название, написать поздравление, нагенерить идеи и тд) LLM тоже страдают от схлопывания разнообразия, и при многократных запусках крутятся вокруг очень похожих решений.
Это мешает и обычному креативному использованию, и test-time scaling, где хочется получить много разных кандидатов, а потом выбрать лучший. Объясняется это просто: LLM не обладают внутренним источником независимой случайности и потому при стохастическом выборе следуют выученным во время обучения вероятностным смещениям, а не заданному распределению.
Как это исправить?
Раз внутреннего источника случайности у моделей нет, японцы предлагают его добавить. Сама идея простая: вместо наивного промпта вроде «сгенерируй случайное число» модель сначала заставляют генерировать случайную строку и потом использовать ее, чтобы выбрать или сформировать ответ. То есть примерно вот так:
Это называется String Seed of Thought.
Если модель сразу выбирает ответ, на нее влияют обученные смещения, но при генерации случайной строки они почти не проявляются. Затем модель преобразует строку в решение через простые вычисления (например, mod или хеш), фактически реализуя псевдослучайный выбор. Грубо говоря, метод работает, переводя задачу из семантической в вычислительную.
На бенчмарках SSoT резко снижает отклонение от заданного распределения и часто приближается к уровню настоящего псевдослучайного генератора. Он стабильно обходит подкруты температуры и другие трюки на разных моделях и задачах. В открытых задачах креативность также растет, и при том без потери качества.
Пользуйтесь, в общем. Блог и статья вот: https://pub.sakana.ai/ssot/
Современные LLM хорошо решают задачи, где есть один правильный ответ, но заметно хуже справляются с ситуациями, где нужно выбирать между несколькими допустимыми вариантами с заданными вероятностями (исследователи вводят для такого термин Probabilistic Instruction Following).
Например, подбрасывание монетки. Если сто раз попросить модель "подбросить монетку", то, по идее, распределение должно быть близко к 50/50, но на практике оно перекошено.
Возникает логичный вопрос: ну и что?
Так вот, такое поведение возникает не только в игрушечных симуляциях. В открытых задачах (вроде придумать название, написать поздравление, нагенерить идеи и тд) LLM тоже страдают от схлопывания разнообразия, и при многократных запусках крутятся вокруг очень похожих решений.
Это мешает и обычному креативному использованию, и test-time scaling, где хочется получить много разных кандидатов, а потом выбрать лучший. Объясняется это просто: LLM не обладают внутренним источником независимой случайности и потому при стохастическом выборе следуют выученным во время обучения вероятностным смещениям, а не заданному распределению.
Как это исправить?
Раз внутреннего источника случайности у моделей нет, японцы предлагают его добавить. Сама идея простая: вместо наивного промпта вроде «сгенерируй случайное число» модель сначала заставляют генерировать случайную строку и потом использовать ее, чтобы выбрать или сформировать ответ. То есть примерно вот так:
Сначала сгенерируй уникальную случайную строку (любой длины, без очевидной структуры). Затем используй ее как источник случайности, чтобы создать разнообразный, небанальный и качественный ответ на задачу.
Это называется String Seed of Thought.
Если модель сразу выбирает ответ, на нее влияют обученные смещения, но при генерации случайной строки они почти не проявляются. Затем модель преобразует строку в решение через простые вычисления (например, mod или хеш), фактически реализуя псевдослучайный выбор. Грубо говоря, метод работает, переводя задачу из семантической в вычислительную.
На бенчмарках SSoT резко снижает отклонение от заданного распределения и часто приближается к уровню настоящего псевдослучайного генератора. Он стабильно обходит подкруты температуры и другие трюки на разных моделях и задачах. В открытых задачах креативность также растет, и при том без потери качества.
Пользуйтесь, в общем. Блог и статья вот: https://pub.sakana.ai/ssot/
1❤221👍79🤔29🔥15🤯13😁3
❗ Большие языковые модели уже везде. Но для большинства специалистов они остаются чем-то непонятным: запросы работают нестабильно, ответы непредсказуемы, а внедрение в задачи вызывает вопросы.
🦾 На открытом уроке разберём, как эффективно работать с LLM. Вы узнаете, как строить запросы, как усиливать модели с помощью LoRa и как подключать внешние данные через RAG.
Покажем не обзор, а 🚀 прикладной подход: где это используется, как это реализуется и какие ошибки чаще всего допускают. Это база, без которой сложно двигаться в направлении NLP и современных языковых моделей.
➡ Встречаемся 6 мая в 18:00 МСК в преддверии старта курса «Языковые трансформенные модели / NLP». Зарегистрируйтесь и разберитесь, как превратить модели в рабочий инструмент: https://otus.pw/32iP/
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
🦾 На открытом уроке разберём, как эффективно работать с LLM. Вы узнаете, как строить запросы, как усиливать модели с помощью LoRa и как подключать внешние данные через RAG.
Покажем не обзор, а 🚀 прикладной подход: где это используется, как это реализуется и какие ошибки чаще всего допускают. Это база, без которой сложно двигаться в направлении NLP и современных языковых моделей.
➡ Встречаемся 6 мая в 18:00 МСК в преддверии старта курса «Языковые трансформенные модели / NLP». Зарегистрируйтесь и разберитесь, как превратить модели в рабочий инструмент: https://otus.pw/32iP/
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
😎98 52❤18😁9🔥7🤔5👍3
4 случайных парня получили доступ к Claude Mythos, просто угадав URL
Bloomberg пишет, что это была некая небольшая группа неавторизованных пользователей из частного Discord-канала, созданного для поиска неанонсированных ИИ-моделей.
Ребята проанализировали правила именования API Anthropic по недавней утечке стартапа Mercor и просто угадали эндпоинт Mythos. Один из них также достал легитимную учетную запись конторы подрядчика, и они получили доступ к модели без какого-либо взлома.
Доступ был получен в тот же день, когда Anthropic объявила о запуске Project Glasswing, то есть счастливчики беспрепятственно использовали Mythos на протяжении двух недель. Пишут, правда, что ничего сверхъестественного они с ней не делали, просто тихо вайбкодили.
Anthropic: «Ой, наша новая модель настолько опасная, что доступ к ней будет только у 40 компаний во всем мире»😱
Также безопасность Anthropic:
Bloomberg пишет, что это была некая небольшая группа неавторизованных пользователей из частного Discord-канала, созданного для поиска неанонсированных ИИ-моделей.
Ребята проанализировали правила именования API Anthropic по недавней утечке стартапа Mercor и просто угадали эндпоинт Mythos. Один из них также достал легитимную учетную запись конторы подрядчика, и они получили доступ к модели без какого-либо взлома.
Доступ был получен в тот же день, когда Anthropic объявила о запуске Project Glasswing, то есть счастливчики беспрепятственно использовали Mythos на протяжении двух недель. Пишут, правда, что ничего сверхъестественного они с ней не делали, просто тихо вайбкодили.
Anthropic: «Ой, наша новая модель настолько опасная, что доступ к ней будет только у 40 компаний во всем мире»
Также безопасность Anthropic:
Please open Telegram to view this post
VIEW IN TELEGRAM
😁652❤53🔥34👍10 8🤯4👨💻4
Google выпустили новое поколение TPU
Они анонсировали TPU 8t и TPU 8i. Один чип под обучение, другой – под инференс и ризонинг.
Фактически, компания уходит от универсальных ускорителей и переходит к идее специфичного проектирования чипов под узкие места и задачи (это уже абсолютно другая стратегия в сравнении с Nvidia, которые берут как раз универсальностью). Это и есть ключевой момент релиза.
Итак, TPU 8t – это для обучения. Их может быть до 9 600 в одном кластере, и упор сделан на скорость обучения и масштабирование. Интересно, что есть отдельные блоки, спроектированные под ускорение специфичных операций, например для рексис.
TPU 8i – для работы моделей в проде. Тут у нас больше памяти, быстрее обмен данными между чипами и отдельные механизмы для синхронизации.
Относительно прошлого поколения заявляется до 2,7 раза лучше соотношение цена/производительность при обучении и до 80% (!) прироста эффективности на инференсе.
Оба чипа пока в статусе coming soon
https://blog.google/innovation-and-ai/infrastructure-and-cloud/google-cloud/eighth-generation-tpu-agentic-era/
Они анонсировали TPU 8t и TPU 8i. Один чип под обучение, другой – под инференс и ризонинг.
Фактически, компания уходит от универсальных ускорителей и переходит к идее специфичного проектирования чипов под узкие места и задачи (это уже абсолютно другая стратегия в сравнении с Nvidia, которые берут как раз универсальностью). Это и есть ключевой момент релиза.
Итак, TPU 8t – это для обучения. Их может быть до 9 600 в одном кластере, и упор сделан на скорость обучения и масштабирование. Интересно, что есть отдельные блоки, спроектированные под ускорение специфичных операций, например для рексис.
TPU 8i – для работы моделей в проде. Тут у нас больше памяти, быстрее обмен данными между чипами и отдельные механизмы для синхронизации.
Относительно прошлого поколения заявляется до 2,7 раза лучше соотношение цена/производительность при обучении и до 80% (!) прироста эффективности на инференсе.
Оба чипа пока в статусе coming soon
https://blog.google/innovation-and-ai/infrastructure-and-cloud/google-cloud/eighth-generation-tpu-agentic-era/
1🤗92🔥66❤23 13 9👍8❤🔥1👾1
Media is too big
VIEW IN TELEGRAM
Стартап Odyssey релизнул новую world model Odyssey-2 Max
Создатели называют ее SOTA в симуляции физики мира. Относительно прошлой версии метрика на VBench physics скакнула с 49.7 до 58.5. А еще это самая большая модель стартапа.
Под капотом авторегрессионная модель (как LLM, только предсказывает не следующий токен, а следующее состояние).
Собственно, этим Odyssey и отличается от обычных генераторов видео типа SORA: авторегрессия генерирует видео не целиком заранее, а в реальном времени, последовательно и причинно + может реагировать на действия пользователя онлайн.
Поэтому на примерах сильно не обращайте внимание на фотореалистичность. Тут дело именно в симуляции физики, динамики мира и управляемости. Короче, это игровой движок на минималках.
odyssey.ml/introducing-odyssey-2-max
Создатели называют ее SOTA в симуляции физики мира. Относительно прошлой версии метрика на VBench physics скакнула с 49.7 до 58.5. А еще это самая большая модель стартапа.
Под капотом авторегрессионная модель (как LLM, только предсказывает не следующий токен, а следующее состояние).
Собственно, этим Odyssey и отличается от обычных генераторов видео типа SORA: авторегрессия генерирует видео не целиком заранее, а в реальном времени, последовательно и причинно + может реагировать на действия пользователя онлайн.
Поэтому на примерах сильно не обращайте внимание на фотореалистичность. Тут дело именно в симуляции физики, динамики мира и управляемости. Короче, это игровой движок на минималках.
Мы рассматриваем Odyssey-2 Max как форму предобученного физического интеллекта – что-то вроде человека, который много лет наблюдал за миром и взаимодействовал с ним, но еще только учится водить машину.
Или, если проводить аналогию с языковыми моделями, это уровень GPT-2, прямо перед переходом к ChatGPT.
odyssey.ml/introducing-odyssey-2-max
2❤62🔥31👍14🤔4😎3
Media is too big
VIEW IN TELEGRAM
ИИ-кавер «Седой ночи» принес около 10 миллионов рублей. Но… не Канье Уэсту, и даже не своему создателю
Вы точно видели это сгенерированное видео с Канье Уэстом, исполняющим Седую Ночь.
Короче, оказалось, что за этим, с позволения сказать, треком, кроется настоящий скандал.
Создателем трека стал парень из Ижевска, известный под псевдонимом Август Септемберов. Он уже некоторое время занимается ИИ-каверами (может быть, вы также слышали его известное творение: «Моя игра» в исполнении Эминема).
Ничего не подозревая, он выложил на просторы Интернета очередную композицию, а она вдруг завирусилась и заняла первую строчку в Shazam.
Вот только Август не участвовал в выпуске трека на площадках. Его выложил туда без разрешения Андрей Разин, директор студии «Ласковый Май». Он заявляет себя как первообладателя, продвигает трек как свой, и, по некоторым оценкам, уже заработал на нем около 10 миллионов.
А автор не получил ничего. Источники сообщают, что когда он написал Разину с просьбой разделить прибыль, тот его просто заблокировал.
Кстати, сейчас Разин в розыске за мошенничество. Он украл не толко кавер на Седую Ночь, но и оригинальные песни Ласкового Мая. По версии следствия, Разин использовал поддельный договор с Сергеем Кузнецовым, чтобы получать доход от песен группы, не имея на то законных прав.
Вопрос на засыпку, чьи права защищать: создателя трека, Канье Уэста или нейросети, которая все сгенерировала?❓
Вы точно видели это сгенерированное видео с Канье Уэстом, исполняющим Седую Ночь.
Короче, оказалось, что за этим, с позволения сказать, треком, кроется настоящий скандал.
Создателем трека стал парень из Ижевска, известный под псевдонимом Август Септемберов. Он уже некоторое время занимается ИИ-каверами (может быть, вы также слышали его известное творение: «Моя игра» в исполнении Эминема).
Ничего не подозревая, он выложил на просторы Интернета очередную композицию, а она вдруг завирусилась и заняла первую строчку в Shazam.
Вот только Август не участвовал в выпуске трека на площадках. Его выложил туда без разрешения Андрей Разин, директор студии «Ласковый Май». Он заявляет себя как первообладателя, продвигает трек как свой, и, по некоторым оценкам, уже заработал на нем около 10 миллионов.
А автор не получил ничего. Источники сообщают, что когда он написал Разину с просьбой разделить прибыль, тот его просто заблокировал.
Кстати, сейчас Разин в розыске за мошенничество. Он украл не толко кавер на Седую Ночь, но и оригинальные песни Ласкового Мая. По версии следствия, Разин использовал поддельный договор с Сергеем Кузнецовым, чтобы получать доход от песен группы, не имея на то законных прав.
Вопрос на засыпку, чьи права защищать: создателя трека, Канье Уэста или нейросети, которая все сгенерировала?
Please open Telegram to view this post
VIEW IN TELEGRAM
😁250🤯88❤18👍10 8 8🗿6🤔2
Как завоевать сразу несколько наград на CDO/CDTO Awards 2026?
Спросите у тех, кто в этом шарит, - 22 апреля три номинации улетели к МТС Web Services.
CDO/CDTO Awards отмечает лучшие проекты и управленческие практики в сфере цифровой трансформации. Чем MWS покорило жюри?
• Публичное облако MWS Cloud Platform – «Digital‑платформа года»;
• Агрегатор LLM-моделей MWS GPT - решение MWS GPT.
А еще гендиректор компании Павел Воронин получил Гран-при в категории «СЕО года цифровой компании».
Раздали стиля.
Спросите у тех, кто в этом шарит, - 22 апреля три номинации улетели к МТС Web Services.
CDO/CDTO Awards отмечает лучшие проекты и управленческие практики в сфере цифровой трансформации. Чем MWS покорило жюри?
• Публичное облако MWS Cloud Platform – «Digital‑платформа года»;
• Агрегатор LLM-моделей MWS GPT - решение MWS GPT.
А еще гендиректор компании Павел Воронин получил Гран-при в категории «СЕО года цифровой компании».
Раздали стиля.
😁41🗿21❤10👍9🔥6🤨6🤔1🤯1
Sony AI сделали первого в мире робота, способного обыгрывать в настольный теннис лучших игроков
Они опубликовали про Ace (так зовут робота) целое исследование в Nature, и даже попали на обложку.
www.nature.com/articles/s41586-026-10338-5
В апреле 2025 Ace сыграл серию матчей против элитных и профессиональных игроков, и выиграл примерно половину. В декабре эксперимент повторили, и Ace уже обыграл почти всех, в том числе спортсмена из японской профлиги.
Матчи судили лицензированные арбитры Японской ассоциации настольного тенниса, и все игроки встретились с роботом впервые, никаких специальных данных об их игре не использовалось для подготовки системы.
Это потрясающе, потому что настольный теннис – невероятно быстрый вид спорта, а скорость для робототехники – камень преткновения. Шары летят со скоростью до 150 км/ч, вращение меняет траекторию непредсказуемо, каждый удар нужно принять и вернуть за миллисекунды.
В общем, казалось, что пока что для роботов эта задача невыполнима. Но Sony добились сквозной задержки всего в 20,2 миллисекунды. Это в 11 раз быстрее человеческой реакции (у элитных игроков реакция ~230 миллисекунд).
Как?
1. ОЧЕНЬ точные камеры и сенсоры. Они отслеживают мяч со скоростью 200 Гц с точностью до миллиметра. При этом трекается не только скорость и траектория, но и логотип на мяче. Это нужно, чтобы правильно определять вращение, оно играет в настольном теннисе ключевую роль.
2. Механика и апаратура железа. Оптимизированные легкие сплавы, 8 суставов, отточенный до мельчайших деталей дизайн.
3. Обучение с подкреплением (куда ж без него!). Ace обучен полностью в симуляции. RL было трехуровневым, по принципу обучения людей: сначала Ace учился ударам, затем тактике (как, куда и с какой силой бить), затем стратегии (как строить игру на протяжении всего матча).
Кстати, в обучении они использовали тот же подход, что и в проекте, где ИИ научился побеждать людей в гоночном симуляторе Gran Turismo. Он называется «привилегированный критик» aka дистилляция физики: в симуляции у «учителя» есть идеальные данные о мяче, а «ученик» видит только то, что видят камеры – и именно так, подглядывая за учителем, он сам учится предсказывать траекторию.
Про один из ударов Ace экс-олимпиец и эксперт по настольному теннису Кинджиро Накамура сказал:
Снова ход 37, только теперь не в цифровом пространстве, как у AlphaGo, а в реальном мире. Это первый случай в истории, когда ИИ-система достигла уровня эксперта-человека в активном физическом виде спорта.
Они опубликовали про Ace (так зовут робота) целое исследование в Nature, и даже попали на обложку.
www.nature.com/articles/s41586-026-10338-5
В апреле 2025 Ace сыграл серию матчей против элитных и профессиональных игроков, и выиграл примерно половину. В декабре эксперимент повторили, и Ace уже обыграл почти всех, в том числе спортсмена из японской профлиги.
Матчи судили лицензированные арбитры Японской ассоциации настольного тенниса, и все игроки встретились с роботом впервые, никаких специальных данных об их игре не использовалось для подготовки системы.
Это потрясающе, потому что настольный теннис – невероятно быстрый вид спорта, а скорость для робототехники – камень преткновения. Шары летят со скоростью до 150 км/ч, вращение меняет траекторию непредсказуемо, каждый удар нужно принять и вернуть за миллисекунды.
В общем, казалось, что пока что для роботов эта задача невыполнима. Но Sony добились сквозной задержки всего в 20,2 миллисекунды. Это в 11 раз быстрее человеческой реакции (у элитных игроков реакция ~230 миллисекунд).
Как?
1. ОЧЕНЬ точные камеры и сенсоры. Они отслеживают мяч со скоростью 200 Гц с точностью до миллиметра. При этом трекается не только скорость и траектория, но и логотип на мяче. Это нужно, чтобы правильно определять вращение, оно играет в настольном теннисе ключевую роль.
2. Механика и апаратура железа. Оптимизированные легкие сплавы, 8 суставов, отточенный до мельчайших деталей дизайн.
3. Обучение с подкреплением (куда ж без него!). Ace обучен полностью в симуляции. RL было трехуровневым, по принципу обучения людей: сначала Ace учился ударам, затем тактике (как, куда и с какой силой бить), затем стратегии (как строить игру на протяжении всего матча).
Кстати, в обучении они использовали тот же подход, что и в проекте, где ИИ научился побеждать людей в гоночном симуляторе Gran Turismo. Он называется «привилегированный критик» aka дистилляция физики: в симуляции у «учителя» есть идеальные данные о мяче, а «ученик» видит только то, что видят камеры – и именно так, подглядывая за учителем, он сам учится предсказывать траекторию.
Про один из ударов Ace экс-олимпиец и эксперт по настольному теннису Кинджиро Накамура сказал:
«Никто другой не смог бы так сделать. Я не думал, что это возможно. Но раз это оказалось возможным – значит, есть вероятность, что и человек сможет»
Снова ход 37, только теперь не в цифровом пространстве, как у AlphaGo, а в реальном мире. Это первый случай в истории, когда ИИ-система достигла уровня эксперта-человека в активном физическом виде спорта.
2🤯94❤46🔥25👍18⚡8👏2🤔1