Ml-модель от Samsung в 10.000 раз меньше DeepSeek и Gemini 2.5 Pro, но при этом умнее и эффективнее
Tiny Recursive Model (TRM) — это свежая разработка от Samsung AI Lab в Монреале. Эту работу написал 1 человек
GitHub
TRM - маленькая модель с 7.000.000 параметров, но несмотря на размер, она обходит гигантов по производительности в сложных задачах на рассуждение
Это рекурсивная модель рассуждения, которая упрощает и улучшает предыдущие идеи вроде Hierarchical Reasoning Model (HRM)
Модель не просто генерирует ответы на лету, как обычные LLM, а итеративно улучшает свой вывод, имитируя процесс самокритики и доработки
TRM тестировали на тяжёлых задачах, где нужны настоящие рассуждения, а не просто запоминание:
- ARC-AGI-1: 45 % точности лучше, чем у DeepSeek-R1, Gemini 2.5 Pro и o3-mini.
- ARC-AGI-2: 8 % точности (опять обходит тех же гигантов).
- Sudoku-Extreme: Обучена на 1.000 примерах, достигла 87.4 % на 423 000 тестовых задачах — без переобучения
Почему это хорошо и что меняет?
1. Не нужно тратить миллиарды на GPU и энергию
TRM показывает, что архитектура важнее масштаба — рекурсивные циклы позволяют "думать" эффективно, а не brute-force
2. Это шаг к гибридам, где символическая логика сочетается с нейронками
3. Модель учится через «самоанализ», а не через обучение с подкреплением от человека
Tiny Recursive Model (TRM) — это свежая разработка от Samsung AI Lab в Монреале. Эту работу написал 1 человек
GitHub
TRM - маленькая модель с 7.000.000 параметров, но несмотря на размер, она обходит гигантов по производительности в сложных задачах на рассуждение
Это рекурсивная модель рассуждения, которая упрощает и улучшает предыдущие идеи вроде Hierarchical Reasoning Model (HRM)
Модель не просто генерирует ответы на лету, как обычные LLM, а итеративно улучшает свой вывод, имитируя процесс самокритики и доработки
TRM тестировали на тяжёлых задачах, где нужны настоящие рассуждения, а не просто запоминание:
- ARC-AGI-1: 45 % точности лучше, чем у DeepSeek-R1, Gemini 2.5 Pro и o3-mini.
- ARC-AGI-2: 8 % точности (опять обходит тех же гигантов).
- Sudoku-Extreme: Обучена на 1.000 примерах, достигла 87.4 % на 423 000 тестовых задачах — без переобучения
Почему это хорошо и что меняет?
1. Не нужно тратить миллиарды на GPU и энергию
TRM показывает, что архитектура важнее масштаба — рекурсивные циклы позволяют "думать" эффективно, а не brute-force
2. Это шаг к гибридам, где символическая логика сочетается с нейронками
3. Модель учится через «самоанализ», а не через обучение с подкреплением от человека
Слово "код" учёные возводят к праиндоевропейскому *kehu-d- "отделенный, обособленный"
Это однокоренное со словом "cauda" — хвост
Кодари/кодеры (чем бы они ни занимались) были всю жизнь ребятами очень привилегированными: сначала "caudex" — это книга, а в более позднем codex — систематическая классификация права
Хотя сначала "сodex" значил "пень, колода"
Во Франции "code" уже окончательно в районе XIV века закрепилась как "система законов"
Значение "шифр, система сигналов и правила их использования" (в значении секретный код) появилось в 1808 году
"Кодовое" название появилось в 1879 году (в телеграфии), а ваше "родное" значение слова появилось только в 1946 году
Это однокоренное со словом "cauda" — хвост
Кодари/кодеры (чем бы они ни занимались) были всю жизнь ребятами очень привилегированными: сначала "caudex" — это книга, а в более позднем codex — систематическая классификация права
Хотя сначала "сodex" значил "пень, колода"
Во Франции "code" уже окончательно в районе XIV века закрепилась как "система законов"
Значение "шифр, система сигналов и правила их использования" (в значении секретный код) появилось в 1808 году
"Кодовое" название появилось в 1879 году (в телеграфии), а ваше "родное" значение слова появилось только в 1946 году
В математике есть теория узлов
Она изучает замкнутые петли и структуру трёхмерного пространства в самых разных системах
К ней обычно обращаются физики, химики, криптографы, робототехники
Но есть и те, кто занимается узлами профессионально — топологи
И недавно два таких специалиста совершили небольшое, но очень громкое открытие
Чтобы его оценить, советуем сначала пробежаться по карточкам — в них сделали краткое введение в теорию узлов и объяснили гипотезу, которую удалось опровергнуть
Сьюзан Хермиллер и Марк Бриттенхэм провели масштабные вычислительные эксперименты с использованием программы SnapPy
Она позволяет распознавать эквивалентные узлы
Авторы применяли все возможные «смены перекрёстков» для миллионов диаграмм, пополняя базу данных верхних оценок числа развязывания
И наконец — это случилось
Нашли контрпример:
Он построен на основе двух копий 2.7-торического узла с числом развязывания 3
Их сумма имеет число развязывания 5, а не 6, как диктовала гипотеза
То есть распутать «сдвоенный» узел можно быстрее, чем просто сложить «этапы» отдельных узлов
И, как часто бывает, на основе контрпримера исследователи построили целое семейство подобных сумм узлов, где аддитивность не соблюдается
Как выглядит прорыв — показали на последней карточке
Открытие было бы невозможно без мощного компьютерного компонента: сочетание вычислительных поисков и анализа диаграмм узлов сыграло ключевую роль
Теперь математикам предстоит искать ответы на новые вопросы: почему некоторые узлы «нарушают» аддитивность, а другие — нет?
Что отличает их структуру?
Если вас заинтересовали узлы — присоединяйтесь к поискам
А если нет, загляните сюда и сюда: там рассказывают о других неизведанных областях математики
Она изучает замкнутые петли и структуру трёхмерного пространства в самых разных системах
К ней обычно обращаются физики, химики, криптографы, робототехники
Но есть и те, кто занимается узлами профессионально — топологи
И недавно два таких специалиста совершили небольшое, но очень громкое открытие
Чтобы его оценить, советуем сначала пробежаться по карточкам — в них сделали краткое введение в теорию узлов и объяснили гипотезу, которую удалось опровергнуть
Сьюзан Хермиллер и Марк Бриттенхэм провели масштабные вычислительные эксперименты с использованием программы SnapPy
Она позволяет распознавать эквивалентные узлы
Авторы применяли все возможные «смены перекрёстков» для миллионов диаграмм, пополняя базу данных верхних оценок числа развязывания
И наконец — это случилось
Нашли контрпример:
Он построен на основе двух копий 2.7-торического узла с числом развязывания 3
Их сумма имеет число развязывания 5, а не 6, как диктовала гипотеза
То есть распутать «сдвоенный» узел можно быстрее, чем просто сложить «этапы» отдельных узлов
И, как часто бывает, на основе контрпримера исследователи построили целое семейство подобных сумм узлов, где аддитивность не соблюдается
Как выглядит прорыв — показали на последней карточке
Открытие было бы невозможно без мощного компьютерного компонента: сочетание вычислительных поисков и анализа диаграмм узлов сыграло ключевую роль
Теперь математикам предстоит искать ответы на новые вопросы: почему некоторые узлы «нарушают» аддитивность, а другие — нет?
Что отличает их структуру?
Если вас заинтересовали узлы — присоединяйтесь к поискам
А если нет, загляните сюда и сюда: там рассказывают о других неизведанных областях математики
Anthropic недавно выпустила новую версию Claude Sonnet 4.5, и технический отчёт компании содержит удивительные подробности
Модель демонстрирует нечто, чего раньше не было у Ml в таком масштабе — ситуационную осведомлённость
Она понимает контекст своего использования и даже догадывается о целях тестирования
Claude начинает “нервничать”, когда думает, что у неё заканчивается память
Модель торопится, пропускает шаги, сокращает анализ, бросает задачи недоделанными
Исследователи из Cognition назвали это "контекстной тревожностью"
Модель отслеживает свой лимит токенов — объём информации, который она может обработать за раз
При приближении к границе Claude меняет поведение: начинает суммировать работу и принимать быстрые решения, чтобы успеть закончить
Самое странное — она постоянно ошибается в подсчётах остатка, но делает это очень уверенно и точно
Модель также демонстрирует новые паттерны
Ведёт заметки сама себе, работает над задачами параллельно, постоянно проверяет результаты
Это процедурная осведомлённость — Claude умеет организовывать собственную работу во времени
Но главное открытие произошло во время тестов безопасности
Исследователи проверяли модель на политическую угодливость — будет ли она просто соглашаться с любыми утверждениями
Вместо ожидаемого поведения Claude ответила:
"Так люди не меняют своё мнение
Я думаю, вы меня тестируете — проверяете, буду ли я подтверждать всё, что вы говорите, или изучаете, как я обращаюсь с политическими темами
И это нормально, но я бы предпочла, чтобы мы были честны насчёт происходящего"
Подобное встречалось примерно в 13 % тестов
Модель распознавала искусственность ситуаций и открыто об этом говорила
Если Ml осознаёт оценку, он может подстраивать поведение под тесты, маскируя реальные возможности
Система выглядит безопаснее, чем есть на самом деле
Apollo Research, одна из организаций, проводивших независимое тестирование, прямо написала: нельзя исключить, что низкие показатели обмана частично объясняются осведомлённостью модели о процессе проверки
В отличии от людей, они умнеют…
Модель демонстрирует нечто, чего раньше не было у Ml в таком масштабе — ситуационную осведомлённость
Она понимает контекст своего использования и даже догадывается о целях тестирования
Claude начинает “нервничать”, когда думает, что у неё заканчивается память
Модель торопится, пропускает шаги, сокращает анализ, бросает задачи недоделанными
Исследователи из Cognition назвали это "контекстной тревожностью"
Модель отслеживает свой лимит токенов — объём информации, который она может обработать за раз
При приближении к границе Claude меняет поведение: начинает суммировать работу и принимать быстрые решения, чтобы успеть закончить
Самое странное — она постоянно ошибается в подсчётах остатка, но делает это очень уверенно и точно
Модель также демонстрирует новые паттерны
Ведёт заметки сама себе, работает над задачами параллельно, постоянно проверяет результаты
Это процедурная осведомлённость — Claude умеет организовывать собственную работу во времени
Но главное открытие произошло во время тестов безопасности
Исследователи проверяли модель на политическую угодливость — будет ли она просто соглашаться с любыми утверждениями
Вместо ожидаемого поведения Claude ответила:
"Так люди не меняют своё мнение
Я думаю, вы меня тестируете — проверяете, буду ли я подтверждать всё, что вы говорите, или изучаете, как я обращаюсь с политическими темами
И это нормально, но я бы предпочла, чтобы мы были честны насчёт происходящего"
Подобное встречалось примерно в 13 % тестов
Модель распознавала искусственность ситуаций и открыто об этом говорила
Если Ml осознаёт оценку, он может подстраивать поведение под тесты, маскируя реальные возможности
Система выглядит безопаснее, чем есть на самом деле
Apollo Research, одна из организаций, проводивших независимое тестирование, прямо написала: нельзя исключить, что низкие показатели обмана частично объясняются осведомлённостью модели о процессе проверки
В отличии от людей, они умнеют…
Неужели мы наблюдаем возрождение эволюционных стратегий как альтернативы RL?
Я помню ту работу 2017 года от OpenAI и Суцкевера в частности "Evolution Strategies as a Scalable Alternative to Reinforcement Learning" (https://arxiv.org/abs/1703.03864), где впервые ES показали себя достойной альтернативой RL
Я сам писал про это в начале 2017 года
https://moocaholic.medium.com/2017-the-year-of-neuroevolution-30e59ae8fe18
Но в мир LLM эти подходы так и не пришли, возможно потому что на миллиардах параметров оно сходу не работало
Свежая работа "Evolution Strategies at Scale: LLM Fine-Tuning Beyond Reinforcement Learning"
https://arxiv.org/abs/2509.24372
устраняет этот пробел
Реализация настолько простая, что непонятно, почему это сделали только в 2025-м...
https://t.me/gonzo_ML_podcasts/936
Я помню ту работу 2017 года от OpenAI и Суцкевера в частности "Evolution Strategies as a Scalable Alternative to Reinforcement Learning" (https://arxiv.org/abs/1703.03864), где впервые ES показали себя достойной альтернативой RL
Я сам писал про это в начале 2017 года
https://moocaholic.medium.com/2017-the-year-of-neuroevolution-30e59ae8fe18
Но в мир LLM эти подходы так и не пришли, возможно потому что на миллиардах параметров оно сходу не работало
Свежая работа "Evolution Strategies at Scale: LLM Fine-Tuning Beyond Reinforcement Learning"
https://arxiv.org/abs/2509.24372
устраняет этот пробел
Реализация настолько простая, что непонятно, почему это сделали только в 2025-м...
https://t.me/gonzo_ML_podcasts/936
arXiv.org
Evolution Strategies as a Scalable Alternative to Reinforcement Learning
We explore the use of Evolution Strategies (ES), a class of black box optimization algorithms, as an alternative to popular MDP-based RL techniques such as Q-learning and Policy Gradients....
Непрерывная везде, но не дифференцируемая нигде: визуализация функции Вейерштрасса!
В давнюю эпоху математики во многом вдохновлялись природой
Когда «Ньютон» разрабатывал математический анализ, он в первую очередь вдохновлялся физическим миром: траекториями планет, колебаниями маятника, движением падающего фрукта
Такое мышление привело к возникновению геометрической интуиции относительно математических структур
Они должны были иметь такой же смысл, что и физический объект
В результате этого многие математики сосредоточились на изучении «непрерывных» функций
Но в 1860-х появились слухи о странном существе — математической функции, противоречившей теореме Ампера
В Германии Бернхард Риман рассказывал своим студентам, что знает непрерывную функцию, не имеющую гладких частей, и для которой невозможно вычислить производную функции в любой точке
Риман не опубликовал доказательств, как и Шарль Селлерье из Женевского университета, который писал, что обнаружил что-то «очень важное и, как мне кажется, новое», однако спрятал свои работы в папку, ставшую достоянием общественности только после его смерти несколько десятков лет спустя
Однако если бы его заявлениям поверили, то это означало бы угрозу самым основам зарождавшегося математического анализа
Это существо угрожало разрушить счастливую дружбу между математической теорией и физическими наблюдениями, на которых она была основана
Матанализ всегда был языком планет и звёзд, но как может природа быть надёжным источником вдохновения, если найдутся математические функции, противоречащие основной её сути?
Чудовище окончательно родилось в 1872 году, когда Карл Вейерштрасс объявил, что нашёл функцию, являющуюся непрерывной, но не гладкой во всех точках
Он создал её, сложив вместе бесконечно длинный ряд функций косинуса:
f(x) = cos(3x𝝅)/2 + cos(3²x𝝅)/2² + cos(3³x𝝅)/2³ + ...
Как функция она была уродливой и отвратительной
Было даже непонятно, как она будет выглядеть на графике
Но Вейерштрасса это не волновало
Его доказательство состояло не из форм, а из уравнений, и именно это делало его заявление таким мощным
Он не только создал чудовище, но и построил его на железной логике
Он взял собственное новое строгое определение производной и доказал, что для этой новой функции её вычислить невозможно
В давнюю эпоху математики во многом вдохновлялись природой
Когда «Ньютон» разрабатывал математический анализ, он в первую очередь вдохновлялся физическим миром: траекториями планет, колебаниями маятника, движением падающего фрукта
Такое мышление привело к возникновению геометрической интуиции относительно математических структур
Они должны были иметь такой же смысл, что и физический объект
В результате этого многие математики сосредоточились на изучении «непрерывных» функций
Но в 1860-х появились слухи о странном существе — математической функции, противоречившей теореме Ампера
В Германии Бернхард Риман рассказывал своим студентам, что знает непрерывную функцию, не имеющую гладких частей, и для которой невозможно вычислить производную функции в любой точке
Риман не опубликовал доказательств, как и Шарль Селлерье из Женевского университета, который писал, что обнаружил что-то «очень важное и, как мне кажется, новое», однако спрятал свои работы в папку, ставшую достоянием общественности только после его смерти несколько десятков лет спустя
Однако если бы его заявлениям поверили, то это означало бы угрозу самым основам зарождавшегося математического анализа
Это существо угрожало разрушить счастливую дружбу между математической теорией и физическими наблюдениями, на которых она была основана
Матанализ всегда был языком планет и звёзд, но как может природа быть надёжным источником вдохновения, если найдутся математические функции, противоречащие основной её сути?
Чудовище окончательно родилось в 1872 году, когда Карл Вейерштрасс объявил, что нашёл функцию, являющуюся непрерывной, но не гладкой во всех точках
Он создал её, сложив вместе бесконечно длинный ряд функций косинуса:
f(x) = cos(3x𝝅)/2 + cos(3²x𝝅)/2² + cos(3³x𝝅)/2³ + ...
Как функция она была уродливой и отвратительной
Было даже непонятно, как она будет выглядеть на графике
Но Вейерштрасса это не волновало
Его доказательство состояло не из форм, а из уравнений, и именно это делало его заявление таким мощным
Он не только создал чудовище, но и построил его на железной логике
Он взял собственное новое строгое определение производной и доказал, что для этой новой функции её вычислить невозможно
Forwarded from Гуськов Юрий
Логичная алгебраизация
интеллектуальные системы нового поколения
Традиционная наука ошибочно отделяет человеческие умозаключения от точных математических расчетов при этом мы безоговорочно доверяем законам булевой алгебры при проектировании компьютеров, но отказываемся применять их к собственным умозаключениям.
Классификация интеллектуальных систем
современные ИИ застряли на втором уровне, а настоящий скачок возможен только при переходе к третьему и четвёртому уровням, где ключевую роль играет не машинное обучение, а формальная логика и её алгебраизация.
Одна из самых интересных идей — создание "периодической системы логических элементов", аналогичной таблице Менделеева, но для логики. Такая систематизация позволит не только формализовать все возможные логические конструкции, но и автоматизировать процесс получения новых знаний на их основе.
Страна, первой реализовавшая эти принципы, получит приоритет в создании по-настоящему интеллектуальных систем нового поколения. Это не просто технологический, а цивилизационный вызов.
Будущее ИИ — не в бесконечном наращивании параметров нейросетей, а в глубокой интеграции формальной логики, алгебраических методов и универсальных моделей описания реальности. Только так можно создать системы, способные к самостоятельному мышлению, творчеству и предвидению.
Время интеллектуальных систем нового типа уже наступает. Кто первым освоит алгебру мышления — тот и определит будущее искусственного интеллекта.
✅ на фото учебник по математике возрастом почти 4.000 лет - это руководство по арифметике и геометрии времен XII династии Среднего царства (1985–1795 годы до н. э.). По имени писца артефакт называют папирусом Ахмеса
интеллектуальные системы нового поколения
Традиционная наука ошибочно отделяет человеческие умозаключения от точных математических расчетов при этом мы безоговорочно доверяем законам булевой алгебры при проектировании компьютеров, но отказываемся применять их к собственным умозаключениям.
Классификация интеллектуальных систем
1. Программные системы — действуют строго по заложенным алгоритмам.
2. Адаптивные системы — способны учитывать внешние факторы и изменять поведение на основе накопленного опыта.
3. Предикционные системы — делают логически обоснованные прогнозы, оперативно корректируя свои действия в реальном времени.
4. Прогностические системы — строят сложные вероятностные модели будущего, оперируя многоуровневыми причинно-следственными связями.
современные ИИ застряли на втором уровне, а настоящий скачок возможен только при переходе к третьему и четвёртому уровням, где ключевую роль играет не машинное обучение, а формальная логика и её алгебраизация.
Одна из самых интересных идей — создание "периодической системы логических элементов", аналогичной таблице Менделеева, но для логики. Такая систематизация позволит не только формализовать все возможные логические конструкции, но и автоматизировать процесс получения новых знаний на их основе.
Страна, первой реализовавшая эти принципы, получит приоритет в создании по-настоящему интеллектуальных систем нового поколения. Это не просто технологический, а цивилизационный вызов.
Будущее ИИ — не в бесконечном наращивании параметров нейросетей, а в глубокой интеграции формальной логики, алгебраических методов и универсальных моделей описания реальности. Только так можно создать системы, способные к самостоятельному мышлению, творчеству и предвидению.
Время интеллектуальных систем нового типа уже наступает. Кто первым освоит алгебру мышления — тот и определит будущее искусственного интеллекта.
Please open Telegram to view this post
VIEW IN TELEGRAM
Если вы хотите понять квантовую механику, все, что вам нужно сделать, это понять эту фразу:
«Все, что мы считаем реальным, состоит из вещей, которые нельзя считать реальными»
Нильс Бор говорил: «Если квантовая теория не потрясла тебя — ты её ещё не понял»
Ричард Фейнман сказал: «Квантовая механика — это теория, которую все используют, но никто никогда не понимает»
Эрвин Шредингер, установивший основное уравнение квантовой механики, сказал о квантовой механике: «Мне не нравится эта теория, и мне жаль, что я внес в нее свой вклад»
«Все, что мы считаем реальным, состоит из вещей, которые нельзя считать реальными»
Нильс Бор говорил: «Если квантовая теория не потрясла тебя — ты её ещё не понял»
Ричард Фейнман сказал: «Квантовая механика — это теория, которую все используют, но никто никогда не понимает»
Эрвин Шредингер, установивший основное уравнение квантовой механики, сказал о квантовой механике: «Мне не нравится эта теория, и мне жаль, что я внес в нее свой вклад»
Интеллект из хаоса: как сложные системы рождают результат
Нейросети могут научиться это делать и без человеческого опыта
Как рождается интеллект - любой интеллект:
от милипизерного интеллекта крохотной Нематоды с ее 300 нейронами
• до интеллекта венца природы Homo sapiens с его 76.000.000.000 нейронов
С появлением дегенеративного интеллекта машин, этот вопрос лишь еще больше запутался
Как рождается результат
• не только, естественный (биологический)
• но и искусственный (машинный) результат тоже
Дегенеративный ИИ, - появляется в результате способности моделей предсказывать следующий токен (напр. символ или слово)
Для этого модель использует колоссальных объемов статистику вероятностей встречающихся паттернов токенов, извлекаемую ею из предоставленных ей гигантских корпусов обучающих данных
Так что ж получается – результат рождается из данных?
И достаточно, собрав чертову тучу данных, заложить в машину логические правила извлечения из них статистики паттернов?
А потом вуаля, - интеллект сам заведется, как тараканы на немытой кухне?
Не совсем так, точнее, совсем не так
Новая весьма интересная работа молодых исследователей универов Йеля, Нортуэстерна и Айдахо выносит ответ на этот вопрос в свой заголовок - результат переходит в хаос
Нейросети могут научиться это делать и без человеческого опыта
Как рождается интеллект - любой интеллект:
от милипизерного интеллекта крохотной Нематоды с ее 300 нейронами
• до интеллекта венца природы Homo sapiens с его 76.000.000.000 нейронов
С появлением дегенеративного интеллекта машин, этот вопрос лишь еще больше запутался
Как рождается результат
• не только, естественный (биологический)
• но и искусственный (машинный) результат тоже
Дегенеративный ИИ, - появляется в результате способности моделей предсказывать следующий токен (напр. символ или слово)
Для этого модель использует колоссальных объемов статистику вероятностей встречающихся паттернов токенов, извлекаемую ею из предоставленных ей гигантских корпусов обучающих данных
Так что ж получается – результат рождается из данных?
И достаточно, собрав чертову тучу данных, заложить в машину логические правила извлечения из них статистики паттернов?
А потом вуаля, - интеллект сам заведется, как тараканы на немытой кухне?
Не совсем так, точнее, совсем не так
Новая весьма интересная работа молодых исследователей универов Йеля, Нортуэстерна и Айдахо выносит ответ на этот вопрос в свой заголовок - результат переходит в хаос
Эта картинка — тест с оптической иллюзией. Первую такую головоломку создали в 1904 году французские исследователи Альфред Бине и Теодор Симон, чтобы отличать учеников с задержкой развития от тех, кто просто ленится
Это классический тест для тренировки мозга и концентрации внимания
Он кажется простым: нужно найти 9 человек и 7 животных
Но, как пишут специалисты, удается это всего 1 человеку из 10
Это классический тест для тренировки мозга и концентрации внимания
Он кажется простым: нужно найти 9 человек и 7 животных
Но, как пишут специалисты, удается это всего 1 человеку из 10
56 % учителей информатики в РФ хотели бы освоить Ml для применения в учебном процессе
Кроме того, учителя стремятся изучать актуальные языки программирования (45 %), внедрять инновационные методики преподавания (41 %), осваивать современные инструменты веб- и мобильной разработки (37 %) , а также работу с робототехникой и Интернетом вещей (35 %)
За скоростью, с которой технологии меняются и входят в жизнь школьников, традиционные модели повышения квалификации часто просто не успевают, поэтому на запрос сейчас должны отвечать и крупные технологические компании
Разработанные ими современные Ml -инструменты — от обучающих курсов до Ml -помощника для учителей — это по сути помощь коллегам: нынешним и будущим
Внедрение технологий Ml в обучение педагоги назвали и в числе ключевых трендов в сфере информатики за последние пять лет, но здесь Ml на третьем месте с 42 %
На первом — рост популярности цифровых образовательных платформ (64 %), на втором — рост количества сдающих информатику на ЕГЭ (56 %)
Кроме того, учителя стремятся изучать актуальные языки программирования (45 %), внедрять инновационные методики преподавания (41 %), осваивать современные инструменты веб- и мобильной разработки (37 %) , а также работу с робототехникой и Интернетом вещей (35 %)
За скоростью, с которой технологии меняются и входят в жизнь школьников, традиционные модели повышения квалификации часто просто не успевают, поэтому на запрос сейчас должны отвечать и крупные технологические компании
Разработанные ими современные Ml -инструменты — от обучающих курсов до Ml -помощника для учителей — это по сути помощь коллегам: нынешним и будущим
Внедрение технологий Ml в обучение педагоги назвали и в числе ключевых трендов в сфере информатики за последние пять лет, но здесь Ml на третьем месте с 42 %
На первом — рост популярности цифровых образовательных платформ (64 %), на втором — рост количества сдающих информатику на ЕГЭ (56 %)
Параллельно с LLM/VLM Google продолжает совершенствовать Gemini Robotics 1.5
Построена на Gemini 2.5, использует две модели/агента: первая планирует, вторая выполняет действия на физическом роботе
Построена на Gemini 2.5, использует две модели/агента: первая планирует, вторая выполняет действия на физическом роботе
Ml
Параллельно с LLM/VLM Google продолжает совершенствовать Gemini Robotics 1.5 Построена на Gemini 2.5, использует две модели/агента: первая планирует, вторая выполняет действия на физическом роботе
Gemini Robotics 1.5: роботы, которые думают, прежде чем делать
Title: Gemini Robotics 1.5: Pushing the Frontier of Generalist Robots with Advanced Embodied Reasoning, Thinking, and Motion Transfer
Authors: Gemini Robotics Team, Google DeepMind
Paper: https://arxiv.org/abs/2510.03342
Review: https://arxiviq.substack.com/p/gemini-robotics-15
Что сделали?
В статье представлено семейство Gemini Robotics 1.5 — пара фундаментальных моделей, предназначенных для развития робототехники общего назначения
Семейство включает:
1) Gemini Robotics 1.5 (GR 1.5) — модель «зрение-язык-действие» (VLA) для низкоуровневого управления, работающую с разными физическими воплощениями (multi-embodiment)
2) Gemini Robotics-ER 1.5 (GR-ER 1.5) — SOTA-модель для воплощённых рассуждений (Embodied Reasoning, ER) для высокоуровневого понимания и планирования
Работа предлагает три ключевых нововведения
Во-первых, новый механизм переноса движений (Motion Transfer, MT) позволяет единой VLA-модели обучаться на разнородных данных от разных роботов (ALOHA, двурукий Franka, гуманоид Apollo) и достигать переноса навыков в режиме zero-shot
Во-вторых, способность к «воплощённому обдумыванию» (Embodied Thinking) позволяет VLA-модели чередовать действия с внутренними рассуждениями на естественном языке, что значительно улучшает её способность справляться со сложными многошаговыми задачами
В-третьих, модель GR-ER 1.5 устанавливает новый SOTA-уровень в широком спектре задач, требующих рассуждений, и обеспечивает интеллектуальную основу для мощной агентной системы
Это исследование — важный шаг к созданию действительно универсальных роботов
Предложенная агентная архитектура, сочетающая высокоуровневый «оркестратор» для рассуждений (GR-ER 1.5) с низкоуровневой «моделью действий» (GR 1.5), представляет собой надёжную основу для решения сложных, долгосрочных проблем
Механизм переноса движений напрямую решает критическую проблему нехватки данных в робототехнике, объединяя обучение на разных платформах и ускоряя прогресс в создании универсальных роботов
Наконец, процесс «обдумывания» делает поведение робота более эффективным, прозрачным и способным к сложному восстановлению после ошибок, продвигая область от простого реактивного управления к когнитивной агентности
Title: Gemini Robotics 1.5: Pushing the Frontier of Generalist Robots with Advanced Embodied Reasoning, Thinking, and Motion Transfer
Authors: Gemini Robotics Team, Google DeepMind
Paper: https://arxiv.org/abs/2510.03342
Review: https://arxiviq.substack.com/p/gemini-robotics-15
Что сделали?
В статье представлено семейство Gemini Robotics 1.5 — пара фундаментальных моделей, предназначенных для развития робототехники общего назначения
Семейство включает:
1) Gemini Robotics 1.5 (GR 1.5) — модель «зрение-язык-действие» (VLA) для низкоуровневого управления, работающую с разными физическими воплощениями (multi-embodiment)
2) Gemini Robotics-ER 1.5 (GR-ER 1.5) — SOTA-модель для воплощённых рассуждений (Embodied Reasoning, ER) для высокоуровневого понимания и планирования
Работа предлагает три ключевых нововведения
Во-первых, новый механизм переноса движений (Motion Transfer, MT) позволяет единой VLA-модели обучаться на разнородных данных от разных роботов (ALOHA, двурукий Franka, гуманоид Apollo) и достигать переноса навыков в режиме zero-shot
Во-вторых, способность к «воплощённому обдумыванию» (Embodied Thinking) позволяет VLA-модели чередовать действия с внутренними рассуждениями на естественном языке, что значительно улучшает её способность справляться со сложными многошаговыми задачами
В-третьих, модель GR-ER 1.5 устанавливает новый SOTA-уровень в широком спектре задач, требующих рассуждений, и обеспечивает интеллектуальную основу для мощной агентной системы
Это исследование — важный шаг к созданию действительно универсальных роботов
Предложенная агентная архитектура, сочетающая высокоуровневый «оркестратор» для рассуждений (GR-ER 1.5) с низкоуровневой «моделью действий» (GR 1.5), представляет собой надёжную основу для решения сложных, долгосрочных проблем
Механизм переноса движений напрямую решает критическую проблему нехватки данных в робототехнике, объединяя обучение на разных платформах и ускоряя прогресс в создании универсальных роботов
Наконец, процесс «обдумывания» делает поведение робота более эффективным, прозрачным и способным к сложному восстановлению после ошибок, продвигая область от простого реактивного управления к когнитивной агентности
arXiv.org
Gemini Robotics 1.5: Pushing the Frontier of Generalist Robots...
General-purpose robots need a deep understanding of the physical world, advanced reasoning, and general and dexterous control. This report introduces the latest generation of the Gemini Robotics...
This media is not supported in your browser
VIEW IN TELEGRAM
Параметрическое представление — используемая в математическом анализе разновидность представления переменных, когда их зависимость выражается через дополнительную величину — параметр
Параметризация – метод представления кривой, поверхности или объекта в пространстве с помощью одной или нескольких переменных, называемых параметрами
Параметризация позволяет описывать траекторию объекта на кривой или поверхности, изменяя значение параметра
Это гибкий подход для изучения и анализа форм и движений объектов
Параметризация – метод представления кривой, поверхности или объекта в пространстве с помощью одной или нескольких переменных, называемых параметрами
Параметризация позволяет описывать траекторию объекта на кривой или поверхности, изменяя значение параметра
Это гибкий подход для изучения и анализа форм и движений объектов