93 subscribers
46 photos
5 videos
27 files
265 links
Machine learning
Download Telegram
56 % учителей информатики в РФ хотели бы освоить Ml для применения в учебном процессе

Кроме того, учителя стремятся изучать актуальные языки программирования (45 %), внедрять инновационные методики преподавания (41 %), осваивать современные инструменты веб- и мобильной разработки (37 %) , а также работу с робототехникой и Интернетом вещей (35 %)

За скоростью, с которой технологии меняются и входят в жизнь школьников, традиционные модели повышения квалификации часто просто не успевают, поэтому на запрос сейчас должны отвечать и крупные технологические компании

Разработанные ими современные Ml -инструменты — от обучающих курсов до Ml -помощника для учителей — это по сути помощь коллегам: нынешним и будущим

Внедрение технологий Ml в обучение педагоги назвали и в числе ключевых трендов в сфере информатики за последние пять лет, но здесь Ml на третьем месте с 42 %

На первом — рост популярности цифровых образовательных платформ (64 %), на втором — рост количества сдающих информатику на ЕГЭ (56 %)
Параллельно с LLM/VLM Google продолжает совершенствовать Gemini Robotics 1.5

Построена на Gemini 2.5, использует две модели/агента: первая планирует, вторая выполняет действия на физическом роботе
Ml
Параллельно с LLM/VLM Google продолжает совершенствовать Gemini Robotics 1.5 Построена на Gemini 2.5, использует две модели/агента: первая планирует, вторая выполняет действия на физическом роботе
Gemini Robotics 1.5: роботы, которые думают, прежде чем делать

Title: Gemini Robotics 1.5: Pushing the Frontier of Generalist Robots with Advanced Embodied Reasoning, Thinking, and Motion Transfer
Authors: Gemini Robotics Team, Google DeepMind
Paper:
https://arxiv.org/abs/2510.03342
Review:
https://arxiviq.substack.com/p/gemini-robotics-15

Что сделали?
В статье представлено семейство Gemini Robotics 1.5 — пара фундаментальных моделей, предназначенных для развития робототехники общего назначения

Семейство включает:
1) Gemini Robotics 1.5 (GR 1.5) — модель «зрение-язык-действие» (VLA) для низкоуровневого управления, работающую с разными физическими воплощениями (multi-embodiment)

2) Gemini Robotics-ER 1.5 (GR-ER 1.5) — SOTA-модель для воплощённых рассуждений (Embodied Reasoning, ER) для высокоуровневого понимания и планирования

Работа предлагает три ключевых нововведения

Во-первых, новый механизм переноса движений (Motion Transfer, MT) позволяет единой VLA-модели обучаться на разнородных данных от разных роботов (ALOHA, двурукий Franka, гуманоид Apollo) и достигать переноса навыков в режиме zero-shot

Во-вторых, способность к «воплощённому обдумыванию» (Embodied Thinking) позволяет VLA-модели чередовать действия с внутренними рассуждениями на естественном языке, что значительно улучшает её способность справляться со сложными многошаговыми задачами

В-третьих, модель GR-ER 1.5 устанавливает новый SOTA-уровень в широком спектре задач, требующих рассуждений, и обеспечивает интеллектуальную основу для мощной агентной системы

Это исследование — важный шаг к созданию действительно универсальных роботов
Предложенная агентная архитектура, сочетающая высокоуровневый «оркестратор» для рассуждений (GR-ER 1.5) с низкоуровневой «моделью действий» (GR 1.5), представляет собой надёжную основу для решения сложных, долгосрочных проблем

Механизм переноса движений напрямую решает критическую проблему нехватки данных в робототехнике, объединяя обучение на разных платформах и ускоряя прогресс в создании универсальных роботов

Наконец, процесс «обдумывания» делает поведение робота более эффективным, прозрачным и способным к сложному восстановлению после ошибок, продвигая область от простого реактивного управления к когнитивной агентности
This media is not supported in your browser
VIEW IN TELEGRAM
Параметрическое представление — используемая в математическом анализе разновидность представления переменных, когда их зависимость выражается через дополнительную величину — параметр

Параметризация – метод представления кривой, поверхности или объекта в пространстве с помощью одной или нескольких переменных, называемых параметрами

Параметризация позволяет описывать траекторию объекта на кривой или поверхности, изменяя значение параметра

Это гибкий подход для изучения и анализа форм и движений объектов
Пустое множество является подмножеством любого множества

Само множество также является подмножеством самого себя

Если подмножество некоторого множества не является пустым и не является всем множеством, говорят, что оно является собственным подмножеством
В четверг (16.10) в 18:30 в Голбуом зале Центрального дома ученых РАН будет заседание секции математики

Научное творчество академика С. П. Новикова

Заседание ведет В.М. Бухштабер
На конференции по языковому моделированию COLM в Монреале представили новый метод интерпретации больших языковых моделей — SAE Boost

Технология позволяет понять, на какие внутренние признаки опирается Ml при формировании ответов, и делает это без переобучения всей модели

Метод уже протестировали на тестах по химии, документах ООН и русскоязычных данных — интерпретируемость выросла, а качество ответов осталась на прежнем уровне

https://arxiv.org/html/2507.12990v1
Если вдруг вы пропустили, и не можете уснуть, пара полезных ресурсов про Agentic AI

"Agentic AI" course by Andrew Ng
https://www.deeplearning.ai/courses/agentic-ai/

"Agentic Design Patterns" book by Antonio Gulli
https://docs.google.com/document/d/1rsaK53T3Lg5KoGwvf8ukOUvbELRtH-V0LnOIFDxBryE/preview?tab=t.0
В XIX веке, когда компьютеров ещё не существовало, леди Лавлейс придумала первый алгоритм для вычислительной машины
По сути, это была первая программа в истории — и её автору тогда было всего 27 лет

Делимся тремя фактами из жизни известнейшей женщины-математика
Оценят все, кто дружит с числами и кодом:

Ада — дочь Джорджа Байрона

Мать боялась, что дочь унаследует порывистый характер отца, и с детства окружала её наукой
Уроки логики, геометрии и алгебры не прошли даром — врождённый талант Ады превратился в математическую интуицию

Она написала
первый в истории алгоритм

Изучая проект разностной машины Чарльза Бэббиджа, Ада предложила, как та могла бы вычислять числа Бернулли
Она расписала шаги вычислений и результат — по сути, создала первую программу
Сегодня это заняло бы несколько строк кода, а тогда представляло собой сложную таблицу с десятками операций

В честь леди Лавлейс назвали язык программирования ADA, созданный для военных систем, и архитектуру видеокарт NVIDIA
А ещё именно Ада ввела в обиход понятия «цикл» и «рабочая ячейка»

Каждый второй вторник октября весь мир отмечает её день — праздник достижений женщин в науке и технологиях
Искусство математика состоит в нахождении того частного случая, который содержит в себе все зародыши общности
Less is More: Recursive Reasoning with Tiny Networks
Alexia Jolicoeur-Martineau
https://arxiv.org/abs/2510.04871
https://github.com/SamsungSAILMontreal/TinyRecursiveModels

HRM продемонстрировала интересный результат с малым размером модели, при этом последующий анализ от организаторов ARC-AGI показал, что в первую очередь на результат влияет последовательное улучшение ответа (deep supervision), а рекурсия в H и L модулях добавляет не очень много

Новая работа про TRM (Tiny Recursive Model) ставит под сомнение необходимость всей этой сложности и исповедует философию — «меньше значит больше»
Новая модель TRM содержит 5M-19M параметров (есть нюансы), против 27M у HRM


И статью, и этот разбор есть смысл читать после того, как вы уже прочитали про HRM, потому что вся статья построена как систематический разбор HRM

Также постоянно следует помнить, что сравнение HRM/TRM с традиционными LLM во многом ущербно, это модели совсем разных классов

LLM - довольно общие модели, обученные на всём интернете на задачах продолжения текста, включая сложные файнтюны на чат, инструкции, решение различных задач по математике и прочим дисциплинам и т.д.

То, что при этом они способны _ещё_ и решать судоку, лабиринты, тесты ARC-AGI - на самом деле довольно удивительно

Все современные LLM это трансформер-декодеры (есть гибриды с SSM, но здесь это не важно)
HRM/TRM -- это трансформер-энкодер (как BERT), он не продолжает никакую последовательность токен за токеном, он обрабатывает все токены сразу и генерит новую последовательность той же длины, что и входная

HRM/TRM (в отличие от BERT, тоже обученного примерно на всём интернете) обучается только на одну конкретную задачу из списка, ни про какую универсальность здесь речи пока нет

Так что все восторженные посты в духе, что вот появилась модель в миллион раз меньшая по размеру и бьющая лучшие топовые LLM и скоро всем им кранты, дотацентры не нужны и прочее - надо делить на тот же миллион, многие из авторов вообще не разобрались, что сделано
Шифр Цезаря, один из старейших и простейших методов шифрования информации:

Каждая буква заменяется на другую, сдвинутую на фиксированное число позиций в алфавите
Это фиксированное число называется ключом шифра

В нашем случае ключ равен -9, то есть Я переходит в И, и так далее

Если вам вдруг придётся расшифровывать подобное сообщение на английском, то сразу делимся
сайтом!

Ещё один похожий шифр называется Атбаш

Он пришёл из древнего иврита: в нём первая буква алфавита заменялась на последнюю, вторая — на предпоследнюю, и так далее

То есть в русском алфавите А превращается в Я, Б — в Ю, В — в Э и так далее

В полиалфавитных (в отличие от моноалфавитных, где каждая буква меняется по одному и тому же правилу) шифрах правила меняются для каждого символа

Позиционно-полиалфавитным — сдвиг зависит от позиции буквы в слове
А именно: первая сдвигается на 1, вторая — на 2, третья — на 3 и так далее

Кстати, именно эта идея — что ключ может меняться — и стала основой одного очень важного шифра в истории человечества: шифра Виженера

В нём сдвиг каждой буквы определяется ключевым словом
В предварительном отчёте Wiley за 2025 год, посвящённом влиянию технологий на науку, опубликованы свежие данные об отношении учёных к искусственному интеллекту

Один из наиболее неожиданных результатов — уровень доверия к Ml среди исследователей снизился по сравнению с 2024 годом, несмотря на существенный прогресс в развитии технологий

В 2024 году 51 % учёных высказывали тревогу по поводу возможности «галлюцинаций» — ситуации, когда языковые модели выдают выдуманные факты за истину
В 2025 году эта доля выросла до 64 %
Это происходит даже на фоне того, что уровень использования Ml в научных исследованиях увеличился с 45 % до 62 %

Также отмечен рост обеспокоенности вопросами безопасности и конфиденциальности — соответствующий показатель подскочил на 11 % по сравнению с предыдущим годом

Наряду с этим усилились сомнения в прозрачности и этичности искусственного интеллекта
DeepSeek выпустили новую модель

DeepSeek-OCR — это Ml-модель, которая извлекает текст из документов, изображений и PDF-файлов

Главное отличие от привычных OCR-систем: модель не просто "читает" текст, а понимает структуру документа и может работать с разными форматами вывода

Интересный концепт в статье — имитация человеческой памяти
Модель может сжимать старые части документа сильнее, чем новые, подобно тому, как мы помним недавние события детально, а далёкие — размыто

Ключевые возможности:

1.
Модель предлагает 6 режимов работы — от экономичного Tiny (64 визуальных токена) до мощного Gundam-M (1853 токена)
2. Обучена на 30.000.000 страниц документов на 100+ языках
Основной фокус — китайский и английский (25.000.000 страниц), но работает и с другими языками

Модель состоит из DeepEncoder и DeepSeek-3B-MoE декодер

Инфраструктура:

- Python 3.12.9, CUDA 11.8, PyTorch 2.6.0
- Поддержка vLLM для высокопроизводительной обработки (~2500 токенов/сек на A100-40G для PDF)
- Доступна через Hugging Face Transformers

Практические сценарии использования:
1. Обработка архивов
2. Автоматизация документооборота
3. Мультиязычная поддержка
4. Научные исследования — распознавание формул, таблиц, диаграмм из публикаций
Anthropic представили Claude для научных исследований

Команда
создала новые инструменты для Claude в сфере науки о жизни:

1. Прямые подключения к научным базам — PubMed, Benchling,
Synapse.org, 10x Genomics
Можно искать статьи, работать с лабораторными данными и анализировать геномы через обычный диалог с моделью

2. Agent Skills — готовые скрипты для типовых задач
Например, есть набор для контроля качества RNA-seq данных
Можно делать свои

Доступно через
Claude.com и AWS Marketplace. Google Cloud — скоро

Для академических лабораторий есть программа с бесплатными API-кредитами

Кто уже использует:

- Sanofi, AbbVie, Novo Nordisk

- Broad Institute и Stanford тестируют для биоинформатики
10x Genomics встроили в свои инструменты для анализа одноклеточных данных
К вопросу о важности символики для развития математики
Вот у Бомбелли (16_й век) записано число √(7 + √14)
И это был уже прорыв в переходе от словесной к символьной записи математических выражений
🔥1
Google опубликовала статью о квантовом алгоритме Quantum Echoes на процессоре Willow
Другие работы Google в этом направлении
тут

Команда сейчас измерила распространение информации в квантовой системе (OTOC²) на 65-105 кубитах

Эксперимент длился 2.1 часа на Willow против 3.2 года на суперкомпьютере Frontier, что значит в 13.000 раз быстрее

Интересный факт, эксперимент на 40 кубитах занял 3 часа точного расчёта на облаке Google и 6 дней симуляции на NVIDIA H100 для достижения той же точности методом Monte Carlo

Впервые результат можно воспроизвести на другом квантовом компьютере

Также показали определение параметров квантовых систем

Но как пишут сами авторы - это была игрушечная задача
До практики далеко — нужны миллионы кубитов, пока их только 105
🔥1
«Господа, — сказал он — Предлагаю вам самим отправиться и измерить эту будку
Вы увидите, что длина прилавка составляет 149 сантиметров, то есть одну стомиллиардную долю расстояния между Землей и Солнцем. Высота его задней стенки, разделенная на ширину окошка, дает нам 176/56, то есть 3,14
Высота фасада составляет девятнадцать дециметров, то есть равна количеству лет древнегреческого лунного цикла
Сумма высот двух передних ребер и двух задних ребер подсчитывается так: 190х2+176х2=732, это дата победы при Пуатье
Толщина прилавка составляет 3,10
сантиметров, а ширина наличника окна — 8,8 сантиметров
Заменяя целые числа соответствующими литерами алфавита, мы получим C10H8, то есть формулу нафталина

— Фантастика, — сказал я — Сами мерили?

— Нет, — ответил Алье — Но один подобный киоск был измерен неким Жан–Пьером Аданом
Воображаю, что все цветочные киоски должны строиться более или менее одинаково

С цифрами вообще можно делать что угодно"
😁1