116 subscribers
72 photos
12 videos
45 files
373 links
MACHINE LEARNING ALGORITHMS
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Я всегда говорю студентам, что для того, чтобы стать по-настоящему хорошим математиком, нужно быть ленивым

То есть вы смотрите на это и думаете: да, можно сразу взять, проинтегрировать, подставить значение и получить ноль

А можно на минутку отвлечься и подумать, есть ли какой-то трюк, который позволит получить ответ без лишних вычислений
И ответ — да, есть
Artificial Analysis представила обновленный рейтинг Ml-систем Intelligence Index 4.0.

Результаты показали неожиданную картину - разница между тремя ведущими моделями практически исчезла

По итогам измерений на первой строчке оказалась GPT-5.2 X-High от OpenAI

Однако её преимущество над Claude Opus 4.5 и Gemini 3 Pro настолько мало, что находится в пределах статистической ошибки
Исследователи представили KernelEvolve — фреймворк, который использует LLM и поиск по графу для автоматической генерации высокопроизводительных ядер на языке Triton

Система применяет RAG (retrieval-augmented generation), чтобы подтягивать спецификации железа (NVIDIA, AMD и кастомные чипы MTIA), что позволяет оптимизировать как вычислительно тяжелые операции, так и задачи препроцессинга данных

Это стратегический сдвиг в AI-инфраструктуре, отвязывающий архитектуру модели от ограничений железа
Система достигла 100 % корректности на бенчмарке KernelBench и показала ускорение до 17× относительно PyTorch

Это доказывает, что агенты способны справиться с комбинаторным взрывом операторов и типов ускорителей, что критически важно для внедрения проприетарного кремния (MTIA), для которого у публичных LLM нет обучающих данных

https://arxiv.org/abs/2512.23236
https://arxiviq.substack.com/p/kernelevolve-scaling-agentic-kernel
https://triton-lang.org/
https://arxiv.org/abs/2502.10517
Ещё одна электронная книга (небольшая) с визуализацией концепций ML
Сделано аккуратно: приводятся формулы, код и доводится до красивой картинки (или видео)
Правда, всего 4 главы: оптимизация, кластеризация, линейные модели и нейросети
Материал "начального уровня" (но удобно, что он тут собран)

https://ml-visualized.com/
"Тебе что, все по три раза повторять надо?!" - DA

Метод строгих училок снова в строю
Простым, не рассуждающим AI-моделям надо
повторить задачу три раза (не меняя) для существенного повышения качества ответа

Особено если запрос длинный - модель успевает забыть его начало когда дочитывает до конца

Не благодарите
Не благодарите
Не благодарите
Подходят к концу каникулы, продолжают работу математические кружки МЦНМО — присоединяйтесь или умрёте

по вторникам с 13 января — 4 и 5 кл. (Т.В. Казицына)
по четвергам с 15 января — 7 кл. (Д.А. Калинин)
по субботам с 17 января — 6 кл. (рук. В.В. Миронов)
по понедельникам с 19 января — 8 кл. (Н.А. Солодовников)

Как обычно: для всех желающих заниматься (бесплатно, без вступительных экзаменов, без предварительной регистрации и смс); кружки очные, в МЦНМО

mccme.ru/ru/math-circles/circles-mccme/20252026/
Forwarded from COLUMNA
Ml-новое: ииизм (почему не просто "иизм", если "шиизм"?), слоптимизм (как совпало с поптимизмом то) и (в шутку) иишница

Слова такие свежие (
прелогизмы), что даже определения давать лишнее, они сами за себя говорят достаточно
Я наверное, иист, но не считаю себя слоптимистом, даже имея
специфиичные-вкусы-вы-не-поймете
Потому
что это не слоп!

P. S. Можно сократить до "и3зм", как
нумероним W3C
На этой неделе GPT-5.2 Pro решила уже две открытые математические задачи, которые люди не могли решить на протяжении многих лет

Речь снова пойдет про список Эрдеша
И тут сразу оговорка для тех, кто помнит октябрьскую историю (GPT-5 просто откопала ответ на задачку в старых статьях, а в OpenAI заявили, что она «нашла решение»): на этот раз все честно, автономность решения в обоих случаях подтвердил сам Теренс Тао

Итак:
1. Первая задачка – под номером 728
Ее отдал GPT-5.2 сам Теренс
Прикол с этой задачкой в том, что исходная формулировка Эрдеша была неверной, и корректная постановка была получена только несколько месяцев назад, так что предшествующей литературы по ней вообще не было

Задача была решена более или менее автономно (после получения обратной связи по результатам первоначальной попытки), и результат (насколько нам известно) не был воспроизведен в литературе (хотя были найдены результаты, доказанные аналогичными методами)


Обратите внимание на последнее предложение: это не умаляет результат, НО модель все еще воспроизводит известные доказательства, а не придумывает что-то нечеловеческое

2. Вторая – № 397. Ее
засабмитил Нил Сомани, а проверил Теренс

Доказательство было сгенерировано GPT 5.2 Pro и оформлено с помощью Harmonic

Много открытых проблем просто сидят и ждут, когда кто-нибудь предложит ChatGPT решить их
Математическая лингвистика: от грамматик к трансформерам

От регулярных языков и конечных автоматов — к контекстно‑свободным и магазинной памяти, дальше к КЗ и языкам типа 0 и машинам Тьюринга — уже не как к музейным экспонатам, а как к линейке моделей

Добавляем структурную лингвистику: фонемы, морфемы, синтаксические деревья
Затем поверх этого три слоя: статистическую ОЕЯ, нейросетевой подход и, наконец, трансформеры и большие языковые модели как синтез всех предыдущих идей

Зачем всё это, если есть готовые парсеры и ChatGPT?
Чтобы понимать, что происходит внутри этих моделей и как воспроизвести их поведение своими руками, а не ждать очередного чуда от чёрного ящика
4-месячный стартап Axiom сообщил, что их ИИ AxiomProver решил 9 из 12 задач в языке Lean

Axiom строит Ml-математика, способного на рассуждения, генерацию доказательств, проверку своей работы. Коммерческие последствия огромны - верификация, логистика, трейдинг, научные исследования и любые домены, где важны корректность и оптимизация

Что именно сделал их Ml:

- Задачи формализовали люди (это был внутренний «Prove-a-ton» — хакатон по переводу задач в Lean)
- Дальше AxiomProver работал полностью автономно
- 8 задач решены за первые 58 минут после экзамена, 9-я — к полудню следующего дня
- Всё в Lean 4 + Mathlib, каждое доказательство проверено компилятором на 100 %

Что говорят сами математики:

1. Это первый случай, когда Ml даёт полностью верифицируемые доказательства на уровне топ-5 мира

2. Формальные доказательства пока дорогие, но цена одного пруфа может превышать зарплату аспиранта

3. Через 5–10 лет такие системы будут обычным инструментом, как сейчас Wolfram Alpha, только для доказательств

Основателем стартапа является 24-летняя Карина Хонг,окончившая MIT и получившая 2 диплома математика и физика за 3 года, также она лауреат Morgan Prize, Rhodes Scholar, бросила PhD/JD в Стэнфорде

Недавно к ней присоединился Кен Оно — один из самых влиятельных ныне живущих специалистов по теории чисел и эллиптическим кривым (бывший вице-президент AMS, ментор десятков Putnam Fellows)

Команда — 17 человек, среди них аспиранты и постдоки из MIT, Cambridge, Imperial, Humboldt

Стартап привлек уже $64.000.000 от Menlo Ventures

У кейс интересен тем, что уровень сложности экзаменов выше, чем IMO, которым хвастались Google, OpenAI, Harmonic

Ml AxiomProver решил 12 из 12 задач самой сложной студенческой математической олимпиады в мире Putnam

Стартап Axiom создал ИИ AxiomProver, генерирующий формально верифицированные доказательства

Ключевое отличие от других Ml-систем - каждое решение - это не ответ, а полное формальное доказательство на языке Lean, которое можно машинно верифицировать
Lean не принимает неправильные доказательства

Стартап выявил 3 категории задач и вот, что они показывают:

1. Простое для людей, мучительное для формализации - задачи на матанализ
Человек смотрит на график и видит ответ
А чтобы Ml записать это в Lean нужны сотни строк кода

2. Задачи, которые AxiomProver неожиданно решил - комбинаторика и геометрия - исторически слабые места Ml-систем
Нерешённые задачи IMO 2024 и 2025 как раз из этих областей

AxiomProver решил обе такие задачи на Putnam

3. Люди и Ml решили по-разному задачи, например,
в задаче A4 люди интуитивно тянулись к алгебре
Ml подошел к решению геометрически

Главный вопрос - что делает математическую задачу сложной для Ml?
То, что сложно людям, и то, что сложно Ml - разные вещи
У людей есть интуиция

Теория «машинной сложности» — что структурно делает задачи лёгкими или трудными для автоматических доказательств— это открытое исследовательское направление
Перплексия теперь не модно. Эпиплексия модно
Всё на благо ограниченных наблюдателей!

Авторы ввели понятие эпиплексии (epiplexity) — новую метрику из теории информации, которая оценивает объём структурной информации, доступной *вычислительно ограниченному* наблюдателю

В отличие от энтропии Шеннона или колмогоровской сложности, подразумевающих бесконечные ресурсы, эпиплексия явно учитывает конечность модели (программы) и процесса обучения (вычислений)

Этот фреймворк разрешает старые парадоксы, где теория противоречит практике глубокого обучения — например, почему детерминированные процессы (вроде симуляций или self-play) создают ценный сигнал

Практически это даёт строгую метрику для отбора данных: для предобучения важен не минимум финального лосса (энтропии), а максимум усваиваемой структуры (эпиплексии)

Подробнее:
https://t.me/gonzo_ML_podcasts/2022
Epiplexity: Quantifying the Structural Value of Data for Bounded Observers
Marc Finzi, Shikai Qiu, Yiding Jiang, Pavel Izmailov, J. Zico Kolter, Andrew Gordon Wilson
Статья:
https://arxiv.org/abs/2601.03220
Ревью:
https://arxiviq.substack.com/p/from-entropy-to-epiplexity-rethinking
Формализовать оценки в аналитической теории чисел

Создать живую сеть импликаций, когда первичная оценка улучшается, каждое downstream-следствие автоматически обновляется
Это превратит математическую литературу в модульное ПО

В большом
интервью развёрнутое видение будущего

Изменился способ, которым делаем математику
Определение математика расширилось

Возможно, через 10 лет математик без навыков работы с proof assistants будет как программист без Git

Это другой стиль написания доказательств, который на самом деле в некоторых отношениях легче читать — сложнее проверять людям, но видны более ясно входы и выходы доказательства, которые традиционное письмо часто скрывает»

Ml делает масштабируемым, превращает написание доказательств в задачу поиска: генерирует тысячи мини-лемм из цели, затем дешёвые проверщики отсеивают большинство и оставляют те немногие, что работают

Ml учит человеческой глупости
То, что люди находят сложным, Ml находит лёгким
Машины взломали язык через простую вероятность — человеческий разговор не так сложен, как заявляли

Ml-инструменты теперь достаточно способны, чтобы решать задачи, перечисленные как открытые в базе данных задач Эрдёша

Это не Ml, открывающий глубокую математику
Это pattern matching, применённый к доступным задачам
Аристотелевские законы тождества
(А=А) и непротиворечия (не может быть одновременно А и не-А) - это инструменты аналитического ума, который расчленяет мир на статические категории, на некие сущности
Гераклит же видел мир как поток, где на поверхности кажущиеся противоположности (день-ночь, жизнь-смерть) борются, но в глубине они едины (все течёт, всё есть огонь в своих превращениях)
В дзен (чань), дуализм представлен как болезнь ума
Не И или И, а И и И
Гильбертово пространство, по сути, очень похоже на всем нам знакомое евклидово пространство
Однако оно имеет два замечательных свойства, которые облегчают жизнь физикам

Гильбертово пространство бесконечномерное и может состоять из комплексных чисел

В качестве примера представьте себе наперсток, крошечный (примерно в миллион миллиардов раз меньше, чем кончик иглы), в котором в танце ядерных сил взаимодействуют между собой протоны и нуклоны
В этом наперстке (аналогом будет являться ядро атома) происходит настоящее физическое событие – то есть Гильбертово пространство многих тел

Каждый нуклон – будь то протон или нейтрон – скачет некоторым образом
Вдруг из наперстка выскочит (возможно из-за квантового туннелирования) один самый непослушный нуклон и где-то в уголочке будет продолжать вести себя крайне странным образом

Опишем некоторым способом его личное пространство и назовем его H1 - Гильбертово пространство одного нуклона

Если затем взять (тензорное) произведение пространств H1 ⊗ H1 - это ничто иное, как гильбертово пространство сразу двух нуклонов
Это словно танец вдвоем, где каждый шаг имеет свое значение

Обрадовавшись этому открытию, для большого числа протонов и нейтронов в наперснике запишем:
HA = H1 ⊗ H1 ⊗ H1 … ⊗ H1

где H1 повторяется столько раз, сколько нуклонов в корзине

При этом удивительно, что состояние всей системы может описываться как произведением состояний каждой частицы в отдельности (сепарабельное состояние), так и быть представлено в более сложном виде (запутанное состояние)

В этом заключается красота ядерной физики

Руководствуясь принципом внешней политики Древнего Рима «Разделяй и Властвуй» можно анализировать мир вокруг нас
Одна звезда – ничто, газовое облако в пустотах пространства, но ее состояние вносит вклад в эволюцию Вселенной

И твое состояние – часть большой, пусть и непонятной тебе системы

Еще неизвестно как, но ты играешь особую роль в развитии Вселенной
«Великий государь, Царь и Великий Князь Пётр Алексеевич […] указал Именным Своим Великого Государя повелением в государстве Богохранимой Своей Державы Всероссийского Самодержавия на славу Всеславного Имени Всемудрейшего Бога и Своего Богосодержимого храбропремудрейшего царствования, во избаву же и пользу Православного Христианства, быть Математических и Навигацких, то есть мореходных хитростно наук учению»


14 января 1701 года (по старому стилю), Высочайший указ Петра I об основании школы математических и навигацких наук положил начало математическому образованию в России.
[Словарь русского языка XI—XVII вв.: избава — спасение, избавление]

Первые учебники тех времён:


1703 годом помечена книга «Арифметика» («Арифметика или числительница, есть художество честное, независтное, …»)
Леонтия Филипповича Магницкого;

в 1705 году издан плакат Василия Анофриевича Киприанова «Новый способ арифметики феорики или зрительно, сочинён вопросами ради удобнейшего понятия» (описание см. в книге Д.Д. Галанина «Леонтий Филиппович Магницкий и его арифметика»)

в 1708 году в переводе Якова Вилимовича Брюса вышла книга «Геометрия словенски землемерие» (основу составило австрийское издание «Приёмы циркуля и линейки» ) замечательная несколькими моментами
На рукописи перевода есть правка-редактура рукой Петра I

К одному из изданий Пётр I сам написал приложение «Как делать на горизонтальном месте солнечные часы»
И вдобавок это первая книга, изданная «гражданским шрифтом»
1
5 математиков изучали пространства отображений в так называемые «многообразия флагов» — объекты из алгебраической геометрии

У них была гипотеза и численные подтверждения, но не было доказательства
Они разбили задачу на подзадачи возрастающей сложности и
предложили их Ml:

•Google Gemini
DeepThink
FullProof - внутренняя система Google DeepMind, специализированная для математики, решил частные случаи, но застрял на обобщении
Тогда математики проанализировали его решения, увидели ключевую идею, переформулировали задачу и с новыми подсказками Ml завершили доказательство

Рави Вакил - соавтор работы и президент американского математического общества признаёт за Ml способность к математическому прозрению, речь идёт о выводе, который сделал FullProof

Ранее,
писали о том, как может математика измениться с Ml
Фреймворк, где LLM улучшает способности к поиску и рассуждению полностью автономно без единого размеченного примера
GitHub


Размеченные данные - узкое место в обучении агентов
Если сложные рассуждающие способности могут возникать из самоэволюции, это меняет экономику создания Ml-систем

Как это работает?
Из одной базовой модели создаются 2 агента:
- Proposer генерирует вопросы, - Solver на них отвечает

Оба используют внешний поисковик
Ключевой трюк — награда за «правильную» сложность: если Solver решает всё или ничего, Proposer не получает награды
Только частичный успех засчитывается
Это создаёт автоматический учебный план с постепенным усложнением
По мере роста Solver простые вопросы обесцениваются → Proposer вынужден генерировать сложнее → Solver продолжает учиться
Замкнутый цикл самоулучшения

Результаты:
На простых задачах (один поисковый шаг) 3B-модель превосходит supervised-baseline на 7-23 %
На сложных многошаговых — 7B достигает ~90 % качества полностью supervised-агентов
И это без единого человеческого примера в обучении

Что ограничивает?
После 2-3 итераций наступает плато
Крупные модели менее стабильны при обучении
Пока не решена проблема reward hacking при длительной самоэволюции
Если в 2025 году все старались создать лучшего помощника в кодировании, то в 2026 году крупные лаборатории идут в здравоохранение

Как писали
ранее, OpenAI и Anthropic объявили о своих проектах в health

Сейчас именно OpenAI и Anthropic борются за то, чтобы быть интерфейсом - единой точкой входа для всех данных в здравоохранении - от Apple Watch до медицинских записей
Вместо десяти приложений интерфейс, который всё агрегирует и интерпретирует

В это же время Google занимается созданием инфраструктуры, выпустили обновленную
MedGemma 1.5 — открытая мультимодальная медицинская модель. Предыдущие тут и тут

А стартапы без глубокой специализации и уникальных данных становятся уязвимы, происходит расслоение:

1. Wellness/hardware стартапы (Oura, Whoop, Eight Sleep) — выигрывают, их данные становятся ценнее в контексте

2. Обёртки над LLM проигрывают, их функционал поглощается платформами

3. Глубокие вертикали (клинические workflow, фарма R&D) — пока в безопасности, но давление нарастает

Выживут те стартапы, которые либо владеют железом , например, Oura, либо встроены в клинические процессы так глубоко, что замена невозможна

Данные будут генерироваться разными устройствами и сервисами, но интерпретировать и взаимодействовать с ними пользователь будет через Claude или ChatGPT

Это как с браузерами в своё время - неважно, чей сайт, важно, через что ты его открываешь
Здесь аналогично: неважно, чей трекер сна - важно, кто агрегирует всю картину