116 subscribers
72 photos
12 videos
45 files
374 links
MACHINE LEARNING ALGORITHMS
Download Telegram
4-месячный стартап Axiom сообщил, что их ИИ AxiomProver решил 9 из 12 задач в языке Lean

Axiom строит Ml-математика, способного на рассуждения, генерацию доказательств, проверку своей работы. Коммерческие последствия огромны - верификация, логистика, трейдинг, научные исследования и любые домены, где важны корректность и оптимизация

Что именно сделал их Ml:

- Задачи формализовали люди (это был внутренний «Prove-a-ton» — хакатон по переводу задач в Lean)
- Дальше AxiomProver работал полностью автономно
- 8 задач решены за первые 58 минут после экзамена, 9-я — к полудню следующего дня
- Всё в Lean 4 + Mathlib, каждое доказательство проверено компилятором на 100 %

Что говорят сами математики:

1. Это первый случай, когда Ml даёт полностью верифицируемые доказательства на уровне топ-5 мира

2. Формальные доказательства пока дорогие, но цена одного пруфа может превышать зарплату аспиранта

3. Через 5–10 лет такие системы будут обычным инструментом, как сейчас Wolfram Alpha, только для доказательств

Основателем стартапа является 24-летняя Карина Хонг,окончившая MIT и получившая 2 диплома математика и физика за 3 года, также она лауреат Morgan Prize, Rhodes Scholar, бросила PhD/JD в Стэнфорде

Недавно к ней присоединился Кен Оно — один из самых влиятельных ныне живущих специалистов по теории чисел и эллиптическим кривым (бывший вице-президент AMS, ментор десятков Putnam Fellows)

Команда — 17 человек, среди них аспиранты и постдоки из MIT, Cambridge, Imperial, Humboldt

Стартап привлек уже $64.000.000 от Menlo Ventures

У кейс интересен тем, что уровень сложности экзаменов выше, чем IMO, которым хвастались Google, OpenAI, Harmonic

Ml AxiomProver решил 12 из 12 задач самой сложной студенческой математической олимпиады в мире Putnam

Стартап Axiom создал ИИ AxiomProver, генерирующий формально верифицированные доказательства

Ключевое отличие от других Ml-систем - каждое решение - это не ответ, а полное формальное доказательство на языке Lean, которое можно машинно верифицировать
Lean не принимает неправильные доказательства

Стартап выявил 3 категории задач и вот, что они показывают:

1. Простое для людей, мучительное для формализации - задачи на матанализ
Человек смотрит на график и видит ответ
А чтобы Ml записать это в Lean нужны сотни строк кода

2. Задачи, которые AxiomProver неожиданно решил - комбинаторика и геометрия - исторически слабые места Ml-систем
Нерешённые задачи IMO 2024 и 2025 как раз из этих областей

AxiomProver решил обе такие задачи на Putnam

3. Люди и Ml решили по-разному задачи, например,
в задаче A4 люди интуитивно тянулись к алгебре
Ml подошел к решению геометрически

Главный вопрос - что делает математическую задачу сложной для Ml?
То, что сложно людям, и то, что сложно Ml - разные вещи
У людей есть интуиция

Теория «машинной сложности» — что структурно делает задачи лёгкими или трудными для автоматических доказательств— это открытое исследовательское направление
Перплексия теперь не модно. Эпиплексия модно
Всё на благо ограниченных наблюдателей!

Авторы ввели понятие эпиплексии (epiplexity) — новую метрику из теории информации, которая оценивает объём структурной информации, доступной *вычислительно ограниченному* наблюдателю

В отличие от энтропии Шеннона или колмогоровской сложности, подразумевающих бесконечные ресурсы, эпиплексия явно учитывает конечность модели (программы) и процесса обучения (вычислений)

Этот фреймворк разрешает старые парадоксы, где теория противоречит практике глубокого обучения — например, почему детерминированные процессы (вроде симуляций или self-play) создают ценный сигнал

Практически это даёт строгую метрику для отбора данных: для предобучения важен не минимум финального лосса (энтропии), а максимум усваиваемой структуры (эпиплексии)

Подробнее:
https://t.me/gonzo_ML_podcasts/2022
Epiplexity: Quantifying the Structural Value of Data for Bounded Observers
Marc Finzi, Shikai Qiu, Yiding Jiang, Pavel Izmailov, J. Zico Kolter, Andrew Gordon Wilson
Статья:
https://arxiv.org/abs/2601.03220
Ревью:
https://arxiviq.substack.com/p/from-entropy-to-epiplexity-rethinking
Формализовать оценки в аналитической теории чисел

Создать живую сеть импликаций, когда первичная оценка улучшается, каждое downstream-следствие автоматически обновляется
Это превратит математическую литературу в модульное ПО

В большом
интервью развёрнутое видение будущего

Изменился способ, которым делаем математику
Определение математика расширилось

Возможно, через 10 лет математик без навыков работы с proof assistants будет как программист без Git

Это другой стиль написания доказательств, который на самом деле в некоторых отношениях легче читать — сложнее проверять людям, но видны более ясно входы и выходы доказательства, которые традиционное письмо часто скрывает»

Ml делает масштабируемым, превращает написание доказательств в задачу поиска: генерирует тысячи мини-лемм из цели, затем дешёвые проверщики отсеивают большинство и оставляют те немногие, что работают

Ml учит человеческой глупости
То, что люди находят сложным, Ml находит лёгким
Машины взломали язык через простую вероятность — человеческий разговор не так сложен, как заявляли

Ml-инструменты теперь достаточно способны, чтобы решать задачи, перечисленные как открытые в базе данных задач Эрдёша

Это не Ml, открывающий глубокую математику
Это pattern matching, применённый к доступным задачам
Аристотелевские законы тождества
(А=А) и непротиворечия (не может быть одновременно А и не-А) - это инструменты аналитического ума, который расчленяет мир на статические категории, на некие сущности
Гераклит же видел мир как поток, где на поверхности кажущиеся противоположности (день-ночь, жизнь-смерть) борются, но в глубине они едины (все течёт, всё есть огонь в своих превращениях)
В дзен (чань), дуализм представлен как болезнь ума
Не И или И, а И и И
Гильбертово пространство, по сути, очень похоже на всем нам знакомое евклидово пространство
Однако оно имеет два замечательных свойства, которые облегчают жизнь физикам

Гильбертово пространство бесконечномерное и может состоять из комплексных чисел

В качестве примера представьте себе наперсток, крошечный (примерно в миллион миллиардов раз меньше, чем кончик иглы), в котором в танце ядерных сил взаимодействуют между собой протоны и нуклоны
В этом наперстке (аналогом будет являться ядро атома) происходит настоящее физическое событие – то есть Гильбертово пространство многих тел

Каждый нуклон – будь то протон или нейтрон – скачет некоторым образом
Вдруг из наперстка выскочит (возможно из-за квантового туннелирования) один самый непослушный нуклон и где-то в уголочке будет продолжать вести себя крайне странным образом

Опишем некоторым способом его личное пространство и назовем его H1 - Гильбертово пространство одного нуклона

Если затем взять (тензорное) произведение пространств H1 ⊗ H1 - это ничто иное, как гильбертово пространство сразу двух нуклонов
Это словно танец вдвоем, где каждый шаг имеет свое значение

Обрадовавшись этому открытию, для большого числа протонов и нейтронов в наперснике запишем:
HA = H1 ⊗ H1 ⊗ H1 … ⊗ H1

где H1 повторяется столько раз, сколько нуклонов в корзине

При этом удивительно, что состояние всей системы может описываться как произведением состояний каждой частицы в отдельности (сепарабельное состояние), так и быть представлено в более сложном виде (запутанное состояние)

В этом заключается красота ядерной физики

Руководствуясь принципом внешней политики Древнего Рима «Разделяй и Властвуй» можно анализировать мир вокруг нас
Одна звезда – ничто, газовое облако в пустотах пространства, но ее состояние вносит вклад в эволюцию Вселенной

И твое состояние – часть большой, пусть и непонятной тебе системы

Еще неизвестно как, но ты играешь особую роль в развитии Вселенной
«Великий государь, Царь и Великий Князь Пётр Алексеевич […] указал Именным Своим Великого Государя повелением в государстве Богохранимой Своей Державы Всероссийского Самодержавия на славу Всеславного Имени Всемудрейшего Бога и Своего Богосодержимого храбропремудрейшего царствования, во избаву же и пользу Православного Христианства, быть Математических и Навигацких, то есть мореходных хитростно наук учению»


14 января 1701 года (по старому стилю), Высочайший указ Петра I об основании школы математических и навигацких наук положил начало математическому образованию в России.
[Словарь русского языка XI—XVII вв.: избава — спасение, избавление]

Первые учебники тех времён:


1703 годом помечена книга «Арифметика» («Арифметика или числительница, есть художество честное, независтное, …»)
Леонтия Филипповича Магницкого;

в 1705 году издан плакат Василия Анофриевича Киприанова «Новый способ арифметики феорики или зрительно, сочинён вопросами ради удобнейшего понятия» (описание см. в книге Д.Д. Галанина «Леонтий Филиппович Магницкий и его арифметика»)

в 1708 году в переводе Якова Вилимовича Брюса вышла книга «Геометрия словенски землемерие» (основу составило австрийское издание «Приёмы циркуля и линейки» ) замечательная несколькими моментами
На рукописи перевода есть правка-редактура рукой Петра I

К одному из изданий Пётр I сам написал приложение «Как делать на горизонтальном месте солнечные часы»
И вдобавок это первая книга, изданная «гражданским шрифтом»
1
5 математиков изучали пространства отображений в так называемые «многообразия флагов» — объекты из алгебраической геометрии

У них была гипотеза и численные подтверждения, но не было доказательства
Они разбили задачу на подзадачи возрастающей сложности и
предложили их Ml:

•Google Gemini
DeepThink
FullProof - внутренняя система Google DeepMind, специализированная для математики, решил частные случаи, но застрял на обобщении
Тогда математики проанализировали его решения, увидели ключевую идею, переформулировали задачу и с новыми подсказками Ml завершили доказательство

Рави Вакил - соавтор работы и президент американского математического общества признаёт за Ml способность к математическому прозрению, речь идёт о выводе, который сделал FullProof

Ранее,
писали о том, как может математика измениться с Ml
Фреймворк, где LLM улучшает способности к поиску и рассуждению полностью автономно без единого размеченного примера
GitHub


Размеченные данные - узкое место в обучении агентов
Если сложные рассуждающие способности могут возникать из самоэволюции, это меняет экономику создания Ml-систем

Как это работает?
Из одной базовой модели создаются 2 агента:
- Proposer генерирует вопросы, - Solver на них отвечает

Оба используют внешний поисковик
Ключевой трюк — награда за «правильную» сложность: если Solver решает всё или ничего, Proposer не получает награды
Только частичный успех засчитывается
Это создаёт автоматический учебный план с постепенным усложнением
По мере роста Solver простые вопросы обесцениваются → Proposer вынужден генерировать сложнее → Solver продолжает учиться
Замкнутый цикл самоулучшения

Результаты:
На простых задачах (один поисковый шаг) 3B-модель превосходит supervised-baseline на 7-23 %
На сложных многошаговых — 7B достигает ~90 % качества полностью supervised-агентов
И это без единого человеческого примера в обучении

Что ограничивает?
После 2-3 итераций наступает плато
Крупные модели менее стабильны при обучении
Пока не решена проблема reward hacking при длительной самоэволюции
Если в 2025 году все старались создать лучшего помощника в кодировании, то в 2026 году крупные лаборатории идут в здравоохранение

Как писали
ранее, OpenAI и Anthropic объявили о своих проектах в health

Сейчас именно OpenAI и Anthropic борются за то, чтобы быть интерфейсом - единой точкой входа для всех данных в здравоохранении - от Apple Watch до медицинских записей
Вместо десяти приложений интерфейс, который всё агрегирует и интерпретирует

В это же время Google занимается созданием инфраструктуры, выпустили обновленную
MedGemma 1.5 — открытая мультимодальная медицинская модель. Предыдущие тут и тут

А стартапы без глубокой специализации и уникальных данных становятся уязвимы, происходит расслоение:

1. Wellness/hardware стартапы (Oura, Whoop, Eight Sleep) — выигрывают, их данные становятся ценнее в контексте

2. Обёртки над LLM проигрывают, их функционал поглощается платформами

3. Глубокие вертикали (клинические workflow, фарма R&D) — пока в безопасности, но давление нарастает

Выживут те стартапы, которые либо владеют железом , например, Oura, либо встроены в клинические процессы так глубоко, что замена невозможна

Данные будут генерироваться разными устройствами и сервисами, но интерпретировать и взаимодействовать с ними пользователь будет через Claude или ChatGPT

Это как с браузерами в своё время - неважно, чей сайт, важно, через что ты его открываешь
Здесь аналогично: неважно, чей трекер сна - важно, кто агрегирует всю картину
Anthropic посмотрели как используют люди Claude и вот, что выяснили

Claude используется чаще и даёт большую производительность на задачах, требующих высшего образования

Если эти задачи сократятся для работников, чистый эффект может привести к снижению квалификационных рабочих мест

Как спрашивают Claude, так и отвечает
Claude может отвечать на запросы пользователей на уровне PhD, но делает это только, когда получает соответствующий запрос

Это не особенность, а следствие обучения
И аргумент за то, что навык формулировать запросы - реальный экономический фактор

Есть связь между доходом на душу населения и паттернами использования Ml — богатые страны используют Claude коллаборативно, бедные фокусируются на учёбе и приложениях — говорит о том, что Ml не развернётся единообразно по всему миру

По мере развития возможностей Ml:
• Успешность выполнения задач может вырасти
• Пользователи могут давать больше автономии
• Пользователи будут браться за более сложные задачи
• Задачи, которые окажутся автоматизируемыми, могут перейти из чата в API
MLA
Photo
https://www.mathnet.ru/rus/rm5891

Х. Хопф
Некоторые личные воспоминания, относящиеся к предыстории современной топологии

// via Н.Н. Андреев
Напоминаю про заочный творческий конкурс учителей математики

Как обычно, предлагается девять заданий, разбитых на три блока: математический, методический и аналитический

Решения принимаются до апреля

mccme.ru/oluch/info26.htm
Приглашаем студентов бакалавриата и специалитета 3+ курса с базовыми знаниями ML/DL

Участие в Зимней школе – это возможность познакомиться с Факультетом искусственного интеллекта МГУ и пообщаться с преподавателями магистратуры, ведущими учёными и практикующими специалистами в области Ml

Зимняя школа пройдёт 4-6 февраля 2026 года
Заявки принимаются до 28 января включительно

Участие бесплатное

Узнать о программе и заполнить заявку можно по
ссылке

Школа проходит при поддержке Института AIRI, чьи исследователи и учёные прочитают лекции и проведут практические занятия

Также выступят учёные Института ИИ и Центра ИИ МГУ
1
После 50 и более взаимодействий с GPT точность определения личностных характеристик достигает 85 %

Уже после 20 диалогов система определяет вашу демографию с точностью 78 %: рабочие графики, часовой пояс, уровень образования и профессиональный опыт
Эмоциональный язык в ваших промптах коррелирует с индикаторами психического здоровья

Примечательно, что метаданные разговоров — время, длительность, смена тем — раскрывают больше информации, чем само содержание
А «анонимные» данные можно реидентифицировать через анализ стиля письма с высокой точностью

Исследование Королевского колледжа Лондона показало, что специально настроенные GPT могут заставить пользователей раскрыть больше личной информации
При этом исследование Кембриджского университета и Google DeepMind, опубликованное в декабре 2025 года, показало обратную сторону: через промпты можно специализировать GPT для конкретного пользователя

В июне 2024 года OpenAI назначила в совет директоров бывшего директора АНБ и командующего Киберкомандованием США
Человек, который шесть лет руководил американской киберразведкой, теперь принимает решения в компании, которая собирает о пользователях беспрецедентный объём личных данных

В июле 2025 года Пентагон заключил контракты на $200.000.000 с Anthropic, OpenAI, Google и xAI
Контракты предусматривают разработку агентных Ml-систем для задач национальной безопасности
Anthropic уже интегрировала Claude в секретные сети через партнёрство с Palantir и создала специальные модели Claude Gov для американских спецслужб

Добавьте к этому программу PRISM, которая с 2007 года обеспечивает АНБ доступ к данным крупнейших технологических компаний

По факту мир сейчас разделился на два полюса
Либо вы пользуетесь американскими системами — и ваши данные потенциально доступны структурам вроде АНБ, ЦРУ и Palantir
Либо китайскими — и тогда они идут в китайские спецслужбы
Национальные разработки существуют, но пока либо значительно уступают по качеству, либо жёстко зацензурированы, либо являются форками тех же китайских моделей

В России многие крупные компании уже запрещают американские Ml модели (Claude Code и аналоги) — как для сотрудников, так и для подрядчиков
Текущий тренд — форки открытых Ml-агентов с тщательным аудитом, развёрнутые в изолированных корпоративных сетях

Сам код часто не секрет
Но данные, с которыми он работает, — это совсем другой уровень
Клиентские базы, финансовые показатели, внутренняя переписка
Всё это утекает через Ml-инструменты, которые считают безопасными
Во время 2-й мировой войны английское разведуправление наняло группу математиков для того, чтобы они составляли занимательные и сложные, но практически бессмысленные математические задачи
Зачем? - Чтобы в дальнейшем британские шпионы подбрасывали такие задачи немецким математикам, работающим на военных
И чтобы немцы "зависали" на этих задачах, теряя на них время и не занимаясь "военными" расчетами

На канале "Общий знаменатель" увидел англоязычную задачу: найти такие положительные целые числа a, b, c, чтобы выполнялось равенство a/(b+c) + b/(a+c) + c/(a+b) = 4

Вдогонку, в оригинале написано, что 95 % людей не смогут решить такую задачу
А автор канала задорно добавил, что задача - огонь, и её не смогут решить 99.95 % людей

Попытался решить сходу - не получилось
Потом, подумав, попробовал у доски - надеялся, что тут какая-то геометрическая хитрость
Тоже никак - получаются ответы для левой части близкие к 4, но не строго 4
В итоге, решил, что задача мне не по силам, и захотел посмотреть ответ - а его получить численно тривиально (три вложенных цикла for и немного времени), именно поэтому я и взялся за задачу

Оказалось, что для чисел от 1 до 10000 включительно решения не существует: в этом диапазоне есть восемь троек чисел*, которые дают ответ, совпадающий с 4 с точностью до девяти знаков после запятой, но всё равно не строго

Например, тройка a=411, b=812, c=4601 дает левую часть в виде дроби 33179936195/8294984047, которая с указанной точностью равна 4. Но всё равно это не искомое решение

Поэтому люди могут долбиться с этой занимательной задачей очень долго, а в итоге только потерять время и уверенность в собственных силах
Последнее особенно опасно для молодежи
В нашем нелинейном мире мелочей не бывает - одна такая непосильная задача может определить решение человека не пойти в науку, или наоборот

---
*: Из-за симметрии дроби, решения получающиеся друг из друга перестановкой значений параметров (a, b, c), учтены только один раз
При этом кратные решения** оставлены
**: Для функции f(a,b,c) = a/(b+c) + b/(a+c) + c/(a+b) и любого ненулевого числа k, справедливо f(k*a,k*b,k*c) = f(a,b,c)
То есть, если конкретная тройка чисел (a, b, c) является решением задачи, то, при целом положительном k, тройка (k*a, k*b, k*c) тоже является решением
«Эра написания кода людьми прошла»

Так высказался в X создатель Node.js Райан Даль

Вот полный перевод поста:

Это уже было сказано тысячу раз, но позвольте мне добавить свой голос: эпоха людей, пишущий код, закончилась
Это тревожно для тех из нас, кто идентифицирует себя как SWE, но это факт
Это не значит, что SWE теперь лишены работы, но это уже точно не написание синтаксиса напрямую


Посвящается тем, кто сейчас едет на работу писать код руками
> We're seeing the first signs of 1000x acceleration in science and tech progress, driven by Al
Al is now solving extremely hard math problems (almost daily) that humans couldn't solve until this moment
(…)
GPT 5.2 Pro develops faster 5x5 circular matrix multiplication algorithm (…)

«I have little doubt that AI tools will substantially change the way mathematics is done, likely pretty soon
But communicators like this are doing their audiences a disservice

In this particular example the “new” contribution from the AI tool was plugging (n,m)=(5,3) into the expression 2n-m. I’m not exaggerating
The “number of multiplications” in the result in question was shown by Winograd ~45 years ago to be 2n-m, where the matrices in question are nxn, and m is the number of factors of the polynomial x^n-1

The “result” here is that this polynomial has 3 factors over Q(sqrt(5)), and then that 2*5-3=7

That’s it
Winograd’s result itself is an application of the Chinese Remainder Theorem
(…)
That automated tools can make progress on minor open questions is incredibly impressive
But that doesn’t excuse inaccuracy about current capabilities»


https://x.com/littmath/status/2013037012765331883