116 subscribers
72 photos
12 videos
45 files
373 links
MACHINE LEARNING ALGORITHMS
Download Telegram
Гильбертово пространство, по сути, очень похоже на всем нам знакомое евклидово пространство
Однако оно имеет два замечательных свойства, которые облегчают жизнь физикам

Гильбертово пространство бесконечномерное и может состоять из комплексных чисел

В качестве примера представьте себе наперсток, крошечный (примерно в миллион миллиардов раз меньше, чем кончик иглы), в котором в танце ядерных сил взаимодействуют между собой протоны и нуклоны
В этом наперстке (аналогом будет являться ядро атома) происходит настоящее физическое событие – то есть Гильбертово пространство многих тел

Каждый нуклон – будь то протон или нейтрон – скачет некоторым образом
Вдруг из наперстка выскочит (возможно из-за квантового туннелирования) один самый непослушный нуклон и где-то в уголочке будет продолжать вести себя крайне странным образом

Опишем некоторым способом его личное пространство и назовем его H1 - Гильбертово пространство одного нуклона

Если затем взять (тензорное) произведение пространств H1 ⊗ H1 - это ничто иное, как гильбертово пространство сразу двух нуклонов
Это словно танец вдвоем, где каждый шаг имеет свое значение

Обрадовавшись этому открытию, для большого числа протонов и нейтронов в наперснике запишем:
HA = H1 ⊗ H1 ⊗ H1 … ⊗ H1

где H1 повторяется столько раз, сколько нуклонов в корзине

При этом удивительно, что состояние всей системы может описываться как произведением состояний каждой частицы в отдельности (сепарабельное состояние), так и быть представлено в более сложном виде (запутанное состояние)

В этом заключается красота ядерной физики

Руководствуясь принципом внешней политики Древнего Рима «Разделяй и Властвуй» можно анализировать мир вокруг нас
Одна звезда – ничто, газовое облако в пустотах пространства, но ее состояние вносит вклад в эволюцию Вселенной

И твое состояние – часть большой, пусть и непонятной тебе системы

Еще неизвестно как, но ты играешь особую роль в развитии Вселенной
«Великий государь, Царь и Великий Князь Пётр Алексеевич […] указал Именным Своим Великого Государя повелением в государстве Богохранимой Своей Державы Всероссийского Самодержавия на славу Всеславного Имени Всемудрейшего Бога и Своего Богосодержимого храбропремудрейшего царствования, во избаву же и пользу Православного Христианства, быть Математических и Навигацких, то есть мореходных хитростно наук учению»


14 января 1701 года (по старому стилю), Высочайший указ Петра I об основании школы математических и навигацких наук положил начало математическому образованию в России.
[Словарь русского языка XI—XVII вв.: избава — спасение, избавление]

Первые учебники тех времён:


1703 годом помечена книга «Арифметика» («Арифметика или числительница, есть художество честное, независтное, …»)
Леонтия Филипповича Магницкого;

в 1705 году издан плакат Василия Анофриевича Киприанова «Новый способ арифметики феорики или зрительно, сочинён вопросами ради удобнейшего понятия» (описание см. в книге Д.Д. Галанина «Леонтий Филиппович Магницкий и его арифметика»)

в 1708 году в переводе Якова Вилимовича Брюса вышла книга «Геометрия словенски землемерие» (основу составило австрийское издание «Приёмы циркуля и линейки» ) замечательная несколькими моментами
На рукописи перевода есть правка-редактура рукой Петра I

К одному из изданий Пётр I сам написал приложение «Как делать на горизонтальном месте солнечные часы»
И вдобавок это первая книга, изданная «гражданским шрифтом»
1
5 математиков изучали пространства отображений в так называемые «многообразия флагов» — объекты из алгебраической геометрии

У них была гипотеза и численные подтверждения, но не было доказательства
Они разбили задачу на подзадачи возрастающей сложности и
предложили их Ml:

•Google Gemini
DeepThink
FullProof - внутренняя система Google DeepMind, специализированная для математики, решил частные случаи, но застрял на обобщении
Тогда математики проанализировали его решения, увидели ключевую идею, переформулировали задачу и с новыми подсказками Ml завершили доказательство

Рави Вакил - соавтор работы и президент американского математического общества признаёт за Ml способность к математическому прозрению, речь идёт о выводе, который сделал FullProof

Ранее,
писали о том, как может математика измениться с Ml
Фреймворк, где LLM улучшает способности к поиску и рассуждению полностью автономно без единого размеченного примера
GitHub


Размеченные данные - узкое место в обучении агентов
Если сложные рассуждающие способности могут возникать из самоэволюции, это меняет экономику создания Ml-систем

Как это работает?
Из одной базовой модели создаются 2 агента:
- Proposer генерирует вопросы, - Solver на них отвечает

Оба используют внешний поисковик
Ключевой трюк — награда за «правильную» сложность: если Solver решает всё или ничего, Proposer не получает награды
Только частичный успех засчитывается
Это создаёт автоматический учебный план с постепенным усложнением
По мере роста Solver простые вопросы обесцениваются → Proposer вынужден генерировать сложнее → Solver продолжает учиться
Замкнутый цикл самоулучшения

Результаты:
На простых задачах (один поисковый шаг) 3B-модель превосходит supervised-baseline на 7-23 %
На сложных многошаговых — 7B достигает ~90 % качества полностью supervised-агентов
И это без единого человеческого примера в обучении

Что ограничивает?
После 2-3 итераций наступает плато
Крупные модели менее стабильны при обучении
Пока не решена проблема reward hacking при длительной самоэволюции
Если в 2025 году все старались создать лучшего помощника в кодировании, то в 2026 году крупные лаборатории идут в здравоохранение

Как писали
ранее, OpenAI и Anthropic объявили о своих проектах в health

Сейчас именно OpenAI и Anthropic борются за то, чтобы быть интерфейсом - единой точкой входа для всех данных в здравоохранении - от Apple Watch до медицинских записей
Вместо десяти приложений интерфейс, который всё агрегирует и интерпретирует

В это же время Google занимается созданием инфраструктуры, выпустили обновленную
MedGemma 1.5 — открытая мультимодальная медицинская модель. Предыдущие тут и тут

А стартапы без глубокой специализации и уникальных данных становятся уязвимы, происходит расслоение:

1. Wellness/hardware стартапы (Oura, Whoop, Eight Sleep) — выигрывают, их данные становятся ценнее в контексте

2. Обёртки над LLM проигрывают, их функционал поглощается платформами

3. Глубокие вертикали (клинические workflow, фарма R&D) — пока в безопасности, но давление нарастает

Выживут те стартапы, которые либо владеют железом , например, Oura, либо встроены в клинические процессы так глубоко, что замена невозможна

Данные будут генерироваться разными устройствами и сервисами, но интерпретировать и взаимодействовать с ними пользователь будет через Claude или ChatGPT

Это как с браузерами в своё время - неважно, чей сайт, важно, через что ты его открываешь
Здесь аналогично: неважно, чей трекер сна - важно, кто агрегирует всю картину
Anthropic посмотрели как используют люди Claude и вот, что выяснили

Claude используется чаще и даёт большую производительность на задачах, требующих высшего образования

Если эти задачи сократятся для работников, чистый эффект может привести к снижению квалификационных рабочих мест

Как спрашивают Claude, так и отвечает
Claude может отвечать на запросы пользователей на уровне PhD, но делает это только, когда получает соответствующий запрос

Это не особенность, а следствие обучения
И аргумент за то, что навык формулировать запросы - реальный экономический фактор

Есть связь между доходом на душу населения и паттернами использования Ml — богатые страны используют Claude коллаборативно, бедные фокусируются на учёбе и приложениях — говорит о том, что Ml не развернётся единообразно по всему миру

По мере развития возможностей Ml:
• Успешность выполнения задач может вырасти
• Пользователи могут давать больше автономии
• Пользователи будут браться за более сложные задачи
• Задачи, которые окажутся автоматизируемыми, могут перейти из чата в API
MLA
Photo
https://www.mathnet.ru/rus/rm5891

Х. Хопф
Некоторые личные воспоминания, относящиеся к предыстории современной топологии

// via Н.Н. Андреев
Напоминаю про заочный творческий конкурс учителей математики

Как обычно, предлагается девять заданий, разбитых на три блока: математический, методический и аналитический

Решения принимаются до апреля

mccme.ru/oluch/info26.htm
Приглашаем студентов бакалавриата и специалитета 3+ курса с базовыми знаниями ML/DL

Участие в Зимней школе – это возможность познакомиться с Факультетом искусственного интеллекта МГУ и пообщаться с преподавателями магистратуры, ведущими учёными и практикующими специалистами в области Ml

Зимняя школа пройдёт 4-6 февраля 2026 года
Заявки принимаются до 28 января включительно

Участие бесплатное

Узнать о программе и заполнить заявку можно по
ссылке

Школа проходит при поддержке Института AIRI, чьи исследователи и учёные прочитают лекции и проведут практические занятия

Также выступят учёные Института ИИ и Центра ИИ МГУ
1
После 50 и более взаимодействий с GPT точность определения личностных характеристик достигает 85 %

Уже после 20 диалогов система определяет вашу демографию с точностью 78 %: рабочие графики, часовой пояс, уровень образования и профессиональный опыт
Эмоциональный язык в ваших промптах коррелирует с индикаторами психического здоровья

Примечательно, что метаданные разговоров — время, длительность, смена тем — раскрывают больше информации, чем само содержание
А «анонимные» данные можно реидентифицировать через анализ стиля письма с высокой точностью

Исследование Королевского колледжа Лондона показало, что специально настроенные GPT могут заставить пользователей раскрыть больше личной информации
При этом исследование Кембриджского университета и Google DeepMind, опубликованное в декабре 2025 года, показало обратную сторону: через промпты можно специализировать GPT для конкретного пользователя

В июне 2024 года OpenAI назначила в совет директоров бывшего директора АНБ и командующего Киберкомандованием США
Человек, который шесть лет руководил американской киберразведкой, теперь принимает решения в компании, которая собирает о пользователях беспрецедентный объём личных данных

В июле 2025 года Пентагон заключил контракты на $200.000.000 с Anthropic, OpenAI, Google и xAI
Контракты предусматривают разработку агентных Ml-систем для задач национальной безопасности
Anthropic уже интегрировала Claude в секретные сети через партнёрство с Palantir и создала специальные модели Claude Gov для американских спецслужб

Добавьте к этому программу PRISM, которая с 2007 года обеспечивает АНБ доступ к данным крупнейших технологических компаний

По факту мир сейчас разделился на два полюса
Либо вы пользуетесь американскими системами — и ваши данные потенциально доступны структурам вроде АНБ, ЦРУ и Palantir
Либо китайскими — и тогда они идут в китайские спецслужбы
Национальные разработки существуют, но пока либо значительно уступают по качеству, либо жёстко зацензурированы, либо являются форками тех же китайских моделей

В России многие крупные компании уже запрещают американские Ml модели (Claude Code и аналоги) — как для сотрудников, так и для подрядчиков
Текущий тренд — форки открытых Ml-агентов с тщательным аудитом, развёрнутые в изолированных корпоративных сетях

Сам код часто не секрет
Но данные, с которыми он работает, — это совсем другой уровень
Клиентские базы, финансовые показатели, внутренняя переписка
Всё это утекает через Ml-инструменты, которые считают безопасными
Во время 2-й мировой войны английское разведуправление наняло группу математиков для того, чтобы они составляли занимательные и сложные, но практически бессмысленные математические задачи
Зачем? - Чтобы в дальнейшем британские шпионы подбрасывали такие задачи немецким математикам, работающим на военных
И чтобы немцы "зависали" на этих задачах, теряя на них время и не занимаясь "военными" расчетами

На канале "Общий знаменатель" увидел англоязычную задачу: найти такие положительные целые числа a, b, c, чтобы выполнялось равенство a/(b+c) + b/(a+c) + c/(a+b) = 4

Вдогонку, в оригинале написано, что 95 % людей не смогут решить такую задачу
А автор канала задорно добавил, что задача - огонь, и её не смогут решить 99.95 % людей

Попытался решить сходу - не получилось
Потом, подумав, попробовал у доски - надеялся, что тут какая-то геометрическая хитрость
Тоже никак - получаются ответы для левой части близкие к 4, но не строго 4
В итоге, решил, что задача мне не по силам, и захотел посмотреть ответ - а его получить численно тривиально (три вложенных цикла for и немного времени), именно поэтому я и взялся за задачу

Оказалось, что для чисел от 1 до 10000 включительно решения не существует: в этом диапазоне есть восемь троек чисел*, которые дают ответ, совпадающий с 4 с точностью до девяти знаков после запятой, но всё равно не строго

Например, тройка a=411, b=812, c=4601 дает левую часть в виде дроби 33179936195/8294984047, которая с указанной точностью равна 4. Но всё равно это не искомое решение

Поэтому люди могут долбиться с этой занимательной задачей очень долго, а в итоге только потерять время и уверенность в собственных силах
Последнее особенно опасно для молодежи
В нашем нелинейном мире мелочей не бывает - одна такая непосильная задача может определить решение человека не пойти в науку, или наоборот

---
*: Из-за симметрии дроби, решения получающиеся друг из друга перестановкой значений параметров (a, b, c), учтены только один раз
При этом кратные решения** оставлены
**: Для функции f(a,b,c) = a/(b+c) + b/(a+c) + c/(a+b) и любого ненулевого числа k, справедливо f(k*a,k*b,k*c) = f(a,b,c)
То есть, если конкретная тройка чисел (a, b, c) является решением задачи, то, при целом положительном k, тройка (k*a, k*b, k*c) тоже является решением
«Эра написания кода людьми прошла»

Так высказался в X создатель Node.js Райан Даль

Вот полный перевод поста:

Это уже было сказано тысячу раз, но позвольте мне добавить свой голос: эпоха людей, пишущий код, закончилась
Это тревожно для тех из нас, кто идентифицирует себя как SWE, но это факт
Это не значит, что SWE теперь лишены работы, но это уже точно не написание синтаксиса напрямую


Посвящается тем, кто сейчас едет на работу писать код руками
> We're seeing the first signs of 1000x acceleration in science and tech progress, driven by Al
Al is now solving extremely hard math problems (almost daily) that humans couldn't solve until this moment
(…)
GPT 5.2 Pro develops faster 5x5 circular matrix multiplication algorithm (…)

«I have little doubt that AI tools will substantially change the way mathematics is done, likely pretty soon
But communicators like this are doing their audiences a disservice

In this particular example the “new” contribution from the AI tool was plugging (n,m)=(5,3) into the expression 2n-m. I’m not exaggerating
The “number of multiplications” in the result in question was shown by Winograd ~45 years ago to be 2n-m, where the matrices in question are nxn, and m is the number of factors of the polynomial x^n-1

The “result” here is that this polynomial has 3 factors over Q(sqrt(5)), and then that 2*5-3=7

That’s it
Winograd’s result itself is an application of the Chinese Remainder Theorem
(…)
That automated tools can make progress on minor open questions is incredibly impressive
But that doesn’t excuse inaccuracy about current capabilities»


https://x.com/littmath/status/2013037012765331883
Новая работа Google ставит точку в споре о природе LLM

В
статье University of Wisconsin и Блез Агуэра-и-Аркас, Google, взяли обычные тексты и заменили все знаменательные слова на бессмыслицу

Получилось что-то вроде:
He dwushed a ghanc zawk plonge to hers and whemeed her a naif of phrave

Затем попросили LLM перевести это на нормальный английский

Результат: He dragged a spare chair close to hers and handed her a glass of wine — почти дословное совпадение с оригиналом

Как это возможно?
Модель никогда не видела этих слов
Но она видела конструкцию — паттерн отношений между позициями в предложении. И этого оказалось достаточно

Главный тезис - паттерн-матчинг не альтернатива настоящему интеллекту
Это его ключевой ингредиент

Человеческое мышление работает так же
Буль создавал логику как модель мышления — а оказалось, компьютеры делают то, что людям трудно

LLM же воспроизводят наш способ: вероятностный, контекстно-зависимый, построенный на паттернах
Google исследовали модели OpenAI o1, DeepSeek-R1, QwQ-32B, которые показывают лучшие результаты на сложных задачах

Дело не просто в более длинных размышлениях, а в том, что такие модели внутренне симулируют «общество мысли»

В процессе цепочки мыслей возникают разные «роли» и перспективы: один «голос» задаёт вопросы, другой меняет точку зрения, третий предлагает контраргументы или выявляет противоречия, четвёртый синтезирует решение
Это похоже на групповую дискуссию, а не на монолог

Авторы подтверждают это
тут подробнее

Такие «социальные» паттерны возникают даже при RL с наградой только за правильный ответ — модель сама учится дискуссии, потому что это помогает лучше решать задачи

Вывод - улучшение рассуждений частично объясняется внутренним моделированием коллективного интеллекта, похожего на человеческий
Краттенталер написал несколько мануалов по подсчету сложных определителей - если у вас есть важный детерминант, который вы хотите подсчитать символьно, то сюда:

https://arxiv.org/abs/math/9902004
https://arxiv.org/abs/math/0503507

Кроме того, он имплементировал в математике все формулы преобразования гипергеометрических и q-гипергеометрических функций из
книжки Гаспера-Рахмана:

https://www.mat.univie.ac.at/~kratt/hyp_hypq/hyp.html

У него еще есть машинка RATE для угадывания формулы по последовательности:

https://www.mat.univie.ac.at/~kratt/rate/rate.html

В общем, если кто занимается символьными вычислениями и/или работает со страшными формулами, то очень рекомендую!
MLA
Краттенталер написал несколько мануалов по подсчету сложных определителей - если у вас есть важный детерминант, который вы хотите подсчитать символьно, то сюда: https://arxiv.org/abs/math/9902004 https://arxiv.org/abs/math/0503507 Кроме того, он имплементировал…
Interview with Christian Krattenthaler

— (…) combinatorics has undergone a remarkable development over the past, say 50 years
Still in the 1960s and even 1970s, it had not been recognised as a subject of its own (…). I get the impression that this has changed now, even if combinatorics may not be ranked among the “most important” (whatever that may mean) subjects by many people working in these “most important” subjects
On the surface, this change in perception of combinatorics is witnessed by the Fields Medal of June Huh, or the Abel Prizes of Endre Szemeredi and Laszlo Lovasz
However, it seems to go deeper as it is now more and more acknowledged that also in combinatorial theory there are deep results whose impact goes far beyond combinatorics, even if there is no streamlined theory as, say, in analysis
(On the side: I consider this variety as part of the attraction and fascination of combinatorics)
(…)
— What three results do you consider the most influential in combinatorics during the last thirty years?

— Obviously, my answer can only be very subjective

I would begin with Greg Kuperberg’s “Symmetry classes of alternating-sign matrices under one roof” where he provides proofs of four of the long-standing conjectures on the enumeration of symmetry classes of alternating sign matrices
He does that by interpreting the relevant classes of alternating sign matrices as instances of the six-vertex model with certain boundary conditions and by finding determinantal or Pfaffian formulae for the corresponding partition functions (…)

Next Gilles Schaeffer’s bijections between planar maps and trees that first appeared in his thesis come to my mind
(…)
Moreover, these bijections have been the driving engine for the fantastic results on scaling limits of planar maps, with the limiting object being a very fractal random sphere which is called Brownian map

Another article that I consider extremely influential is “The cyclic sieving phenomenon” by Vic Reiner, Dennis Stanton, and Dennis White
(…)
On the probabilistic side, the arctic circle theorem for domino tilings of the Aztec diamond due to Bill Jockusch, Jim Propp and Peter Shor is a milestone, exhibiting the first such scaling limit result in the area
Many more results of this kind were proved subsequent to that article, culminating in “Dimers and amoebae” by Rick Kenyon, Andrei Okounkov and Scott Sheffield

In that article, a general theory for such limiting phenomena for the dimer model on periodic graphs is outlined (even if not everything here may be completely rigorous)
Another breakthrough that has to be mentioned here is the theorem by Jinho Baik, Percy Deift and, Kurt Johansson that shows that the length of the longest increasing subsequence in a random permutation, if suitably rescaled, behaves like the celebrated Tracy–Widom distribution
Although, on the outset, this seems to be quite different from the other results that I have mentioned in this paragraph, it implicitly concerns very similar processes

In another direction, I must mention the work by June Huh and the theory of Lorentzian polynomials due to Petter Branden and June Huh that paved the way to prove many combinatorial inequalities that had been conjectured for a very long time


https://ecajournal.haifa.ac.il/Volume2026/ECA2026_S3I1.pdf