Artificial Analysis представила обновленный рейтинг Ml-систем Intelligence Index 4.0.
Результаты показали неожиданную картину - разница между тремя ведущими моделями практически исчезла
По итогам измерений на первой строчке оказалась GPT-5.2 X-High от OpenAI
Однако её преимущество над Claude Opus 4.5 и Gemini 3 Pro настолько мало, что находится в пределах статистической ошибки
Результаты показали неожиданную картину - разница между тремя ведущими моделями практически исчезла
По итогам измерений на первой строчке оказалась GPT-5.2 X-High от OpenAI
Однако её преимущество над Claude Opus 4.5 и Gemini 3 Pro настолько мало, что находится в пределах статистической ошибки
Исследователи представили KernelEvolve — фреймворк, который использует LLM и поиск по графу для автоматической генерации высокопроизводительных ядер на языке Triton
Система применяет RAG (retrieval-augmented generation), чтобы подтягивать спецификации железа (NVIDIA, AMD и кастомные чипы MTIA), что позволяет оптимизировать как вычислительно тяжелые операции, так и задачи препроцессинга данных
Это стратегический сдвиг в AI-инфраструктуре, отвязывающий архитектуру модели от ограничений железа
Система достигла 100 % корректности на бенчмарке KernelBench и показала ускорение до 17× относительно PyTorch
Это доказывает, что агенты способны справиться с комбинаторным взрывом операторов и типов ускорителей, что критически важно для внедрения проприетарного кремния (MTIA), для которого у публичных LLM нет обучающих данных
https://arxiv.org/abs/2512.23236
https://arxiviq.substack.com/p/kernelevolve-scaling-agentic-kernel
https://triton-lang.org/
https://arxiv.org/abs/2502.10517
Система применяет RAG (retrieval-augmented generation), чтобы подтягивать спецификации железа (NVIDIA, AMD и кастомные чипы MTIA), что позволяет оптимизировать как вычислительно тяжелые операции, так и задачи препроцессинга данных
Это стратегический сдвиг в AI-инфраструктуре, отвязывающий архитектуру модели от ограничений железа
Система достигла 100 % корректности на бенчмарке KernelBench и показала ускорение до 17× относительно PyTorch
Это доказывает, что агенты способны справиться с комбинаторным взрывом операторов и типов ускорителей, что критически важно для внедрения проприетарного кремния (MTIA), для которого у публичных LLM нет обучающих данных
https://arxiv.org/abs/2512.23236
https://arxiviq.substack.com/p/kernelevolve-scaling-agentic-kernel
https://triton-lang.org/
https://arxiv.org/abs/2502.10517
arXiv.org
KernelEvolve: Scaling Agentic Kernel Coding for Heterogeneous AI...
Making deep learning recommendation model (DLRM) training and inference fast and efficient is important. However, this presents three key system challenges - model architecture diversity, kernel...
Ещё одна электронная книга (небольшая) с визуализацией концепций ML
Сделано аккуратно: приводятся формулы, код и доводится до красивой картинки (или видео)
Правда, всего 4 главы: оптимизация, кластеризация, линейные модели и нейросети
Материал "начального уровня" (но удобно, что он тут собран)
https://ml-visualized.com/
Сделано аккуратно: приводятся формулы, код и доводится до красивой картинки (или видео)
Правда, всего 4 главы: оптимизация, кластеризация, линейные модели и нейросети
Материал "начального уровня" (но удобно, что он тут собран)
https://ml-visualized.com/
"Тебе что, все по три раза повторять надо?!" - DA
Метод строгих училок снова в строю
Простым, не рассуждающим AI-моделям надо повторить задачу три раза (не меняя) для существенного повышения качества ответа
Особено если запрос длинный - модель успевает забыть его начало когда дочитывает до конца
Не благодарите
Не благодарите
Не благодарите
Метод строгих училок снова в строю
Простым, не рассуждающим AI-моделям надо повторить задачу три раза (не меняя) для существенного повышения качества ответа
Особено если запрос длинный - модель успевает забыть его начало когда дочитывает до конца
Не благодарите
Не благодарите
Не благодарите
Подходят к концу каникулы, продолжают работу математические кружки МЦНМО — присоединяйтесь или умрёте
по вторникам с 13 января — 4 и 5 кл. (Т.В. Казицына)
по четвергам с 15 января — 7 кл. (Д.А. Калинин)
по субботам с 17 января — 6 кл. (рук. В.В. Миронов)
по понедельникам с 19 января — 8 кл. (Н.А. Солодовников)
Как обычно: для всех желающих заниматься (бесплатно, без вступительных экзаменов, без предварительной регистрации и смс); кружки очные, в МЦНМО
mccme.ru/ru/math-circles/circles-mccme/20252026/
по вторникам с 13 января — 4 и 5 кл. (Т.В. Казицына)
по четвергам с 15 января — 7 кл. (Д.А. Калинин)
по субботам с 17 января — 6 кл. (рук. В.В. Миронов)
по понедельникам с 19 января — 8 кл. (Н.А. Солодовников)
Как обычно: для всех желающих заниматься (бесплатно, без вступительных экзаменов, без предварительной регистрации и смс); кружки очные, в МЦНМО
mccme.ru/ru/math-circles/circles-mccme/20252026/
Forwarded from COLUMNA
Ml-новое: ииизм (почему не просто "иизм", если "шиизм"?), слоптимизм (как совпало с поптимизмом то) и (в шутку) иишница
Слова такие свежие (прелогизмы), что даже определения давать лишнее, они сами за себя говорят достаточно
Я наверное, иист, но не считаю себя слоптимистом, даже имея специфиичные-вкусы-вы-не-поймете
Потому что это не слоп!
P. S. Можно сократить до "и3зм", как нумероним W3C
Слова такие свежие (прелогизмы), что даже определения давать лишнее, они сами за себя говорят достаточно
Я наверное, иист, но не считаю себя слоптимистом, даже имея специфиичные-вкусы-вы-не-поймете
Потому что это не слоп!
P. S. Можно сократить до "и3зм", как нумероним W3C
На этой неделе GPT-5.2 Pro решила уже две открытые математические задачи, которые люди не могли решить на протяжении многих лет
Речь снова пойдет про список Эрдеша
И тут сразу оговорка для тех, кто помнит октябрьскую историю (GPT-5 просто откопала ответ на задачку в старых статьях, а в OpenAI заявили, что она «нашла решение»): на этот раз все честно, автономность решения в обоих случаях подтвердил сам Теренс Тао
Итак:
1. Первая задачка – под номером 728
Ее отдал GPT-5.2 сам Теренс
Прикол с этой задачкой в том, что исходная формулировка Эрдеша была неверной, и корректная постановка была получена только несколько месяцев назад, так что предшествующей литературы по ней вообще не было
Обратите внимание на последнее предложение: это не умаляет результат, НО модель все еще воспроизводит известные доказательства, а не придумывает что-то нечеловеческое
2. Вторая – № 397. Ее засабмитил Нил Сомани, а проверил Теренс
Речь снова пойдет про список Эрдеша
И тут сразу оговорка для тех, кто помнит октябрьскую историю (GPT-5 просто откопала ответ на задачку в старых статьях, а в OpenAI заявили, что она «нашла решение»): на этот раз все честно, автономность решения в обоих случаях подтвердил сам Теренс Тао
Итак:
1. Первая задачка – под номером 728
Ее отдал GPT-5.2 сам Теренс
Прикол с этой задачкой в том, что исходная формулировка Эрдеша была неверной, и корректная постановка была получена только несколько месяцев назад, так что предшествующей литературы по ней вообще не было
Задача была решена более или менее автономно (после получения обратной связи по результатам первоначальной попытки), и результат (насколько нам известно) не был воспроизведен в литературе (хотя были найдены результаты, доказанные аналогичными методами)
Обратите внимание на последнее предложение: это не умаляет результат, НО модель все еще воспроизводит известные доказательства, а не придумывает что-то нечеловеческое
2. Вторая – № 397. Ее засабмитил Нил Сомани, а проверил Теренс
Доказательство было сгенерировано GPT 5.2 Pro и оформлено с помощью Harmonic
Много открытых проблем просто сидят и ждут, когда кто-нибудь предложит ChatGPT решить их
X (formerly Twitter)
Neel Somani (@neelsomani) on X
Weekend win: The proof I submitted for Erdos Problem #397 was accepted by Terence Tao.
The proof was generated by GPT 5.2 Pro and formalized with Harmonic.
Many open problems are sitting there, waiting for someone to prompt ChatGPT to solve them:
The proof was generated by GPT 5.2 Pro and formalized with Harmonic.
Many open problems are sitting there, waiting for someone to prompt ChatGPT to solve them:
Математическая лингвистика: от грамматик к трансформерам
От регулярных языков и конечных автоматов — к контекстно‑свободным и магазинной памяти, дальше к КЗ и языкам типа 0 и машинам Тьюринга — уже не как к музейным экспонатам, а как к линейке моделей
Добавляем структурную лингвистику: фонемы, морфемы, синтаксические деревья
Затем поверх этого три слоя: статистическую ОЕЯ, нейросетевой подход и, наконец, трансформеры и большие языковые модели как синтез всех предыдущих идей
Зачем всё это, если есть готовые парсеры и ChatGPT?
Чтобы понимать, что происходит внутри этих моделей и как воспроизвести их поведение своими руками, а не ждать очередного чуда от чёрного ящика
От регулярных языков и конечных автоматов — к контекстно‑свободным и магазинной памяти, дальше к КЗ и языкам типа 0 и машинам Тьюринга — уже не как к музейным экспонатам, а как к линейке моделей
Добавляем структурную лингвистику: фонемы, морфемы, синтаксические деревья
Затем поверх этого три слоя: статистическую ОЕЯ, нейросетевой подход и, наконец, трансформеры и большие языковые модели как синтез всех предыдущих идей
Зачем всё это, если есть готовые парсеры и ChatGPT?
Чтобы понимать, что происходит внутри этих моделей и как воспроизвести их поведение своими руками, а не ждать очередного чуда от чёрного ящика
4-месячный стартап Axiom сообщил, что их ИИ AxiomProver решил 9 из 12 задач в языке Lean
Axiom строит Ml-математика, способного на рассуждения, генерацию доказательств, проверку своей работы. Коммерческие последствия огромны - верификация, логистика, трейдинг, научные исследования и любые домены, где важны корректность и оптимизация
Что именно сделал их Ml:
- Задачи формализовали люди (это был внутренний «Prove-a-ton» — хакатон по переводу задач в Lean)
- Дальше AxiomProver работал полностью автономно
- 8 задач решены за первые 58 минут после экзамена, 9-я — к полудню следующего дня
- Всё в Lean 4 + Mathlib, каждое доказательство проверено компилятором на 100 %
Что говорят сами математики:
1. Это первый случай, когда Ml даёт полностью верифицируемые доказательства на уровне топ-5 мира
2. Формальные доказательства пока дорогие, но цена одного пруфа может превышать зарплату аспиранта
3. Через 5–10 лет такие системы будут обычным инструментом, как сейчас Wolfram Alpha, только для доказательств
Основателем стартапа является 24-летняя Карина Хонг,окончившая MIT и получившая 2 диплома математика и физика за 3 года, также она лауреат Morgan Prize, Rhodes Scholar, бросила PhD/JD в Стэнфорде
Недавно к ней присоединился Кен Оно — один из самых влиятельных ныне живущих специалистов по теории чисел и эллиптическим кривым (бывший вице-президент AMS, ментор десятков Putnam Fellows)
Команда — 17 человек, среди них аспиранты и постдоки из MIT, Cambridge, Imperial, Humboldt
Стартап привлек уже $64.000.000 от Menlo Ventures
У кейс интересен тем, что уровень сложности экзаменов выше, чем IMO, которым хвастались Google, OpenAI, Harmonic
Ml AxiomProver решил 12 из 12 задач самой сложной студенческой математической олимпиады в мире Putnam
Стартап Axiom создал ИИ AxiomProver, генерирующий формально верифицированные доказательства
Ключевое отличие от других Ml-систем - каждое решение - это не ответ, а полное формальное доказательство на языке Lean, которое можно машинно верифицировать
Lean не принимает неправильные доказательства
Стартап выявил 3 категории задач и вот, что они показывают:
1. Простое для людей, мучительное для формализации - задачи на матанализ
Человек смотрит на график и видит ответ
А чтобы Ml записать это в Lean нужны сотни строк кода
2. Задачи, которые AxiomProver неожиданно решил - комбинаторика и геометрия - исторически слабые места Ml-систем
Нерешённые задачи IMO 2024 и 2025 как раз из этих областей
AxiomProver решил обе такие задачи на Putnam
3. Люди и Ml решили по-разному задачи, например,
в задаче A4 люди интуитивно тянулись к алгебре
Ml подошел к решению геометрически
Главный вопрос - что делает математическую задачу сложной для Ml?
То, что сложно людям, и то, что сложно Ml - разные вещи
У людей есть интуиция
Теория «машинной сложности» — что структурно делает задачи лёгкими или трудными для автоматических доказательств— это открытое исследовательское направление
Axiom строит Ml-математика, способного на рассуждения, генерацию доказательств, проверку своей работы. Коммерческие последствия огромны - верификация, логистика, трейдинг, научные исследования и любые домены, где важны корректность и оптимизация
Что именно сделал их Ml:
- Задачи формализовали люди (это был внутренний «Prove-a-ton» — хакатон по переводу задач в Lean)
- Дальше AxiomProver работал полностью автономно
- 8 задач решены за первые 58 минут после экзамена, 9-я — к полудню следующего дня
- Всё в Lean 4 + Mathlib, каждое доказательство проверено компилятором на 100 %
Что говорят сами математики:
1. Это первый случай, когда Ml даёт полностью верифицируемые доказательства на уровне топ-5 мира
2. Формальные доказательства пока дорогие, но цена одного пруфа может превышать зарплату аспиранта
3. Через 5–10 лет такие системы будут обычным инструментом, как сейчас Wolfram Alpha, только для доказательств
Основателем стартапа является 24-летняя Карина Хонг,окончившая MIT и получившая 2 диплома математика и физика за 3 года, также она лауреат Morgan Prize, Rhodes Scholar, бросила PhD/JD в Стэнфорде
Недавно к ней присоединился Кен Оно — один из самых влиятельных ныне живущих специалистов по теории чисел и эллиптическим кривым (бывший вице-президент AMS, ментор десятков Putnam Fellows)
Команда — 17 человек, среди них аспиранты и постдоки из MIT, Cambridge, Imperial, Humboldt
Стартап привлек уже $64.000.000 от Menlo Ventures
У кейс интересен тем, что уровень сложности экзаменов выше, чем IMO, которым хвастались Google, OpenAI, Harmonic
Ml AxiomProver решил 12 из 12 задач самой сложной студенческой математической олимпиады в мире Putnam
Стартап Axiom создал ИИ AxiomProver, генерирующий формально верифицированные доказательства
Ключевое отличие от других Ml-систем - каждое решение - это не ответ, а полное формальное доказательство на языке Lean, которое можно машинно верифицировать
Lean не принимает неправильные доказательства
Стартап выявил 3 категории задач и вот, что они показывают:
1. Простое для людей, мучительное для формализации - задачи на матанализ
Человек смотрит на график и видит ответ
А чтобы Ml записать это в Lean нужны сотни строк кода
2. Задачи, которые AxiomProver неожиданно решил - комбинаторика и геометрия - исторически слабые места Ml-систем
Нерешённые задачи IMO 2024 и 2025 как раз из этих областей
AxiomProver решил обе такие задачи на Putnam
3. Люди и Ml решили по-разному задачи, например,
в задаче A4 люди интуитивно тянулись к алгебре
Ml подошел к решению геометрически
Главный вопрос - что делает математическую задачу сложной для Ml?
То, что сложно людям, и то, что сложно Ml - разные вещи
У людей есть интуиция
Теория «машинной сложности» — что структурно делает задачи лёгкими или трудными для автоматических доказательств— это открытое исследовательское направление
Перплексия теперь не модно. Эпиплексия модно
Всё на благо ограниченных наблюдателей!
Авторы ввели понятие эпиплексии (epiplexity) — новую метрику из теории информации, которая оценивает объём структурной информации, доступной *вычислительно ограниченному* наблюдателю
В отличие от энтропии Шеннона или колмогоровской сложности, подразумевающих бесконечные ресурсы, эпиплексия явно учитывает конечность модели (программы) и процесса обучения (вычислений)
Этот фреймворк разрешает старые парадоксы, где теория противоречит практике глубокого обучения — например, почему детерминированные процессы (вроде симуляций или self-play) создают ценный сигнал
Практически это даёт строгую метрику для отбора данных: для предобучения важен не минимум финального лосса (энтропии), а максимум усваиваемой структуры (эпиплексии)
Подробнее: https://t.me/gonzo_ML_podcasts/2022
Epiplexity: Quantifying the Structural Value of Data for Bounded Observers
Marc Finzi, Shikai Qiu, Yiding Jiang, Pavel Izmailov, J. Zico Kolter, Andrew Gordon Wilson
Статья: https://arxiv.org/abs/2601.03220
Ревью: https://arxiviq.substack.com/p/from-entropy-to-epiplexity-rethinking
Всё на благо ограниченных наблюдателей!
Авторы ввели понятие эпиплексии (epiplexity) — новую метрику из теории информации, которая оценивает объём структурной информации, доступной *вычислительно ограниченному* наблюдателю
В отличие от энтропии Шеннона или колмогоровской сложности, подразумевающих бесконечные ресурсы, эпиплексия явно учитывает конечность модели (программы) и процесса обучения (вычислений)
Этот фреймворк разрешает старые парадоксы, где теория противоречит практике глубокого обучения — например, почему детерминированные процессы (вроде симуляций или self-play) создают ценный сигнал
Практически это даёт строгую метрику для отбора данных: для предобучения важен не минимум финального лосса (энтропии), а максимум усваиваемой структуры (эпиплексии)
Подробнее: https://t.me/gonzo_ML_podcasts/2022
Epiplexity: Quantifying the Structural Value of Data for Bounded Observers
Marc Finzi, Shikai Qiu, Yiding Jiang, Pavel Izmailov, J. Zico Kolter, Andrew Gordon Wilson
Статья: https://arxiv.org/abs/2601.03220
Ревью: https://arxiviq.substack.com/p/from-entropy-to-epiplexity-rethinking
Формализовать оценки в аналитической теории чисел
Создать живую сеть импликаций, когда первичная оценка улучшается, каждое downstream-следствие автоматически обновляется
Это превратит математическую литературу в модульное ПО
В большом интервью развёрнутое видение будущего
Изменился способ, которым делаем математику
Определение математика расширилось
Возможно, через 10 лет математик без навыков работы с proof assistants будет как программист без Git
Это другой стиль написания доказательств, который на самом деле в некоторых отношениях легче читать — сложнее проверять людям, но видны более ясно входы и выходы доказательства, которые традиционное письмо часто скрывает»
Ml делает масштабируемым, превращает написание доказательств в задачу поиска: генерирует тысячи мини-лемм из цели, затем дешёвые проверщики отсеивают большинство и оставляют те немногие, что работают
Ml учит человеческой глупости
То, что люди находят сложным, Ml находит лёгким
Машины взломали язык через простую вероятность — человеческий разговор не так сложен, как заявляли
Ml-инструменты теперь достаточно способны, чтобы решать задачи, перечисленные как открытые в базе данных задач Эрдёша
Это не Ml, открывающий глубокую математику
Это pattern matching, применённый к доступным задачам
Создать живую сеть импликаций, когда первичная оценка улучшается, каждое downstream-следствие автоматически обновляется
Это превратит математическую литературу в модульное ПО
В большом интервью развёрнутое видение будущего
Изменился способ, которым делаем математику
Определение математика расширилось
Возможно, через 10 лет математик без навыков работы с proof assistants будет как программист без Git
Это другой стиль написания доказательств, который на самом деле в некоторых отношениях легче читать — сложнее проверять людям, но видны более ясно входы и выходы доказательства, которые традиционное письмо часто скрывает»
Ml делает масштабируемым, превращает написание доказательств в задачу поиска: генерирует тысячи мини-лемм из цели, затем дешёвые проверщики отсеивают большинство и оставляют те немногие, что работают
Ml учит человеческой глупости
То, что люди находят сложным, Ml находит лёгким
Машины взломали язык через простую вероятность — человеческий разговор не так сложен, как заявляли
Ml-инструменты теперь достаточно способны, чтобы решать задачи, перечисленные как открытые в базе данных задач Эрдёша
Это не Ml, открывающий глубокую математику
Это pattern matching, применённый к доступным задачам
YouTube
Terry Tao — The future of mathematics | Math, Inc.
Terry Tao sits down with Math Inc's Jesse Han and Jared Duker Lichtman for a conversation on the future of mathematics.
Tao (Fields Medal, 2006) is one of the greatest mathematicians of our time. He has made fundamental contributions across diverse fields…
Tao (Fields Medal, 2006) is one of the greatest mathematicians of our time. He has made fundamental contributions across diverse fields…
Аристотелевские законы тождества
(А=А) и непротиворечия (не может быть одновременно А и не-А) - это инструменты аналитического ума, который расчленяет мир на статические категории, на некие сущности
Гераклит же видел мир как поток, где на поверхности кажущиеся противоположности (день-ночь, жизнь-смерть) борются, но в глубине они едины (все течёт, всё есть огонь в своих превращениях)
В дзен (чань), дуализм представлен как болезнь ума
Не И или И, а И и И
(А=А) и непротиворечия (не может быть одновременно А и не-А) - это инструменты аналитического ума, который расчленяет мир на статические категории, на некие сущности
Гераклит же видел мир как поток, где на поверхности кажущиеся противоположности (день-ночь, жизнь-смерть) борются, но в глубине они едины (все течёт, всё есть огонь в своих превращениях)
В дзен (чань), дуализм представлен как болезнь ума
Не И или И, а И и И
Forwarded from НИИ Антропогенеза (ARI)
Гильбертово пространство, по сути, очень похоже на всем нам знакомое евклидово пространство
Однако оно имеет два замечательных свойства, которые облегчают жизнь физикам
Гильбертово пространство бесконечномерное и может состоять из комплексных чисел
В качестве примера представьте себе наперсток, крошечный (примерно в миллион миллиардов раз меньше, чем кончик иглы), в котором в танце ядерных сил взаимодействуют между собой протоны и нуклоны
В этом наперстке (аналогом будет являться ядро атома) происходит настоящее физическое событие – то есть Гильбертово пространство многих тел
Каждый нуклон – будь то протон или нейтрон – скачет некоторым образом
Вдруг из наперстка выскочит (возможно из-за квантового туннелирования) один самый непослушный нуклон и где-то в уголочке будет продолжать вести себя крайне странным образом
Опишем некоторым способом его личное пространство и назовем его H1 - Гильбертово пространство одного нуклона
Если затем взять (тензорное) произведение пространств H1 ⊗ H1 - это ничто иное, как гильбертово пространство сразу двух нуклонов
Это словно танец вдвоем, где каждый шаг имеет свое значение
Обрадовавшись этому открытию, для большого числа протонов и нейтронов в наперснике запишем:
HA = H1 ⊗ H1 ⊗ H1 … ⊗ H1
где H1 повторяется столько раз, сколько нуклонов в корзине
При этом удивительно, что состояние всей системы может описываться как произведением состояний каждой частицы в отдельности (сепарабельное состояние), так и быть представлено в более сложном виде (запутанное состояние)
В этом заключается красота ядерной физики
Руководствуясь принципом внешней политики Древнего Рима «Разделяй и Властвуй» можно анализировать мир вокруг нас
Одна звезда – ничто, газовое облако в пустотах пространства, но ее состояние вносит вклад в эволюцию Вселенной
И твое состояние – часть большой, пусть и непонятной тебе системы
Еще неизвестно как, но ты играешь особую роль в развитии Вселенной
Однако оно имеет два замечательных свойства, которые облегчают жизнь физикам
Гильбертово пространство бесконечномерное и может состоять из комплексных чисел
В качестве примера представьте себе наперсток, крошечный (примерно в миллион миллиардов раз меньше, чем кончик иглы), в котором в танце ядерных сил взаимодействуют между собой протоны и нуклоны
В этом наперстке (аналогом будет являться ядро атома) происходит настоящее физическое событие – то есть Гильбертово пространство многих тел
Каждый нуклон – будь то протон или нейтрон – скачет некоторым образом
Вдруг из наперстка выскочит (возможно из-за квантового туннелирования) один самый непослушный нуклон и где-то в уголочке будет продолжать вести себя крайне странным образом
Опишем некоторым способом его личное пространство и назовем его H1 - Гильбертово пространство одного нуклона
Если затем взять (тензорное) произведение пространств H1 ⊗ H1 - это ничто иное, как гильбертово пространство сразу двух нуклонов
Это словно танец вдвоем, где каждый шаг имеет свое значение
Обрадовавшись этому открытию, для большого числа протонов и нейтронов в наперснике запишем:
HA = H1 ⊗ H1 ⊗ H1 … ⊗ H1
где H1 повторяется столько раз, сколько нуклонов в корзине
При этом удивительно, что состояние всей системы может описываться как произведением состояний каждой частицы в отдельности (сепарабельное состояние), так и быть представлено в более сложном виде (запутанное состояние)
В этом заключается красота ядерной физики
Руководствуясь принципом внешней политики Древнего Рима «Разделяй и Властвуй» можно анализировать мир вокруг нас
Одна звезда – ничто, газовое облако в пустотах пространства, но ее состояние вносит вклад в эволюцию Вселенной
И твое состояние – часть большой, пусть и непонятной тебе системы
Еще неизвестно как, но ты играешь особую роль в развитии Вселенной
«Великий государь, Царь и Великий Князь Пётр Алексеевич […] указал Именным Своим Великого Государя повелением в государстве Богохранимой Своей Державы Всероссийского Самодержавия на славу Всеславного Имени Всемудрейшего Бога и Своего Богосодержимого храбропремудрейшего царствования, во избаву же и пользу Православного Христианства, быть Математических и Навигацких, то есть мореходных хитростно наук учению»
14 января 1701 года (по старому стилю), Высочайший указ Петра I об основании школы математических и навигацких наук положил начало математическому образованию в России.
[Словарь русского языка XI—XVII вв.: избава — спасение, избавление]
Первые учебники тех времён:
1703 годом помечена книга «Арифметика» («Арифметика или числительница, есть художество честное, независтное, …») Леонтия Филипповича Магницкого;
в 1705 году издан плакат Василия Анофриевича Киприанова «Новый способ арифметики феорики или зрительно, сочинён вопросами ради удобнейшего понятия» (описание см. в книге Д.Д. Галанина «Леонтий Филиппович Магницкий и его арифметика»)
в 1708 году в переводе Якова Вилимовича Брюса вышла книга «Геометрия словенски землемерие» (основу составило австрийское издание «Приёмы циркуля и линейки» ) замечательная несколькими моментами
На рукописи перевода есть правка-редактура рукой Петра I
К одному из изданий Пётр I сам написал приложение «Как делать на горизонтальном месте солнечные часы»
И вдобавок это первая книга, изданная «гражданским шрифтом»
❤1
5 математиков изучали пространства отображений в так называемые «многообразия флагов» — объекты из алгебраической геометрии
У них была гипотеза и численные подтверждения, но не было доказательства
Они разбили задачу на подзадачи возрастающей сложности и предложили их Ml:
•Google Gemini DeepThink
•FullProof - внутренняя система Google DeepMind, специализированная для математики, решил частные случаи, но застрял на обобщении
Тогда математики проанализировали его решения, увидели ключевую идею, переформулировали задачу и с новыми подсказками Ml завершили доказательство
Рави Вакил - соавтор работы и президент американского математического общества признаёт за Ml способность к математическому прозрению, речь идёт о выводе, который сделал FullProof
Ранее, писали о том, как может математика измениться с Ml
У них была гипотеза и численные подтверждения, но не было доказательства
Они разбили задачу на подзадачи возрастающей сложности и предложили их Ml:
•Google Gemini DeepThink
•FullProof - внутренняя система Google DeepMind, специализированная для математики, решил частные случаи, но застрял на обобщении
Тогда математики проанализировали его решения, увидели ключевую идею, переформулировали задачу и с новыми подсказками Ml завершили доказательство
Рави Вакил - соавтор работы и президент американского математического общества признаёт за Ml способность к математическому прозрению, речь идёт о выводе, который сделал FullProof
Ранее, писали о том, как может математика измениться с Ml
Telegram
All about AI, Web 3.0, BCI
New paper from Google, proving a novel theorem in algebraic geometry with an internal math-specialized version of Gemini.
This was a collaboration between Google DeepMind (Professor Freddie Manners and Blueshift team) and Professors Jim Bryan, Balazs Elek…
This was a collaboration between Google DeepMind (Professor Freddie Manners and Blueshift team) and Professors Jim Bryan, Balazs Elek…
Фреймворк, где LLM улучшает способности к поиску и рассуждению полностью автономно без единого размеченного примера
GitHub
Размеченные данные - узкое место в обучении агентов
Если сложные рассуждающие способности могут возникать из самоэволюции, это меняет экономику создания Ml-систем
Как это работает?
Из одной базовой модели создаются 2 агента:
- Proposer генерирует вопросы, - Solver на них отвечает
Оба используют внешний поисковик
Ключевой трюк — награда за «правильную» сложность: если Solver решает всё или ничего, Proposer не получает награды
Только частичный успех засчитывается
Это создаёт автоматический учебный план с постепенным усложнением
По мере роста Solver простые вопросы обесцениваются → Proposer вынужден генерировать сложнее → Solver продолжает учиться
Замкнутый цикл самоулучшения
Результаты:
На простых задачах (один поисковый шаг) 3B-модель превосходит supervised-baseline на 7-23 %
На сложных многошаговых — 7B достигает ~90 % качества полностью supervised-агентов
И это без единого человеческого примера в обучении
Что ограничивает?
После 2-3 итераций наступает плато
Крупные модели менее стабильны при обучении
Пока не решена проблема reward hacking при длительной самоэволюции
GitHub
Размеченные данные - узкое место в обучении агентов
Если сложные рассуждающие способности могут возникать из самоэволюции, это меняет экономику создания Ml-систем
Как это работает?
Из одной базовой модели создаются 2 агента:
- Proposer генерирует вопросы, - Solver на них отвечает
Оба используют внешний поисковик
Ключевой трюк — награда за «правильную» сложность: если Solver решает всё или ничего, Proposer не получает награды
Только частичный успех засчитывается
Это создаёт автоматический учебный план с постепенным усложнением
По мере роста Solver простые вопросы обесцениваются → Proposer вынужден генерировать сложнее → Solver продолжает учиться
Замкнутый цикл самоулучшения
Результаты:
На простых задачах (один поисковый шаг) 3B-модель превосходит supervised-baseline на 7-23 %
На сложных многошаговых — 7B достигает ~90 % качества полностью supervised-агентов
И это без единого человеческого примера в обучении
Что ограничивает?
После 2-3 итераций наступает плато
Крупные модели менее стабильны при обучении
Пока не решена проблема reward hacking при длительной самоэволюции
arXiv.org
Dr. Zero: Self-Evolving Search Agents without Training Data
As high-quality data becomes increasingly difficult to obtain, data-free self-evolution has emerged as a promising paradigm. This approach allows large language models (LLMs) to autonomously...
Если в 2025 году все старались создать лучшего помощника в кодировании, то в 2026 году крупные лаборатории идут в здравоохранение
Как писали ранее, OpenAI и Anthropic объявили о своих проектах в health
Сейчас именно OpenAI и Anthropic борются за то, чтобы быть интерфейсом - единой точкой входа для всех данных в здравоохранении - от Apple Watch до медицинских записей
Вместо десяти приложений интерфейс, который всё агрегирует и интерпретирует
В это же время Google занимается созданием инфраструктуры, выпустили обновленную MedGemma 1.5 — открытая мультимодальная медицинская модель. Предыдущие тут и тут
А стартапы без глубокой специализации и уникальных данных становятся уязвимы, происходит расслоение:
1. Wellness/hardware стартапы (Oura, Whoop, Eight Sleep) — выигрывают, их данные становятся ценнее в контексте
2. Обёртки над LLM проигрывают, их функционал поглощается платформами
3. Глубокие вертикали (клинические workflow, фарма R&D) — пока в безопасности, но давление нарастает
Выживут те стартапы, которые либо владеют железом , например, Oura, либо встроены в клинические процессы так глубоко, что замена невозможна
Данные будут генерироваться разными устройствами и сервисами, но интерпретировать и взаимодействовать с ними пользователь будет через Claude или ChatGPT
Это как с браузерами в своё время - неважно, чей сайт, важно, через что ты его открываешь
Здесь аналогично: неважно, чей трекер сна - важно, кто агрегирует всю картину
Как писали ранее, OpenAI и Anthropic объявили о своих проектах в health
Сейчас именно OpenAI и Anthropic борются за то, чтобы быть интерфейсом - единой точкой входа для всех данных в здравоохранении - от Apple Watch до медицинских записей
Вместо десяти приложений интерфейс, который всё агрегирует и интерпретирует
В это же время Google занимается созданием инфраструктуры, выпустили обновленную MedGemma 1.5 — открытая мультимодальная медицинская модель. Предыдущие тут и тут
А стартапы без глубокой специализации и уникальных данных становятся уязвимы, происходит расслоение:
1. Wellness/hardware стартапы (Oura, Whoop, Eight Sleep) — выигрывают, их данные становятся ценнее в контексте
2. Обёртки над LLM проигрывают, их функционал поглощается платформами
3. Глубокие вертикали (клинические workflow, фарма R&D) — пока в безопасности, но давление нарастает
Выживут те стартапы, которые либо владеют железом , например, Oura, либо встроены в клинические процессы так глубоко, что замена невозможна
Данные будут генерироваться разными устройствами и сервисами, но интерпретировать и взаимодействовать с ними пользователь будет через Claude или ChatGPT
Это как с браузерами в своё время - неважно, чей сайт, важно, через что ты его открываешь
Здесь аналогично: неважно, чей трекер сна - важно, кто агрегирует всю картину
Telegram
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
OpenAI и Anthropic выпустили ИИ для здравоохранения и наук о жизни
OpenAI 7 января выпустили ChatGPT Health - отдельный интерфейс для пользователей, куда можно загружать и подключать свои медицинские записи, данные из приложений здоровья и т.д. ChatGPT помогает…
OpenAI 7 января выпустили ChatGPT Health - отдельный интерфейс для пользователей, куда можно загружать и подключать свои медицинские записи, данные из приложений здоровья и т.д. ChatGPT помогает…
Anthropic посмотрели как используют люди Claude и вот, что выяснили
Claude используется чаще и даёт большую производительность на задачах, требующих высшего образования
Если эти задачи сократятся для работников, чистый эффект может привести к снижению квалификационных рабочих мест
Как спрашивают Claude, так и отвечает
Claude может отвечать на запросы пользователей на уровне PhD, но делает это только, когда получает соответствующий запрос
Это не особенность, а следствие обучения
И аргумент за то, что навык формулировать запросы - реальный экономический фактор
Есть связь между доходом на душу населения и паттернами использования Ml — богатые страны используют Claude коллаборативно, бедные фокусируются на учёбе и приложениях — говорит о том, что Ml не развернётся единообразно по всему миру
По мере развития возможностей Ml:
• Успешность выполнения задач может вырасти
• Пользователи могут давать больше автономии
• Пользователи будут браться за более сложные задачи
• Задачи, которые окажутся автоматизируемыми, могут перейти из чата в API
Claude используется чаще и даёт большую производительность на задачах, требующих высшего образования
Если эти задачи сократятся для работников, чистый эффект может привести к снижению квалификационных рабочих мест
Как спрашивают Claude, так и отвечает
Claude может отвечать на запросы пользователей на уровне PhD, но делает это только, когда получает соответствующий запрос
Это не особенность, а следствие обучения
И аргумент за то, что навык формулировать запросы - реальный экономический фактор
Есть связь между доходом на душу населения и паттернами использования Ml — богатые страны используют Claude коллаборативно, бедные фокусируются на учёбе и приложениях — говорит о том, что Ml не развернётся единообразно по всему миру
По мере развития возможностей Ml:
• Успешность выполнения задач может вырасти
• Пользователи могут давать больше автономии
• Пользователи будут браться за более сложные задачи
• Задачи, которые окажутся автоматизируемыми, могут перейти из чата в API
Telegram
All about AI, Web 3.0, BCI
Anthropic published 4th Economic Index report
This version introduces "economic primitives"—simple and foundational metrics on how AI is used: task complexity, education level, purpose (work, school, personal), AI autonomy, and success rates.
API data shows…
This version introduces "economic primitives"—simple and foundational metrics on how AI is used: task complexity, education level, purpose (work, school, personal), AI autonomy, and success rates.
API data shows…