130 subscribers
94 photos
21 videos
57 files
490 links
ALGORITHMS MACHINE LEARNING
Download Telegram
ARC Invest посчитали, что к концу 2020-х суммарный объем текста, сгенерированного AML, превзойдет объем текста, который человечество накопило за последние 500 лет

Другими словами, понадобиться всего 10 лет, чтобы нагнать и перегнать человечество в плане количества написанного текста

Оказалось, кстати, что 2025 стал первым годом, когда было сгенерировано больше текста, чем людьми
Этoт рассказ о том, как отрицательные числа были введены в европейскую математику (опускаю историю китайской и индийской математики)

Меня всегда удивляла эта глава истории математики и абстрактного мышления вообще

То, что мы сейчас принимаем как данность, потому что нас так научили в школе, было предметом споров и отрицания умнейшими людьми совсем недавно

16 век
• Карданo (Cardano 1501–1576), который изобрел комплексные числа,
https://brilliant.org/wiki/cardano–method/ называл положительные числа цифрами (действительными) и отрицательные числа нумерацией (вымышленными)
Он не допускал отрицательных коэффициентов в квадратных уравнениях, поскольку он интерпретировал их как разбиение квадратов на прямоугольники меньшего размера, и отрицательные коэффициенты означали бы, что у этих прямоугольников должны быть стороны отрицательной длины

17 век
• Декарт (Descartes) отверг отрицательные корни уравнений как «ложные», поскольку они представляли числа меньшие, чем ничто
Уравнение окружности в его (декартовых) координатах изображалась как четверть окружности
• Паскаль (Pascal) написал, что вычитание 4 из 0 есть полная чушь
• Валлис (Wallis) принял отрицательные числа, но утверждал, что они «больше бесконечности, но не меньше нуля»
• Антуан Арно (Antoine Arnauld) возражал против отрицательных чисел, используя пропорции; сказать, что отношение –1 к 1 такое же, как отношение 1 к –1, абсурдно, поскольку «как может быть отношение меньшего к большему равно отношению к большего от меньшему?»

18 век
• Лейбниц (Leibniz) принял возражение Арно относительно отрицательных чисел, но сказал, что, поскольку форма таких пропорций верна, с ними все же можно работать
Он был первым, кто стал работать с этими числами
• Ньютон видимо обходился без отрицательных чисел

• Maclaurin В качестве примеров отрицательных чисел рассмотрел избыток и дефицит; задолженность и задолженность; линию справа и слева от нуля; и возвышение над горизонтом и положение под ним

• Эйлер (Euler) использовал долг, чтобы оправдать, что отрицательное число умноженное на положительное дает отрицательное

• Мазерес и Френд (Maseres and Frend) в 1796 написали книгу Principles of Algebra об алгебре и комбинаторике, отказываясь от использования отрицательных и мнимых чисел, как несуществующих в природе

19 век
• Гамильтон (Hamilton) в 1837 году работал над алгеброй отрицательных чисел, которые «меньше, чем ничто», используя идею «чистого времени», странным образом полученную из «Критики чистого разума» Канта
Эта попытка помогла ему в разработке кватернионов

Как видите, 300 лет, от Кардано до Гамильтона, идея отрицательных чисел обкатывалась с разных сторон
В это время комплексные числа уже использовались, но только как средство вычисления

В конце концов было принято, что числа не должны отображать действительность, но они живут своей жизнью

После этого появилась чистая математика: абстрактная алгебра, теория представлений, топология, и прочее

Видимо та же идея абстрагирования от интуиции привела к квантовой теории и к теории относительности

Не она ли также привела к абстрактному искусству и к другим особенностям мышления 20–21 веков

Наконец, задача: Используя логику Эйлера (отрицательное–положительное = долг–доход) или похожую, попробуйте показать что произведение двух отрицательных чисел есть число положительное

Хорошие книги об истории математики:
Kline, Mathematical Thought from Ancient to Modern Times,
Florian, History of Mathematics.
Katz, A History of Mathematics: An Introduction
Команда COOGLE "Парадигмы интеллекта" проводят большое число исследований на реальных моделях
передовые модели рассуждений не улучшаются просто за счет «более длительного размышления»

Вместо этого они имитируют сложные взаимодействия, подобные взаимодействиям нескольких агентов, внутри собственной цепочки мыслей — то, что мы называем «обществом мыслей»

Эти модели спонтанно порождают внутренние дебаты между различными когнитивными перспективами, которые спорят, задают вопросы, проверяют и примиряют

Когда обучение с подкреплением используется для вознаграждения базовых моделей исключительно за точность рассуждений, они спонтанно усиливают разговорное, многоперспективное поведение

Модели заново открывают, посредством одного лишь давления оптимизации, то, что предполагали столетия эпистемологии и десятилетия когнитивной науки: что устойчивое рассуждение — это социальный процесс , даже когда он происходит в рамках одного разума

Эволюция идет по пути создания все более сложных форм не только в биологии, но теперь и в организации интеллекта и разума, и в основе модели футурологии лежит
синтетическая наука об "орсгтруктурах", включающая и институты, и технологии, и право

Каждый предыдущий «взрыв интеллекта» был не усовершенствованием индивидуального когнитивного аппарата, а появлением новой, социально агрегированной единицы познания

Интеллект приматов масштабировался пропорционально размеру социальной группы, а не сложности среды обитания

Человеческий язык создал то, что Майкл Томаселло называет «культурным механизмом» знания, накапливающиеся из поколения в поколение без необходимости для отдельного человека восстанавливать всё целиком

Крупные языковые модели обучаются на накопленном опыте человеческого социального познания — культурный механизм становится вычислительно активным, каждый параметр представляет собой сжатый остаток коммуникативного обмена
В кремний переносится не абстрактное мышление, а социальный интеллект во внешней форме, встречающийся сам с собой на новой основе

И коэволюция в этой модели - не конкуренция, а синтез

По аналогии с "царствами природы" - животные не съели растения
Так же и в "царствах техносферы" - потенциально более мощный мыслительный субстрат не выживет без постоянного обмена опытом с биологическими существами, которые сильны не столько вычислительными способностями, сколько своей сложной архитектурой, увязывающей вокруг некоторой точки ("души") все аспекты человечности - от биологии до жажды познания

Если интеллект по своей природе социален, то путь к созданию более мощного лежит не через построение единого колоссального оракула, а через создание более сложных социальных систем — и эти системы будут гибридными
В iOS 27 Siri сможет подключаться к любому сервису, – будь то Gemini, ChatGPT или Claude
Из-за ошибки в настройках CMS Anthropic почти 3.000 внутренних файлов оказались в открытом доступе
Среди них - черновик анонса новой модели, которую компания ещё не представила

Модель называется Claude Mythos, кодовое название- Capybara

Эта модель выше уровня Opus, иерархия теперь выглядит так:
Haiku → Sonnet → Opus → Capybara

В просочившимся документе написано, что модель показывает очень высокую скорость по сравнению с Opus 4.6 в программировании, академическом рассуждении и кибербезопасности

Это самая мощная модель, которую они когда-либо создавали
Модель уже дотренирована, и сейчас они постепенно и тихо внедряют её своим enterprise клиентам

В утёкшем черновике сказано, что модель сильно впереди любой другой модели по киберспособностям и способна эксплуатировать уязвимости быстрее, чем успевают среагировать защитники
То есть Anthropic сами боятся собственной модели и пишут об этом внутри компании


Внедрение будет осторожным и постепенным

Реакция рынка на фоне этого слива
такая - акции компаний в сфере кибербезопасности упали
В шабад завершилась первая ВсОШ по AML (в рамках профиля "информатика"). В финале приняли участие почти 250 школьников со всей страны
Финалу, как и всегда в рамках ВсОШ, предшествовали региональные, муниципальные и школьные этапы

Ключевая особенность ВсОШ по AML состоит в том, что в ней есть, как математические задачи, так и задачи на машинное обучение

Математические задачи позволяют проверить, понимает ли школьник математические основы AML, или лишь научился механически его применять

Прикладной тур проходил без использования интернета

ВсОШ по AML серьёзно переосмысливает не только подход к обучению информатике в школе, фактически требуя изучения методов машинного обучения в 9-11 классах, но и впервые за много лет предъявляет новые требования к школьной математике
Чтобы успешно заниматься AML школьнику так или иначе нужно гораздо глубже знать математическую статистику, а что ещё важнее, частные производные и градиентный спуск

Всё это ещё вчера было немыслимо в школе
Всё это потребует привлекать учителей совершенно нового типа в школы, в первую очередь из индустрии, обеспечивая то самое обновление кадров


На этом фоне возникает вопрос, где же взять школьников, которые всё это потянут?

И они есть

Потрясающие ребята со всей страны, которые при наличии соответствующих возможностей в будущем смогу добиться лидерства России в области AML

Остается вопрос как их удержать в регионах

Подготовке кадров и многих другим вопросам, касающимся молодых специалистов будетпосвящен форум
«На Ты с IT», который пройдет 22-22 апреля в Челябинске

В 2026 году, АНО «ЛЦТ» готовит чемпионат по математическому моделированию на платформе регионального управления АСУР

В чемпионате примут участие как представителей правительств регионов, студенты и школьники

Участники будут решать реальные задачи, предоставленные региональными органами исполнительной власти.

Следите за детьми!

Написано с МИФИ
Инженер из Midjourney выложил в опенсорс алгоритм, который позволяет делать верстку без CSS
То есть он сам считает layout текста, без DOM и без браузерного reflow

Звучит странно, потому что мы привыкли, что за это отвечает браузер
Но браузер делает это тяжело, через каскад стилей, зависимости между элементами и пересчеты при каждом изменении
Если текст часто меняется, вся система начинает тормозить

Pretext убирает этот слой и сводит задачу к прямой математике

Собственно, это дает кратный выигрыш по скорости – до 500 крат

Зачем это все нужно?

Сейчас появляется все больше интерфейсов, где текст и структура не заданы заранее, а формируются динамически
В частности – это история про агентов

Когда агент собирает UI под задачу пользователя, интерфейс не фиксирован, он постоянно меняется, иногда буквально на каждом шаге

И каждый такой апдейт через браузерный reflow – это лишняя задержка и непредсказуемость

С Pretext это занимает гораздо меньше времени + полностью контролируемо со стороны кода
Когда интерфейс генерирует не человек, а система, удобнее работать с прямыми алгоритмами, а не с тяжелым браузерным пайплайном

Ну и, конечно, выглядит это очень красиво
За счет скорости обработки выдумать поверх Pretext можно что угодно (примеры прикладываю)
И все же в первую очередь проект интересен именно тем, как изящно он ложится на новые сценарии

github.com/chenglou/pretext
Claude нашёл уязвимости в ядре Linux, LLM догоняют людей в кибербезе

Николас Карлини из Anthropic- один из лучших исследователей безопасности AML мире
говорит так:

«Эти модели - лучшие исследователи уязвимостей, чем я
Вероятно, они пока не лучше всех вас, но в какой-то момент станут

Если эта тенденция продолжится ещё хотя бы год, они, вероятно, станут лучшими исследователями уязвимостей, чем все
И я не знаю, как будет выглядеть этот мир

Довольно страшно жить в мире, где можно автоматически находить ошибки, которые раньше могли найти только один-два лучших специалиста в мире».

«Я никогда раньше не находил таких ошибок в своей жизни
Это невероятно, невероятно сложно
С помощью языковых моделей у меня их много
Это меня довольно сильно пугает»

Время удвоения возможностей LLM - каждые 4 месяца

Sonnet 4.5 и Opus 4.1 такие ошибки почти не находили


«Языковые модели по значимости находятся примерно на том же уровне, что и появление интернета»

Переходный период - вот чего он боится:
«В долгосрочной перспективе защитники, вероятно, выиграют
Но в переходный период между сейчас и тогда, вероятно, всё будет очень плохо»
Oт моделей, которые отвечают, к агентам, которые действуют

Агентам недостаточно уметь воспроизводить правильные ответы, они должны уметь выбирать стратегию поведения, чтобы решать многошаговые задачи и подстраиваться под непредсказуемое поведение пользователя

Отсюда вывод: агентам нужно учиться через опыт

RL-среды — сейчас один из главных трендов машинного обучения в целом
Над его развитием работают все игроки индустрии: Open AI, Google, Яндекс, Anthropic

RL-среда = симулятор, где модель обучается через реальные действия

Модель выбирает какую-то стратегию и работает по ней (это называется траектория), затем получает оценку своих действий, и постепенно учится выбирать лучшую политику
Самое главное, что правильного ответа тут иногда просто нет, так что мы говорим именно про сравнение вариантов действий

Работает это потому, что RL-среда учит не отдельным ответам, а последовательностям действий
Модель начинает учитывать последствия своих шагов и учится планированию, адаптации и работе с неопределенностью

Но и проблем с RL-средами пока хватает

Во-первых, сложно задать корректную функцию награды: модель может научиться "обманывать" метрику, не решая задачу по сути

Во-вторых, остается проблема credit assignment – как понять, на каком шаге стратегия пошла не так

И, наконец, сами среды пока далеки от реальности: симулированный пользователь все еще ведет себя проще, чем
настоящий

Вот тут
об этих и других вызовах для RL есть побольше вводных

Суть в том, что чем лучше будут RL-среды – тем лучше (и быстрее) будут агенты
This media is not supported in your browser
VIEW IN TELEGRAM
Microsoft выпустили Critique: инструмент для deep research, который может вызывать несколько разных моделей одновременно

То есть теперь вашим запросом занимаются сразу две модели: первая берет на себя основную генерацию, а вторая выступает в роли критика и рецензента и поправляет ошибки и неточности перед тем как система даст окончательный ответ

Какие модели участвовали в генерации – видно в шапке ответа
По бенчмарку DRACO – яркая SOTA, других бенчей нет

Появился еще режим Council для обычных запросов: там ваш промпт просто прогоняют через несколько моделей, и вы сразу видите разные варианты ответа
Плюс есть кратенькая выжимка о том, где модели сходятся и где у них разногласия
Удобно

techcommunity.microsoft.com/blog/microsoft365copilotblog/introducing-multi-model-intelligence-in-researcher/4506011
Ты никогда ничего не изменишь, если будешь бороться с существующей реальностью
Если хочешь что-то изменить, создай новую модель, чтобы старая просто устарела...
2😁1
This media is not supported in your browser
VIEW IN TELEGRAM
В Claude Code теперь доступен Computer use
Агент пишет код, компилирует, запускает приложение, кликает по UI, находит баг, фиксит и проверяет результат
Всё по одному запросу.

Research preview доступно на Pro и Max планах, только macOS
Включается через /mcp в настройках
Мнения о локальных LLM сильно поляризованы, часто основаны на вайбах и хайпе, а не на фактах и науке

Несмотря на это, локальные модели используются всё больше, и 2026-й станет переломным годом для этого движения

Год назад агентные применения казались нереалистичными из-за требований к памяти и вычислениям, но летом 2025 с выходом gpt-oss и тд. появились модели, где tool calling реально работает на обычных устройствах

Уже не нужны триллионные модели и датацентры для большинства реальных задач
Существует некий порог достаточного интеллекта, который полностью достижим локально - это вопрос правильного software stack, а не вычислительной мощи

Qwen3.5 сейчас - лучший выбор
Но главная боль не в моделях, а в цепочке от промпта до результата

Единственная правильная архитектура, та, что работает эффективно на любом устройстве, в открытой разработке с сообществом и независимыми производителями железа

Локальные LLM - это
экономика наличных расчётов в мире AML-агентов
Понравилось определение AGI, которое дал на днях Франсуа Шолле (создатель ARC-AGI) на подкасте у Y Combinator

Его идея – в том, что в настоящее индустрия путает автоматизацию с интеллектом

AGI чаще всего определяется как то, что автоматизирует большинство экономически значимых задач
Но эта формулировка на самом деле не описывает общий интеллект

Альтернативное определение Шолле звучит так:

AGI – это система, которая при встрече с абсолютно новой задачей или абсолютно новым для нее доменом может разобраться в нем с той же эффективностью, что и человек

Это значит, что ей потребуется примерно столько же обучающих данных и компьюта

И это довольно мало, потому что люди крайне эффективно обрабатывают данные


Так что AGI – это не про автоматизацию, а про способность приобретения навыков на уровне человека на том же объеме задач, который люди потенциально могут научиться выполнять

Подкаст полностью тут:
https://youtu.be/k2ZLQC8P7dc
Anthropic движется к созданию полностью автономных AML -сотрудников, которые могут работать без человека часами/ днями

Это следует из сегодняшней
утечки кода Claude Code, которая показала, в какую сторону движется вся эта технология:

В коде очень много упоминаний функции под названием KAIROS
Это режим, в котором Claude будет работать в фоне
Он сможет:
- Сам думать над задачами
- Запоминать важное, есть даже специальный режим «сон», где AML подводит итоги
- Следить за изменениями в проекте
- Сам принимать решения, что делать дальше

Есть также режим PROACTIVE - AML будет периодически «просыпаться»и искать, чем полезным заняться, без постоянных вопросов

А в режиме Coordinator один Claude сможет управлять несколькими помощниками одновременно: один ищет информацию, второй пишет код, третий проверяет результат

Появится умный классификатор, который будет автоматически разрешать безопасные действия

Голосовой режим - можно будет просто разговаривать с AML в терминале.

Buddy - это питомец типа тамагочи прямо в терминале
18 разных существ

Специальный «режим под прикрытием» для сотрудников компании, чтобы никто не понял, что код написал агент

То есть, это полноценный член команды

Конечно, пока многие функции ещё в разработке и спрятаны
Но направление ясно - будущее за более самостоятельными и «живыми» агентами
Летняя школа «Современная математика» имени Виталия Арнольда пройдет в этом году с 19 по 30 июля в Царском Селе под Санкт-Петербургом. Принимаются заявки от школьников 10 и 11 классов и студентов I и II курсов

Можно посмотреть видеозаписи курсов прошедших школ
https://mccme.ru/dubna/courses/ — и брошюры, написанные по мотивам некоторых из них https://mccme.ru/dubna/books/

mccme.ru/dubna/2026/inform1.htm
Решили как–то Готфрид Лейбниц, Исаак Ньютон и Блез Паскаль поиграть в прятки

Водить выпало Лейбницу
Паскаль куда–то залез, замаскировался так, что не найдешь
А Ньютон взял палку, начертил на земле квадрат со стороной длиною 1 метр, встал посередине его и стоит

Лейбниц досчитал, открывает глаза и видит Ньютона
— Ньютон, — кричит Лейбниц, — я тебя нашел!
— Нет, — отвечает Ньютон — Ты что не видишь, что я Ньютон на квадратном метре?

Так что ты нашел Паскаля
😁1