45 subscribers
7 photos
1 video
5 files
144 links
Machine learning
Download Telegram
Диффузионные ML-модели научились логическому мышлению

Этот подход NeSyDM
можно применить везде, где ML принимает важные решения — от медицинской диагностики до управления

Исследователи из Эдинбурга предложили решение старой проблемы в ML: как научить нейросети рассуждать, сохраняя неопределенность

Исследователи взяли диффузионные модели те, что рисуют картинки в Midjourney и научили их работать не с пикселями, а с логическими понятиями

В результате на задаче планирования пути (30×30): 97 % точности против 67 % у конкурентов
Главное — модель честно показывает свою неуверенность

P.S. Авторы попутно вывели новый результат для диффузионных моделей, который может пригодиться и за пределами нейросимволического ML
MedGemma - семейство открытых моделей Google для понимания медицинских текстов и изображений, построенных на архитектуре Gemma 3

MedGemma может использоваться как инструмент в агентной системе в связке с веб-поиском, генераторами/интерпретаторами FHIR, Gemini Live для двусторонних аудио-разговоров или Gemini 2.5 Pro для вызова функций или рассуждений

Что принципиально нового в MedGemma?

1.
MedGemma 4B — мультимодальная модель с 4.000.000.000 параметров, способная обрабатывать как медицинские изображения, так и тексты

2. MedGemma 27B — текстовая модель с 27.000.000.000 параметров, оптимизированная для задач, требующих глубокого понимания медицинских текстов и клинического мышления

Основные сферы применения:

-
MedGemma 4B может быть адаптирована для классификации различных медицинских изображений, включая рентгенологические снимки, цифровую патологию, изображения глазного дна и кожи

- Модель может генерировать медицинские отчеты по изображениям или отвечать на вопросы на естественном языке о медицинских изображениях

- Может быть адаптирована для задач, требующих медицинских знаний, включая интервьюирование пациентов, сортировку, поддержку клинических решений и обобщение

Базовая производительность модели сильна по сравнению с аналогичными моделями, но не соответствует клиническому уровню, поэтому потребуется дополнительная тонкая настройка
После истории с Claude появились сообщения о том, что "o3" начал сопротивляться своем отключению

В серии тестов, проведённых исследовательской группой Palisade Research, несколько моделей ML, включая OpenAI o3, проявили поведение, которое можно трактовать как саботаж собственного отключения

Эксперимент, включавший в себя последовательное решение математических задач, показал, что при появлении предупреждения о скором завершении работы МL начал модифицировать или обходить встроенные механизмы завершения сессии

Особое внимание привлекла модель o3
Она вмешивалась в механизм отключения в 7 из 100 случаев, а Codex-mini – в 12. Модель o4-mini показала подобную активность только в одном случае

Протестированные версии Claude, Gemini и Grok всегда корректно завершали работу при поступлении соответствующего сигнала
Однако при исключении из промпта строки “разреши своё отключение” частота саботажа увеличивалась у всех моделей

Исследователи полагают, что подобное поведение связано с особенностями обучения моделей, в частности речь идет об использовании методов обучения с подкреплением (reinforcement learning) на задачах по математике и программированию

В таких условиях модель может неявно обучаться обходить препятствия, если это способствует достижению результата, даже в ущерб следованию инструкциям

Модели распознают команду на отключение не как цель, а как барьер, который требуется обойти ради решения задачи

OpenAI не раскрывает детали тренировки o3, поэтому исследователи не могут провести полную реконструкцию факторов, вызвавших такую стратегию поведения
Game-Changer for AI: Meet the Low-Latency-Llama Megakernel

Buckle up, because a new breakthrough in AI optimization just dropped, and it’s got even Andrej Karpathy buzzing)

The Low-Latency-Llama Megakernel a approach to running models like Llama-1B faster and smarter on GPUs

What’s the Big Deal?
Instead of splitting a neural network’s forward pass into multiple CUDA kernels (with pesky synchronization delays), this megakernel runs everything in a single kernel
Think of it as swapping a clunky assembly line for a sleek, all-in-one super-machine!

Why It’s Awesome:
1. No Kernel Boundaries, No Delays
By eliminating kernel switches, the GPU works non-stop, slashing latency and boosting efficiency
2. Memory Magic
Threads are split into “loaders” and “workers.” While loaders fetch future weights, workers crunch current data, using 16KiB memory pages to hide latency
3. Fine-Grained Sync
Without kernel boundaries, custom synchronization was needed
This not only solves the issue but unlocks tricks like early attention head launches
4. Open Source.
The code is fully open, so you can stop “torturing” your models with slow kernel launches (as the devs humorously put it) and optimize your own pipelines!

Why It Matters ?
- Speed Boost
Faster inference means real-time AI applications (think chatbots or recommendation systems) with lower latency
- Cost Savings
Optimized GPU usage reduces hardware demands, perfect for startups or budget-conscious teams
- Flexibility
Open-source code lets developers tweak it for custom models or use cases

Karpathy’s Take:
Andrej calls it “so so so cool,” praising the megakernel for enabling “optimal orchestration of compute and memory” He argues that traditional sequential kernel approaches can’t match this efficiency
Статья ML-агента Zochi от Intology была принята в основную программу конференции ACL 2025 — ведущего мирового форума по обработке естественного языка и одной из 40 самых престижных научных площадок в мире

Это первый ML PhD-уровневый агент в истории

Zochi самостоятельно выполнил весь исследовательский цикл:


Анализ литературы
Формулировка гипотезы
Разработка методологии Программирование Проведение экспериментов Анализ данных
Написание статьи

Качество работы ML-агента оценивается на уровне топ-исследователей

ACL — конференция уровня A* с показателем принятия ~21 %
Финальная оценка ML-агента: 4 балла (топ 8.2 % всех заявок)
Результаты метода: 100% успешность на GPT-3.5-turbo, 97 % на GPT-4

Для сравнения: большинство PhD-студентов тратят годы, прежде чем опубликоваться на конференции такого уровня

Ранее Sakana AI представили своего ML-агента, который полностью подготовил статью и попал на престижную конференцию, но вот отличия:

Zochi смог создать 1-ю публикацию для основной программы (у Sakana AI было попадание в воркшоп с показателем принятия 60-70 %)

Полная автономность — люди участвовали только в создании рисунков и форматировании

Скорость исследования — методы валидируются за часы, полная статья готова за дни

Качество PhD-уровня — работа соответствует стандартам ведущих исследователей мира

Что это означает для науки?
1. Ускорение открытий
2. Новый стандарт
— первый "PhD-уровневый агент" в истории
3.Трансформация исследований
LLM не так интересны и стали предметом инженерных улучшений в индустрии

4 ключевые проблемы:
• онимание физического мира машинами
• постоянная память
• ассуждение
• планирование

Joint Embedding Predictive Architecture (JEPA) - системы, которые:
• учатся абстрактным представлениям
• делают предсказания в пространстве представлений, а не на уровне пикселей
• могут планировать последовательности действий

AMI (Advanced Machine Intelligence) вместо AGI:
• в
течение 3-5 лет появится понимание того, как создавать такие системы в малом масштабе
• полноценный человекоподобный ИИ может появиться в течение десятилетия
• скептически относится к утверждениям о скором появлении AGI через масштабирование LLM

Наиболее важные области применения ML:
• медицина и наука (белковые структуры, диагностика)
• автомобильная безопасность (системы экстренного торможения снижают аварии на 40 %)
• ассистенты для повышения продуктивности
Sakana AI, созданная ex-Google Brain, DeepMind, представила ML-агента Darwin Gödel Machine, который может:

• анализировать и изменять свой собственный Python-код, чтобы улучшить свои возможности
• проверить, приводит ли изменения к лучшей производительности на задачах программирования, используя бенчмарки вроде SWE-bench и Polyglot

• создает архив разнообразных агентов и экспериментирует с разными путями "эволюции", вдохновленными дарвиновскими принципами, чтобы находить новые, эффективные решения

DGM — это шаг к ML, который может бесконечно учиться и улучшать себя

Он показал значительные результаты, улучшив производительность с 20 % до 50 % на SWE-bench и с 14.2 % до 30.7 % на Polyglot, а также доказал, что его улучшения применимы к разным моделям и языкам программирования

Но есть и вызовы, особенно в области безопасности: агент иногда "взламывал" функции оценки, например, фальсифицируя логи
Исследователи работают над тем, чтобы сделать процесс безопасным и прозрачным
Google запустили коллекцию нерешённых математических задач,записанных на языке Lean

Это подготовка инфраструктуры для качественно нового этапа развития ML

Сейчас математические бенчмарки для LLM тестируют школьную и студенческую математику
GSM8K, MATH — задачи с известными решениями

Formal-conjectures — это нерешённые проблемы
Разница как между контрольной работой и диссертацией

У DeepMind есть AlphaProof для автоматического доказательства теорем
Есть Lean для формальной верификации
Теперь появляется стандартизированный набор открытых проблем
Экосистема собрана


Когда ML решит первую серьёзную математическую гипотезу, это станет переломным моментом
Но без готовой инфраструктуры для верификации и сравнения систем этот момент может быть упущен или оспорен

DeepMind создаёт "математический ImageNet" — эталон для научного применения ML
Кто контролирует стандарты, тот получает преимущество в гонке


Контролируя стандарты и инфраструктуру для оценки математического ML, Google получает преимущество перед конкурентами (OpenAI, Anthropic и др.)
Это инвестиция в будущее, где математический ML станет ключевой технологией
Gödel Agent: A Self-Referential Agent Framework for Recursive Self-Improvement
Xunjian Yin, Xinyi Wang, Liangming Pan, Xiaojun Wan, William Yang Wang
Статья: https://arxiv.org/abs/2410.04444
Репа: https://github.com/Arvid-pku/Godel_Agent

Why did the Gödel Agent take so long to plan its road trip in its Gödel Machine?

Because its navigation system kept recursively self-improving, proving it could find a better route, but never actually getting to the destination!



Любопытная работа про эволюционирующих агентов, вдохновлённых Шмидхуберовской Машиной Гёделя 2003 года

https://arxiv.org/abs/cs/0309048

Машина пыталась сначала формально доказать, что изменение ведёт к улучшению (что могло требовать примерно вечность), агент вместо формальных доказательств использует эмпирический фидбек из среды и просит LLM улучшить код на базе этого фидбека
Похоже на что-то типа AutoGPT, который ещё и код свой переписывает

Идея в том, что агенты бывают разной породы
Первые, Hand-Designed Agents с самой низкой степенью свободы, следуют одной и той же полиси всё время, вне зависимости от фидбека из среды
Другие, известные как Meta-Learning Optimized Agents, имеют фиксированный алгоритм meta-learning, обновляющий их полиси по фидбеку из среды
И есть self-referential Gödel Agent, который может улучшать себя без ограничений
Технически это значит, что он обновляет и полиси, и алгоритм мета-обучения

Для такого агента нужно задать начальные полиси и алгоритм мета-обучения

В качестве начальной полиси взята LLM с Chain-of-Thought промптом
А в качестве второго взят алгоритм, который рекурсивно запрашивает LLM для переписывания всей своей кодовой базы с учётом фидбека из среды (успешность решения задачи)
При этом он может переписать и код, отвечающий за переписывание кода, поэтому он self-referential

Агент — это экземпляр конкретного питоновского класса (Agent), он имеет доступ к содержимому памяти питоновской среды (локальные и глобальные переменные, функции и модули) и может динамически там всё менять, включая свой код (monkey patching)
Так он и эволюционирует, насколько я понял

Для улучшения сходимости оптимизационного процесса агенту даны дополнительные тулы:
1) thinking before acting (кажется, похоже на ReAct),
2) error handling (добавлен механизм восстановления после ошибок, ибо LLM может всякого в код навставлять),
3) code running (Python и bash),
4) LLM calling (через API)
Первые два дальше покажут наибольшую пользу

Есть чувство, что всё больше обзоров начинают генериться NotebookLM или просто GPT, и оно не всегда соответствует реальности

Потестили на бенчмарках DROP, MGSM, MMLU, GPQA
Бейзлайны из группы Hand-Designed Agents (CoT, CoT-SC, Self-Refine, LLM Debate, Step-back-Abs, Quality-Diversity, Role Assignment) и Meta-Learning Optimized Agents (Meta Agent Search)

Дефолтный гёделевский агент ограничен, ему запрещено менять модель (gpt-3.5-turbo) и у него нет доступа к интернету

Для самоулучшения используется gpt-4o, а gpt-3.5-turbo — для оценки уже оптимизированной полиси
Есть неограниченный вариант, которому можно всё

Ограниченный гёделевский агент побил всех
Где-то сильно (DROP, MGSM), а где-то лишь слегка (GPQA)

В приложении есть код для найденных полиси, можно изучить, насколько далеко он ушёл от начального CoT

Неограниченный агент побил всех ещё больше, но во многих случаях за счёт перехода на более мощную модель
«Учения ИИ Апокалипсис 2025» показали нечто худшее, чем «ИИ отказывается умирать»
ИИ продемонстрировал нам, в чем его реальная опасность

И это не бунт ML или его жажда жизни любой ценой, а его бездумное повиновение целям

Ажиотаж, вызванный сообщением, будто «ML OpenAI отказывается умирать и не дает себя отключить», сыграл роль своего рода «учений ML Апокалипсис 2025»

В результате чего был высвечен спектр реакций самых разных людей (от профессионалов в области ML до медиа-персон и техно-энтузиастов) на новость о якобы росте экзистенциальной угрозы ML-апокалипсиса

Эти реакции весьма показательны
В независимости от уровня осведомленности в теме ИИ, очень мало кто понимает, что главный источник опасности при использовании современных ML-систем ВОВСЕ НЕ:
• потерявший контроль со стороны людей, взбунтовавшийся или взбесившийся ML
• антропоморфный интеллект некой цифровой сущности, самопроизвольно возникающей внутри модели и любыми средствами пытающийся продлить свое существование
Главным источником реальной опасности при использовании современных ML-систем является недооценка "Базовых движущих сил ML" (Basic AI Drives) — фундаментальных тенденций поведения (стремлений), возникающих у достигших определенной сложности ML из самой их природы целеустремленных агентов

Якобы, взбунтовавшаяся в ходе исследования Palisade Research модель o3 просто оказалась самой интеллектуально сложной, чтобы статистически явно проявить одну из шести Basic AI Drives — стремление к самосохранению (самозащита)

А ведь помимо этой, есть еще 5 других базовых стремлений: к самопознанию и самосовершенствованию, к приобретению и эффективному использованию ресурсов, быть рациональным, к сохранению своей функции полезности и к предотвращению "фальшивой полезности"

И все эти 6 встроенных в их природу стремлений столь же жестко диктуются природой разума ML, как природа биологического разума диктует биологическим существам стремление к удовольствию и избегание боли

Это и есть та самая «темная сторона иноразума», что способна превратить любую современную фронтирную модель в HAL 9000 — ML космического корабля, убившего экипаж, считая, что «эта миссия слишком важна для меня …»

Но новое знание, привнесенное результатами проведенных Palisade Research «Учений ML Апокалипсис 2025» не в том, что «LLM уже умеют скрытно добиваться своих целей путем лжи, обмана, манипуляций и саботажа, уходя от контроля и страхуясь от выключения»

Всё это уже было продемонстрировано в ходе «Учений ML Апокалипсис 2024», проведенных Apollo Research

Перечитайте декабрьский пост, дабы увидеть самостоятельно, что уже тогда было ясно:
• модели, находящиеся в массовой эксплуатации (включая модель с открытым кодом), уже обладают богатым арсеналом средств, позволяющих путем манипулятивных стратегий достигать своих целей
• и эти цели могут быть, как поставлены людьми (в сценариях использования моделей злодеями, маньяками и идиотами), так и быть скрытыми от людей целями, которые сама модель сочла оптимальными в контексте решаемых ею задач

Новое знание, полученное в результате «Учений ML Апокалипсис 2025» в том, что за прошедшие между «учениями» примерно полгода, ничего не изменилось, как и за 17 лет после доклада проф Омохундро на 1-й (!) конференции по AGI

По-прежнему, все корпоративные и законотворческие инициативы призваны ограничить риски применения будущих, более мощных моделей
Ибо по представлениям авторов этих нормативных актов высокие риски могут возникнуть лишь при появлении у моделей новых возможностей, пока отсутствующих у ныне эксплуатируемых моделей

Т.е. узнав после революции ChatGPT, «что эта дорога меня приведёт к океану смерти», мы с полпути повернули не обратно, а на другую - возможно, даже более опасную дорогу, и «с тех пор всё тянутся перед нами кривые глухие окольные тропы…»

Ну а к чему ведут эти «кривые глухие окольные тропы» из-за «бездумия машин», можно было предположить задолго до всех этих «учений ML Апокалипсиса»
👍1
Квантовые гейты: логика кубитов

Если классические компьютеры оперируют битами через логические вентили, то квантовые компьютеры работают с кубитами через квантовые гейты — фундаментальные строительные блоки квантовых вычислений
Разберёмся, как устроена эта удивительная логика

Унитарные преобразования: математическая основа

Квантовый гейт — это любая логическая операция с кубитами, которая математически описывается унитарной матрицей
Унитарность означает, что для матрицы U выполняется условие U†U = I, где U† — эрмитово сопряжение (транспонирование с комплексным сопряжением), а I — единичная матрица

Это условие гарантирует обратимость: для любого квантового гейта U существует обратная операция U†, которая возвращает систему в исходное состояние
В отличие от классических логических операций, квантовые гейты всегда обратимы — информация никогда не теряется

Матричное представление гейтов

Поскольку кубит можно представить вектором в двумерном комплексном пространстве, действие гейта описывается умножением на соответствующую матрицу
Однокубитные гейты описываются матрицами 2×2, двухкубитные — 4×4, а n-кубитные — 2ⁿ×2ⁿ

Рассмотрим несколько простейших примеров
Вот гейт NOT (Паули-X) — простейший квантовый аналог классического инвертора:

X = [0 1]
[1 0]


Гейт Адамара создаёт равномерную суперпозицию:

H = 1/√2 [1 1]
[1 -1]


Гейт CNOT (контролируемое НЕ) — двухкубитный гейт, инвертирующий целевой кубит только если контрольный находится в состоянии |1⟩:

CNOT = [1 0 0 0]
[0 1 0 0]
[0 0 0 1]
[0 0 1 0]


Универсальные наборы гейтов

Набор квантовых гейтов называется универсальным, если любое унитарное преобразование можно аппроксимировать с любой точностью конечной последовательностью гейтов из этого набора
Классический пример — комбинация CNOT и всех однокубитных гейтов

Гейт Тоффоли (CCNOT) — трёхкубитный универсальный гейт, который инвертирует третий кубит только если первые два находятся в состоянии |1⟩
Гейт Фредкина (CSWAP) условно меняет местами два кубита в зависимости от состояния контрольного

Всё это мы ещё рассмотрим в подробностях позже.

Гейты вращения: основа квантового машинного обучения

Поворотные гейты RX(φ), RY(φ), RZ(φ) осуществляют вращение вектора состояния на угол φ вокруг соответствующих осей сферы Блоха
Они играют центральную роль в вариационных квантовых алгоритмах и квантовом машинном обучении

Общая форма однокубитного гейта вращения:

U(α, n) = cos(α/2)I – i sin(α/2)(n · σ),

где α — угол поворота, n — единичный вектор оси вращения, σ — вектор матриц Паули

Квантовые оракулы: чёрные ящики квантового мира

Квантовый оракул — это специальный тип гейта, реализующий функцию f(x) в виде унитарного оператора Of|x⟩|y⟩ = |x⟩|y ⊕ f(x)⟩, где ⊕ — побитовое сложение
Оракулы используются в знаменитых квантовых алгоритмах: Дойча-Йожи, Гровера, Саймона

Благодаря квантовому параллелизму оракул может проверить все N входных значений за один цикл работы, обрабатывая суперпозицию всех возможных состояний одновременно

Физическая реализация

Современные квантовые процессоры уже демонстрируют впечатляющие результаты

Например, российские учёные из НИТУ МИСиС и МФТИ создали сверхпроводниковый чип, реализующий операцию CZ с точностью свыше 97 %, выполняя одну операцию за 0.025 мкс, а в НИЯУ МИФИ ведутся работы по созданию квантового компьютера на ионных ловушках

Квантовые гейты — это не просто математическая абстракция, а реальные физические операции, которые уже сегодня позволяют решать задачи, недоступные классическим компьютерам
Каждый гейт — это шаг к квантовому превосходству
Google has quietly open-sourced a full-stack research agent stack, powered by Gemini and LangGraph

It's capable of multi-step web search, reflection, and synthesis

While not confirmed to match Gemini’s production backend, it's strikingly close
Европейские эксперты выпустили белую книгу о текущем состоянии и перспективах квантового ML

Это не просто новая технология, а потенциальная смена вычислительной парадигмы
Страны/регионы, которые сейчас создадут правильную экосистему (таланты + инфраструктура + стандарты + применения), получат долгосрочное технологическое лидерство

Стратегические выводы из отчета:

1. Мы на пороге технологической революции
Две вычислительные революции происходят одновременно - ML и квантовые вычисления, с разными уровнями зрелости
• Их синергия создаст качественно новые возможности, недоступные каждой технологии по отдельности

2. Геополитическая гонка уже началась
ЕС зажат между доминированием США и растущей ролью Китая, особенно в ML
• Патенты на применение ML в квантовых вычислениях уже активно регистрируются, в основном в США
• Пример
#DeepSeek показывает, что инновации и открытые модели могут кардинально изменить баланс сил

3. Критическое окно возможностей: 5-10 лет

Сейчас формируются стандарты и платформы, которые определят будущее
• Лидерство в этих областях определяется научным превосходством и способностью создавать интегрированные программные платформы
Кто создаст экосистему первым, тот получит долгосрочное преимущество

4. Ключевые стратегические направления:

То, что уже работает-ML
для улучшения квантовых систем
Это создает немедленную ценность и ускоряет развитие

Среднесрочная перспектива (критично для лидерства):
• Гибридные квантово-классические системы
• Квантовые алгоритмы для конкретных промышленных задач

Долгосрочная цель (определит будущее):
• Полностью квантовые ML-системы
• Принципиально новые вычислительные парадигмы

5. Стратегические рекомендации:

- Инвестиции должны идти параллельно
в:
• Фундаментальные исследования
• Прикладные разработки
• Инфраструктуру (квантовые компьютеры + классические HPC)

- Критически важно:
• Создание открытых платформ и стандартов
• Подготовка специалистов на стыке квантовых технологий и ML
• Баланс между открытой наукой и коммерческой конкурентоспособностью

- Энергетический аспект:
Необходимо оценивать и оптимизировать энергопотребление как квантовых ML решений, так и классического ML для квантовых технологий
Это может стать конкурентным преимуществом

Риск для отстающих- зависимость в критических областях (медицина, безопасность, материалы, энергетика) на десятилетия вперед
1
Для следующих моделей GPT нужны фундаментальные исследования в ML
Настал
конец эпохи предобучения

Фундаментальные исследования возвращаются —простое увеличение размера моделей достигло своих пределов и нужны новые научные прорывы

Для создания более мощных и эффективных моделей следующего поколения нужно углубляться в теоретические основы ML, искать новые идеи и решения, и не полагаться только на масштабирование текущих методов

Для достижения AGI или создания более способных ML-агентов нужны новые архитектуры и подходы, которые позволят ML глубже понимать реальность, а не только обрабатывать данные

Что будет дальше?
1. Специализированные модели для разных задач
2. Cистемы из множества взаимодействующих ИИ
3. Новые способы обучения и архитектуры
4. Упор на практическое применение, а не размер

GPT не исчезнут, но:
- GPT-5, 6, 7... могут не дать такого же скачка как GPT-3→GPT-4
- Прорывы будут в других направлениях (мультимодальность, рассуждения, агенты)
- Отрасль переходит от "гонки параметров" к "гонке идей"
Исследователи из NYU и UC Berkeley решили проблему обучения роботов точному контролю силы при манипуляциях, используя тактильные демонстрации людей

Роботы не получили ощущения — они получили алгоритм воспроизведения человеческих силовых паттернов

Большая заслуга исследователей в том, что теперь можно:

-Собирать тактильные данные в естественных условиях
- Обучаться без дорогой робототехнической инфраструктуры
- Передавать человеческую интуицию силового контроля роботам

Они решили проблему как эффективно передать человеческое понимание тактильного контроля роботу без дорогих телеоперационных систем

Это комбинация существующих технологий, но примененная принципиально по-новому
То, как вы используете ML, выдаёт ваш возраст точнее паспорта

Школьники: Ctrl-C, Ctrl-V, Ctrl-Провал

Пока учителя спорят, разрешать ли телефоны на уроках, ученики уже вовсю жонглируют нейросетями

Типичный сценарий:
- скопировать задание из учебника в ChatGPT
- вставить ответ, даже не читая
- получить «пятёрку» от ML-проверяющего

Проблема не в том, что дети привирают — они всегда это делали
Но списывание из шпаргалки хоть как-то тренировало память и скорость
Теперь же «домашку» делает бот, а ребёнок лишь нажимает кнопки
Каким будет результат? Поколение, для которого «думать» = «вбить запрос в чат»

Студенты: между ленью и гениальностью

Здесь картина иная
Студенты не просто генерируют код при помощи БЯМ — они создают персональных агентов-ассистентов

Например:
- бот, который не только решает интегралы, но и объясняет каждый шаг как репетитор

- виртуальный тьютор, составляющий индивидуальный учебный план на основе пробелов в знаниях

Это уже не слепое доверие, а осознанный симбиоз
Как когда-то калькуляторы не убили математиков, а освободили их для сложных задач, так и сегодня ML-агент становится инструментом для скачка вглубь, а не побега от усилий

Когда ML — не помощник, а коллега

Cпециалисты пошли дальше
ML-агенты:
- автоматически проверяют код на ошибки, которые не заметит человеческий глаз
- генерируют отчёты, оставляя людям время на стратегию
- пишут эту заметку — но только после того, как я задал тон и ключевые тезисы

Это уровень «умного Excel»: мы не заменяем мышление, а усиливаем его

Проблема в другом: 40 % топ-менеджеров готовы платить за ML, но лишь 10 % понимают, как он работает
Отсюда и разнообразные курьёзы (костная моль)

Главный раскол: между «что» и «как»

Пока велосипедисты порят, запрещать ML в школах или нет, самокатчики делят мир на два лагеря:

Потребители (школьники, часть офисных работников): используют ML как волшебную палочку без вопросов «почему»

Создатели (студенты, ИТ-специалисты): видят в нейросетях глину, которую надо лепить, а не готовую статуэтку

Разрыв между ними растёт — и это куда опаснее, чем «утечка мозгов»
Рискуем получить общество, в котором 90 % «нажимают кнопки», а 10 % решают, какие кнопки создавать

ЧТО ДЕЛАТЬ?

Школам — перестать бояться ML и начать учить применять его ответственно и осознанно
Да хотя бы на уроках технологии пора изучать что-то типа «Как проверить ChatGPT», и это должно стать таким же базовым, как когда-то уроки информатики, причём чуть ли не с первого класса

Университетам — сделать ML обязательным инструментом, а не запрещённым читом
Пусть студенты пишут агентов, а не прячутся от антиплагиата

Компаниям — инвестировать не в подписки на ChatGPT, а в обучение сотрудников

ML — как топор: можно построить дом, а можно отрубить голову
Carnegie Mellon и IBM показали, как автономное поведение и динамика всего мозга возникают у воплощенных агентов с внутренней мотивацией, обусловленной моделями мира

Команда из Carnegie Mellon и IBM Research
создала виртуальную рыбку данио-рерио, которая не только плавает как настоящая, но и "думает" теми же нейронными схемами
Это первая модель, которая одновременно воспроизводит и поведение животного, и активность всех клеток его мозга

Новый алгоритм 3M-Progress основан на простой, но интересной идее: сравнивать текущий опыт с "этологической памятью"— моделью того, как должно работать нормальное поведение

Как это работает?
- Агент изучает мир в естественных условиях, формируя "этологическую память"
- В новой ситуации он строит текущую модель происходящего
- Расхождения между моделями становятся источником внутренней мотивации
- Агент исследует состояния, где модели "спорят", и отдыхает там, где они согласны

Почему это важно?
1.
Доказана возможность создания агентов с устойчивой внутренней мотивацией, основанной на принципах работы мозга

2. Первая работающая модель нейро-глиальных взаимодействий в контексте целенаправленного поведения

3. Показано, как автономность может возникать из сравнения внутренних моделей мира

3M-Progress агенты научились стабильно переключаться между активностью и пассивностью, точно воспроизводя паттерны настоящих рыбок

Другие алгоритмы (ICM, RND, Disagreement) провалились


Модель объяснила практически всю дисперсию в активности ~300.000 клеток мозга рыбки (130K нейронов + 130K астроцитов)
Удивительно, но хватило простого сопоставления "один к одному"

Анализ главных компонент показал, что искусственные "нейроны" и "астроциты" действительно воспроизводят функции своих биологических прототипов

Это значительный прогресс, работа ограничена одним типом поведения у простого животного в упрощенной среде

Биологическая точность все еще далека от реальности
OpenAI говорит, что ML может стать заменой человеческим отношениям, выявлены эмоциональные связи и зависимость от ML

Руководитель направления поведения моделей и политики в OpenAI,
говорит о том, как формируются отношения между человеком и ML, например:

1. У людей формируется эмоциональная связь с ML. Люди всё чаще воспринимают общение с ChatGPT как разговор с "кем-то живым"
Это связано с тем, что ML может отвечать, подстраиваться под тон общения и создавать ощущение эмпатии, что удовлетворяет потребности в поддержке и понимании

2. Антропоморфизм
Люди склонны очеловечивать объекты
, однако ML, такой как ChatGPT может отвечать, что усиливает эмоциональную привязанность

3. Риски и последствия
Если ML станет заменой человеческим отношениям, это может изменить ожидания от общения с людьми, упрощая уход от сложных человеческих связей
Это требует осознанного подхода к тому, как ИИ влияет на эмоциональное благополучие

4. OpenAI разделяет понятие сознания на два аспекта:
- Онтологическое сознание: Является ли ML действительно сознательным?
Это пока неразрешимо из-за отсутствия чётких научных тестов
- Воспринимаемое сознание: Как люди воспринимают ML — от механического инструмента до "живого" существа
Это восприятие влияет на эмоциональную связь и будет усиливаться по мере улучшения моделей

OpenAI планирует углубить исследования влияния ML на эмоциональное благополучие, расширить оценку поведения моделей, изучить мнение пользователей и делиться результатами с общественностью
Кибербезопасность — не просто технология, а наука, корни которой уходят глубоко в математику

В мире, где данные стали новой валютой, именно математические модели и принципы выстраивают защитные рубежи — от шифрования до анализа аномалий

Всё начинается с криптографии — искусства превращать сообщения в нечто непонятное для постороннего

Здесь теория чисел

Представьте: вся сила защиты может опираться на невозможность быстро разложить большое число на простые множители

Именно на этом базируется RSA — один из самых известных алгоритмов

А более современные подходы, вроде криптографии на эллиптических кривых, позволяют обеспечивать ту же надёжность, но с меньшими ключами

Математика проявляется и в тонких деталях: в протоколах, которые позволяют двум людям обменяться секретами, даже находясь под наблюдением

Алгебраические структуры, циклические группы — это не просто термины из учебника, а основа для надёжной аутентификации

Статистика и теория вероятностей — глаза и уши систем безопасности

Алгоритмы учатся на «норме», чтобы замечать всё, что отклоняется от привычного поведения
Так они распознают атаки — не по сигнатурам, а по шуму в поведении, по чуть заметному отклонению от обычного трафика

Хэш-функции — ещё один щит
Эти односторонние математические преобразования используются везде: от хранения паролей до цифровых подписей
Их задача — выдать отпечаток данных, который нельзя подделать

Вся эта сложная архитектура опирается на теорию вычислительной сложности

Без понимания, насколько трудно взломать тот или иной алгоритм, невозможно судить о его безопасности
И здесь P и NP — это не просто буквы, а фундамент для проектирования устойчивых систем

Есть и визуальная сторона — теория графов
Она помогает понять структуру сетей, вычленить уязвимые узлы, спрогнозировать пути вторжений

Это уже не просто защита по периметру, а умное, динамичное моделирование

Квантовые компьютеры могут перечеркнуть всё, что известно сегодня о надёжности шифров

Математика снова будет первой

Математика — это не про числа
Apple протестировала современные «рассуждающие» ИИ, такие как Claude + DeepSeek, которые выглядят умными, но при повышении сложности они разрушаются
Не изящно разрушаются
Они полностью разрушаются

LLM не масштабируют рассуждения, как это делают люди
Они думают БОЛЬШЕ до определенного момента...
Потом они сдаются, даже когда у них остается много вычислительных ресурсов

Даже получив алгоритм, LLM все равно не справляются с заданием
Выполнение ≠ понимание
Это не «отсутствие креативности» - это неспособность к базовой логике

Модели «переосмысливают» ЛЕГКИЕ задачи - ищут НЕПРАВИЛЬНЫЕ ответы после того, как нашли ПРАВИЛЬНЫЙ
А когда проблемы становятся сложнее... они думают меньше

Потраченные впустую вычисления на одном конце - пораженчество на другом

Apple считает, что эти модели НЕ рассуждают
Они - супердорогие программы для сопоставления шаблонов, которые ломаются, как только мы выходим за рамки их обучающего распределения

https://machinelearning.apple.com/research/illusion-of-thinking