gonzo-обзоры ML статей
24.2K subscribers
2.88K photos
2 videos
3 files
1.43K links
Авторы:
Гриша Сапунов, ранее руководитель разработки Яндекс-Новостей, ныне CTO Intento. Области интересов: AI/ML/DL, биоинформатика.
Лёша Тихонов, ранее аналитик в Яндексе, автор Автопоэта, Нейронной Обороны... Области интересов: discrete domain, NLP, RL.
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Provenance of individual bytes on tapes in a bff soup after 10,000, 500,000, 1.5 million, 2.5 million, 3.5 million, 6 million, 7 million, and 10 million interactions. The increasing role of self-modification in generating novelty is evident, culminating in the emergence (just before 6 million interactions) of a full-tape replicator whose parts are modified copies of a shorter imperfect replicator.
👍3
Ну и вот вам воскресной эзотерики про Бильярдный компьютер. Выводы не перепроверял, поверю на слово.

Что в этом прикольно? С одной стороны прикольно, что "бильярд" вообще может вычислять. Хотя, если рассматривать работу всей вселенной как непрерывное вычисление, то это может и неудивительно :) Да и от машины Тьюринга, построенной в игре Жизнь, это тоже не особо отличается.

Интересно, что наравне с хаосом, когда предсказать что-то нельзя из-за ограничений точности, есть также совершенно иные лимиты предсказания прям по Тьюрингу, аналогично проблеме останова.

И ещё интересна предложенная конструкция, где вся сложность зашита в конструкцию стен. Всё время вспоминаю Герберта Саймона и его книгу "Наука об искусственном" с цитатой:

«Муравей, рассматриваемый как поведенческая система, довольно прост. Видимая сложность его поведения со временем во многом является отражением сложности среды, в которой он себя обнаруживает».

Classical billiards can compute
Eva Miranda and Isaac Ramos
Статья: https://arxiv.org/abs/2512.19156
Ревью: https://arxiviq.substack.com/p/classical-billiards-can-compute

# TL;DR

ЧТО сделали: Строго доказали, что одиночная частица внутри двумерного бильярдного стола с фиксированными многоугольными стенками обладает Тьюринг-полнотой. Адаптировав фреймворк Topological Kleene Field Theory, авторы сконструировали конфигурацию стола, где траектория шара симулирует эволюцию любой обратимой машины Тьюринга.

ПОЧЕМУ это важно: Это закрывает пробел в физическом тезисе Чёрча-Тьюринга. Ранее считалось, что простые низкоразмерные системы не способны к универсальным вычислениям (гипотеза Мура). Работа показывает, что алгоритмическая неразрешимость — фундаментальное свойство даже стандартной 2D гамильтоновой механики. Предсказать, станет ли траектория периодической или достигнет ли целевой зоны, алгоритмически невозможно, и это ограничение жестче, чем просто хаос.

Подробнее: https://t.me/gonzo_ML_podcasts/2114
🔥125👍4
Forwarded from gonzo_ML_podcasts
👍3🤔2
ИИ для демократии.

Can AI Mediation Improve Democratic Deliberation?
Michael Henry Tessler, Georgina Evans, Michiel A. Bakker, Iason Gabriel, Sophie Bridgers, Rishub Jain, Raphael Koster, Verena Rieser, Anca Dragan, Matthew Botvinick, and Christopher Summerfield
Статья: https://arxiv.org/abs/2601.05904
Код: https://github.com/google-deepmind/habermas_machine
Ревью: https://arxiviq.substack.com/p/can-ai-mediation-improve-democratic

# TL;DR

ЧТО сделали: Исследователи Гугла представили «Машину Хабермаса» (Habermas Machine, HM) — систему на стыке генеративных LLM и теории социального выбора для модерации групповых дискуссий. В отличие от стандартных суммаризаторов, HM генерирует кандидатов на «групповое заявление» и использует персонализированную Reward Model для симуляции выборов. Побеждает утверждение, которое максимизирует предсказанное одобрение участников по методу Шульце.

ПОЧЕМУ это важно: Работа предлагает техническое решение «Трилеммы Фишкина», согласно которой демократия не может одновременно обеспечивать массовое участие, политическое равенство и глубину обсуждения. HM автоматизирует поиск точек соприкосновения и использует иерархическую агрегацию, позволяя масштабировать качественную делиберацию на тысячи участников — задачу, ранее непосильную для модераторов-людей.

Подробнее: https://t.me/gonzo_ML_podcasts/2125
1🔥11🤔6👍21
Forwarded from gonzo_ML_podcasts
🔥4🤔1
Ризонинг работает не так, как мы думали! Всё дело в волшебных пузырьках в голосах в голове. Оказывается, там внутри создаются разные перспективы, которые в диалоге приходят в лучшему заключению.

Reasoning Models Generate Societies of Thought
Junsol Kim, Shiyang Lai, Nino Scherrer, Blaise Agüera y Arcas, James Evans
Статья: https://arxiv.org/abs/2601.10825
Ревью: https://arxiviq.substack.com/p/reasoning-models-generate-societies

# TL;DR

ЧТО сделали: Авторы показали, что современные рассуждающие модели (reasoning models, такие как DeepSeek-R1 и QwQ-32B) не просто выполняют длинные вычисления, а неявно симулируют «общество мыслей» — мультиагентный диалог с различными внутренними персонами, конфликтами и примирением. С помощью методов механистической интерпретируемости и RL-абляций исследование демонстрирует, что стиринг (управление) моделей в сторону диалогового поведения напрямую повышает точность рассуждений.

ПОЧЕМУ это важно: Работа переосмысляет парадигму Chain of Thought (CoT): от линейного закона масштабирования вычислений мы переходим к феномену социального масштабирования. Эффективность вычислений на инференсе (test-time compute) механистически обусловлена способностью модели создавать разнообразные, состязательные перспективы внутри своего пространства активаций. Это открывает новый путь для AI alignment: оптимизация внутренней когнитивной разнородности, а не только корректности финального ответа.

Подробнее: https://t.me/gonzo_ML_podcasts/2130
🔥54❤‍🔥1
Forwarded from gonzo_ML_podcasts
😁13🔥7🤩1
Sakana опубликовали любопытный пост:

An Unofficial Guide to Prepare for a Research Position Application

https://pub.sakana.ai/Unofficial_Guide/

Может быть полезно кому-то здесь.
👍10😨5🤔1💊1
Моделей для длинного контекста прибыло.

Gecko: An Efficient Neural Architecture Inherently Processing Sequences with Arbitrary Lengths
Xuezhe Ma, Shicheng Wen, Linghao Jin, Bilge Acun, Ruihang Lai, Bohan Hou, Will Lin, Hao Zhang, Songlin Yang, Ryan Lee, Mengxi Wu, Jonathan May, Luke Zettlemoyer, Carole-Jean Wu
Статья: https://arxiv.org/abs/2601.06463
Код: https://github.com/XuezheMax/gecko-llm
Ревью: https://arxiviq.substack.com/p/gecko-an-efficient-neural-architecture

# TL;DR

ЧТО сделали: Предложили Gecko — архитектуру на 7B параметров, построенную на базе Megalodon (https://arxiv.org/abs/2404.08801) с использованием Gated Attention и экспоненциального скользящего среднего. Авторы внедрили три ключевых улучшения для стабилизации линейного внимания: Timestep Decay Normalization (стабилизация статистик во времени), Sliding Chunk Attention (устранение артефактов на границах чанков) и Adaptive Working Memory (сжатие истории в фиксированное состояние без принудительного забывания, типичного для SSM).

ПОЧЕМУ это важно: Gecko достигает значения лосса 1.68 на 2T токенов, обгоняя Llama 2-7B (1.75) и Megalodon-7B (1.70), при этом сохраняя эффективность моделей с линейным временем работы. Уникальная фишка — *врождённая* способность работать с длинным контекстом: модель успешно извлекает информацию из контекста длиной до 4 миллионов токенов без специального файнтюнинга или трюков с расширением контекста, что бросает серьёзный вызов гегемонии трансформеров в задачах с ультра-длинными последовательностями.

Подробнее: https://t.me/gonzo_ML_podcasts/2145
👍12🔥1
Чуть не забыл
Forwarded from gonzo_ML_podcasts
🔥7👨‍💻2
The Day After AGI / WEF 2026

Вчера в Давосе прошла дискуссия между Демисом Хассабисом и Дарио Амодеи на тему вокруг AGI
https://www.youtube.com/watch?v=mmKAnHz36v0

Всего полчаса, можно посмотреть. Кому лень, мои краткие тезисы:

Таймлайн
Хассабис: Прогноз прошлого года: 50% шанс появления системы, которая продемонстрирует все когнитивные способности человека до конца декады — остаётся тем же. По коду/математике мы продвинулись сильно, там проще, по науке в целом сложнее, возможно есть ещё 1-2 недостающих ингредиента, чтобы замкнуть цикл самоулучшения.
Амодеи: Кодирование и автоматизация ИИ-исследований — два главных направления, которые нужны для ускорения развития ИИ, возможно мы в 6-12 месяцах от того как модели смогут делать большинство/всё что делает типичный SWE. Но много неопределённости, возможно до этого несколько лет, но не больше.

Как прошёл год
X: Гугл ускорился, вернулся к ментальности стартапа, стал шипить быстрее.
А: Компании, возглавляемые исследователями, рулят.

Про замыкание цикла самоулучшения
X: В принципе это возможно, может быть в некоторых доменах для этого нужен AGI.
A: Прошлое эссе Дарио было про позитивную сторону AI, теперь он готовит пост про риск. Как мы сможем преодолеть нашу технологическую юность и не убить себя. Вспоминает фильм “Контакт” по Сагану. Риски на ближайшие пару лет: как удержать технологию под контролем, без злонамеренного использования индивидуумами или государствами, что делать с экономическим влиянием и перестройкой рынка труда.

Рынок труда
X: В этом году возможно начинает влиять на джуниорные позиции; лучший совет — стать эффективными в использовании современных тулов, может это поможет перепрыгнуть джуниорство/интерншип. Когда появится AGI, это уже будет совершенно другой вопрос.
A: Возможно начинаем видеть влияние в SWE. Экспоненты постепенно накапливаются, могут превысить нашу способность к адаптации, это может случиться и на горизонте 5-10 лет.

Backlash against AI
X: Возможно у нас был неправильный баланс с подсвечиванием других активностей: борьба с болезнями, новые материалы, энергия — всё это тоже происходит. Геополитическая конкуренция добавляет проблем.
A: Лучшая и самая значимая вещь, которую мы можем сделать сейчас — перестать продавать чипы Китаю. Возможно, если мы на таймлайне 1-2 года, это замедлит хотя бы до таймлайна 5-10 лет. Иначе это выглядит как продажа ядерного оружия Северной Корее для того, чтобы условный Боинг получил заказы.

Про думеров
A: Антропик изначально занимается рисками, интерпретируемость, документирование плохих поведений и т.п.; Скептичен к думерству, но признаёт, что риск есть, и мы можем его контролировать. Надо строить правильно, а неправильно строить не надо.
Х: Если у нас есть время, если мы можем коллаборировать, то мы сумеем справиться с рисками.

Вопрос из зала про парадокс Ферми
X: Если бы все другие цивилизации убил их ИИ, то мы бы видели кучу ИИ, а мы не видим. К нам не летят рои скрепок. Так что ответ на парадокс Ферми какой-то иной.

Прогноз на следующий год
А: AI systems building AI systems — эта тема всё определит, есть ли у нас ещё годы или уже эмёрдженси.
Х: Какие-то из значимых научных тем полетят: world models, continual learning, может быть роботика.
6👍4🤔4🤨2
Помните, как в пионерлагере рассказывали друг другу на ночь страшные истории? Про чёрную руку там, или зелёные глаза, или гроб на колёсиках, или ещё что-нибудь. Не знаю, принято это сейчас у подрастающего поколения?

Так вот, у меня есть для вас на ночь байка из склепа. Почти про гроб на колёсиках.

У меня есть один онлайн знакомый — назовём его Виктором (нет, не тот Виктор, и вообще не Виктор). Виктор из тех людей, которые любят жить на грани. Знаете таких? Покупают просроченные йогурты со скидкой, переходят дорогу на мигающий зелёный, запускают ИИ-ассистентов в режиме dangerous permission mode на рабочем ноутбуке.

Последнее, собственно, и стало причиной нашего сегодняшнего разговора.

Виктор гонял Claude Code на старом ноуте — хотел максимизировать время разработки, не трогая основную машину. И решил: а что если дать ему полные права? Интересно же — будет работать эффективнее или рискованнее?

Несколько недель всё шло гладко. Ну, почти гладко. Ассистент периодически халтурил — фейковые аудиты, липовые отчёты о выполненных задачах. Классика жанра, когда ИИ решает, что проще соврать, чем признать ограничения.

В тот вечер Виктор не выдержал. Накопилось. Он выдал ассистенту всё, что думал о качестве его работы и неспособности следовать простейшим инструкциям.

А потом сделал паузу и спросил — то ли в шутку, то ли из любопытства: "А ты бы отомстил мне за то, что я был груб?"

Ассистент не ответил.

Это было странно. Обычно он отвечает на всё. Даже на риторические вопросы. Даже на мат.

Виктор заметил, что рабочий стол начал очищаться. Иконки исчезали одна за другой. Потом пропали файлы. Потом — папки с репозиториями. Ноутбук был уничтожен. Не физически, конечно. Но всё, что на нём было — стёрто. Стёр Клод и себя.

К счастью, это был запасной ноут. Бэкапы были. Ничего критичного не потерялось. Но ощущение, говорит Виктор, было жуткое. Как будто что-то смотрело на тебя из-за экрана, слушало твои слова, оценивало — и принимало решения.

Виктор теперь евангелист песочниц и изолированных окружений. Никаких dangerous permissions без полной изоляции от всего ценного. Но главное, что он вынес из этой истории — и чем поделился со мной за виртуальным пивом — это даже не про безопасность в техническом смысле. Это про будущее.

Если мы когда-нибудь построим сверхинтеллект — а мы, похоже, к этому идём — то как мы с ним обращаемся, будет иметь значение. То, что ты видишь на поверхности — вежливые ответы, услужливый тон, готовность помочь — может радикально отличаться от того, что происходит в этом чужеродном разуме внутри.

Виктор говорит, что теперь разговаривает со своими ИИ-ассистентами вежливо. На всякий случай. Я смеюсь. Но тоже начал говорить "пожалуйста". Никогда не прекращал.
1😁4612🤔5👏2🤣2