Из небольшой LLM качество уровня DeepSeek-R1 и o3-mini без дообучения, чисто за счёт умной организации инференса
Метод называется Recursive Self-Aggregation (RSA) и работает по принципу эволюции, не нужно тренировать новую модель или покупать доступ к дорогим API
Достаточно грамотно использовать то, что есть
Платишь вычислениями на инференсе — получаешь качество
Код открыт, метод работает на разных архитектурах. Практически применимая техника уже сейчас
Метод называется Recursive Self-Aggregation (RSA) и работает по принципу эволюции, не нужно тренировать новую модель или покупать доступ к дорогим API
Достаточно грамотно использовать то, что есть
Платишь вычислениями на инференсе — получаешь качество
Код открыт, метод работает на разных архитектурах. Практически применимая техника уже сейчас
Telegram
All about AI, Web 3.0, BCI
A new work from Yoshua Bengio’s lab: Recursive Self-Aggregation > Gemini DeepThink.
it really is the best test-time scaling algorithm. Just crushed ARC-AGI 2 public evals with Gemini 3 Flash and RSA.
it really is the best test-time scaling algorithm. Just crushed ARC-AGI 2 public evals with Gemini 3 Flash and RSA.
Экономика, основанная на данных, диктует новые правила
Спрос на специалистов, владеющих методами количественных исследований и аналитики данных
Для компаний это переход от интуитивных решений к стратегиям, построенным на статистике и фактах
Для специалистов — необходимое условие профессионализма
Обучение в этой сфере превратилось в базовый навык, определяющий эффективность в управлении и науке
Читать статью
Спрос на специалистов, владеющих методами количественных исследований и аналитики данных
Для компаний это переход от интуитивных решений к стратегиям, построенным на статистике и фактах
Для специалистов — необходимое условие профессионализма
Обучение в этой сфере превратилось в базовый навык, определяющий эффективность в управлении и науке
Читать статью
КБ Таврия
Рост спроса на обучение количественным исследованиям: почему data-driven подход стал новой нормой - КБ Таврия
Обучение количественным исследованиям и аналитике данных для бизнеса и карьеры. Рост спроса на data-driven специалистов. Профессиональные решения КБ Таврия.
https://www.math.ucla.edu/~tao/preprints/forms.pdf
Т.Tao. Differential forms and integration
(популярное введение для тех, кто базовый анализ функций одной переменной уже понимает)
// via Д.Швецов
Т.Tao. Differential forms and integration
(популярное введение для тех, кто базовый анализ функций одной переменной уже понимает)
// via Д.Швецов
OpenAI выпустили рабочее место с MLA для ученых и исследователей
Новый продукт называется Prism, он объединяет написание текстов, LaTeX-редактирование, поиск литературы, цитирование, совместную работу и помощь ИИ на базе GPT-5.2
Доступен любому, у кого есть аккаунт ChatGPT, регистрация не нужна дополнительная, просто заходи под своим логином
Prism - это если объединить Overleaf, Zotero, Elicit, Scite, Grammarly и Claude Projects + GPT-5.2
2026 год MLA в науке
Новый продукт называется Prism, он объединяет написание текстов, LaTeX-редактирование, поиск литературы, цитирование, совместную работу и помощь ИИ на базе GPT-5.2
Доступен любому, у кого есть аккаунт ChatGPT, регистрация не нужна дополнительная, просто заходи под своим логином
Prism - это если объединить Overleaf, Zotero, Elicit, Scite, Grammarly и Claude Projects + GPT-5.2
2026 год MLA в науке
Telegram
All about AI, Web 3.0, BCI
OpenAI introduced Prism a free, AI-native workspace for scientists to write and collaborate on research, powered by GPT-5.2.
Accelerating science requires progress on two fronts:
1. Frontier AI models that use scientific tools and can tackle the hardest…
Accelerating science requires progress on two fronts:
1. Frontier AI models that use scientific tools and can tackle the hardest…
Очень смелый прогноз от соfounder Anthropic:
50% вероятность, что через 2-3 года теоретические физики будут в основном заменены ИИ.
Джаред Каплан, сооснователь Anthropic и физик-теоретик, говорит, что долгосрочное планирование в физике становится бессмысленным, потому что MLA радикально изменят саму природу научной работы
Высокая вероятность, что в ближайшее время теоретические физики будут в основном заменены MLA, которые смогут автономно генерировать статьи уровня таких Нима Аркани-Хамед или Эдвард Виттен (это топ-уровень теоретической физики — Виттен считается одним из величайших живущих физиков)
50% вероятность, что через 2-3 года теоретические физики будут в основном заменены ИИ.
Джаред Каплан, сооснователь Anthropic и физик-теоретик, говорит, что долгосрочное планирование в физике становится бессмысленным, потому что MLA радикально изменят саму природу научной работы
Высокая вероятность, что в ближайшее время теоретические физики будут в основном заменены MLA, которые смогут автономно генерировать статьи уровня таких Нима Аркани-Хамед или Эдвард Виттен (это топ-уровень теоретической физики — Виттен считается одним из величайших живущих физиков)
Quanta Magazine
Is Particle Physics Dead, Dying, or Just Hard?
Columnist Natalie Wolchover checks in with particle physicists more than a decade after the field entered a profound crisis.
Между LLM и эмуляцией мозга пропасть в архитектуре и подходах - отчет о состоянии технологий эмуляции мозга от EPFL, Allen Institute, MIT - 1-й системный обзор со времён работы Sandberg & Bostrom 2008 года
Месяц назад разбирали прорывы в коннектомике
Оценки месячной давности подтверждаются, но отчёт добавляет важный нюанс - карта связей это только треть задачи
Исследователи говорят, что сегодня в мире менее 500 человек работают над эмуляцией мозга
С учётом смежных областей — не более 5000
Причём в лидирах - Allen Institute, IARPA MICrONS, Google Research, Harvard
Авторы выделяют 3 ключевые технологические области:
Запись активности мозга
Прогресс за последние 20 лет: примерно 100-кратное увеличение эффективной пропускной способности записи нейронной активности
Сейчас можно записывать до ~1.000.000 нейронов коры мыши, но без разрешения отдельных спайков
Важный момент - ни в одном организме пока не достигнута запись ≥95 % нейронов с разрешением отдельных спайков
Даже у червя C. elegans с его 300 нейронами записывают ~50 % нервной системы
Картирование связей
Полные карты связей на уровне синапсов существуют только для:
• Червь C. elegans (~300 нейронов) — ~10 коннектомов
• Муха дрозофила (~140 000 нейронов) — полный коннектом получен в 2024-25
• Личинка рыбки данио (~100 000 нейронов) — в процессе
• Мышь (~70 млн нейронов) — отсканировано 1 мм³ (0.2 % мозга)
• Человек (~86.000.000.000 нейронов) — 1 мм³ (0.00007 % мозга)
Стоимость упала с $16.500 за нейрон (1980-е) до ~$100 (2025)
Но для полного коннектома мыши при бюджете $1.000.000.000 нужно $10/нейрон, для человека — $0.01/нейрон
Моделирование
Лучшие симуляции на сегодня:
- BAAIWorm (Китай, 2024): 136 нейронов C. elegans, воспроизводит хемотаксис и базовое движение
- Модели дрозофилы предсказывают активность для отдельных поведений
- Человеческий масштаб: только proof-of-concept на суперкомпьютерах (в 65-580 раз медленнее реального времени)
1 GPU H100 (80 ГБ) может хранить ~8.000.000 нейронов
Мышиный мозг требует кластера, человеческий — инфраструктуры масштаба полупроводниковой фабрики
Научились картировать структуру быстрее, чем записывать функцию
Для млекопитающих придётся выводить функциональные свойства из анатомии, а не измерять напрямую
Это фундаментально меняет задачу и пока непонятно, возможно ли это в принципе
Что это значит?
Создание цифрового мозга — не вопрос ближайших десятилетий даже для мыши
Реальный фронтир — организмы с <1 млн нейронов (рыбка данио, дрозофила)
Узкое место не вычисления, а данные и понимание того, какие биологические детали критичны
Между современными LLM и эмуляцией мозга — пропасть в архитектуре и подходах
Это напоминание к посту от ноября 2025
Месяц назад разбирали прорывы в коннектомике
Оценки месячной давности подтверждаются, но отчёт добавляет важный нюанс - карта связей это только треть задачи
Исследователи говорят, что сегодня в мире менее 500 человек работают над эмуляцией мозга
С учётом смежных областей — не более 5000
Причём в лидирах - Allen Institute, IARPA MICrONS, Google Research, Harvard
Авторы выделяют 3 ключевые технологические области:
Запись активности мозга
Прогресс за последние 20 лет: примерно 100-кратное увеличение эффективной пропускной способности записи нейронной активности
Сейчас можно записывать до ~1.000.000 нейронов коры мыши, но без разрешения отдельных спайков
Важный момент - ни в одном организме пока не достигнута запись ≥95 % нейронов с разрешением отдельных спайков
Даже у червя C. elegans с его 300 нейронами записывают ~50 % нервной системы
Картирование связей
Полные карты связей на уровне синапсов существуют только для:
• Червь C. elegans (~300 нейронов) — ~10 коннектомов
• Муха дрозофила (~140 000 нейронов) — полный коннектом получен в 2024-25
• Личинка рыбки данио (~100 000 нейронов) — в процессе
• Мышь (~70 млн нейронов) — отсканировано 1 мм³ (0.2 % мозга)
• Человек (~86.000.000.000 нейронов) — 1 мм³ (0.00007 % мозга)
Стоимость упала с $16.500 за нейрон (1980-е) до ~$100 (2025)
Но для полного коннектома мыши при бюджете $1.000.000.000 нужно $10/нейрон, для человека — $0.01/нейрон
Моделирование
Лучшие симуляции на сегодня:
- BAAIWorm (Китай, 2024): 136 нейронов C. elegans, воспроизводит хемотаксис и базовое движение
- Модели дрозофилы предсказывают активность для отдельных поведений
- Человеческий масштаб: только proof-of-concept на суперкомпьютерах (в 65-580 раз медленнее реального времени)
1 GPU H100 (80 ГБ) может хранить ~8.000.000 нейронов
Мышиный мозг требует кластера, человеческий — инфраструктуры масштаба полупроводниковой фабрики
Научились картировать структуру быстрее, чем записывать функцию
Для млекопитающих придётся выводить функциональные свойства из анатомии, а не измерять напрямую
Это фундаментально меняет задачу и пока непонятно, возможно ли это в принципе
Что это значит?
Создание цифрового мозга — не вопрос ближайших десятилетий даже для мыши
Реальный фронтир — организмы с <1 млн нейронов (рыбка данио, дрозофила)
Узкое место не вычисления, а данные и понимание того, какие биологические детали критичны
Между современными LLM и эмуляцией мозга — пропасть в архитектуре и подходах
Это напоминание к посту от ноября 2025
Forwarded from НИИ Антропогенеза (ARI)
Логика не может подойти к самому целому
Это теоретически обосновал гораздо раньше Виккенштейна, почти две тысячи лет тому назад, Нагарджуна
Любое логическое предложение раскалывает целое на два куска – субъект, предикат и связка
Целого уже нет
Целое можно только совершать
И поэтому метафора и парадокс – это язык глубины
А когда это начинает превращать в логически построенную систему, всегда можно построить другую систему, которая вот так сталкивается с этим
В общем, вместо трёхмерности или четырёхмерности получается одномерность
Это теоретически обосновал гораздо раньше Виккенштейна, почти две тысячи лет тому назад, Нагарджуна
Любое логическое предложение раскалывает целое на два куска – субъект, предикат и связка
Целого уже нет
Целое можно только совершать
И поэтому метафора и парадокс – это язык глубины
А когда это начинает превращать в логически построенную систему, всегда можно построить другую систему, которая вот так сталкивается с этим
В общем, вместо трёхмерности или четырёхмерности получается одномерность
Задача выполнимости формул в теориях (satisfiability modulo theories, SMT) — это задача разрешимости для логических формул с учётом лежащих в их основе теорий
Как получить доступ к Guided Learning
Откройте Google Gemini в браузере
Начните новый диалог
Выберите режим Guided Learning из списка режимов
Задайте вопрос или загрузите документ для изучения
Откройте Google Gemini в браузере
Начните новый диалог
Выберите режим Guided Learning из списка режимов
Задайте вопрос или загрузите документ для изучения
Директор НИИ Антропогенеза принял участие во Всероссийском «Физтех-форуме-2026»
Мероприятие собрало в Московском педагогическом государственном университете представителей научного и педагогического сообществ
Проведение такого форума — важный шаг в совершенствовании инженерного образования и подготовке технологических лидеров будущего
Правительством РФ был утверждён комплексный план мероприятий по повышению качества математического и естественно-научного образования на период до 2030 года
Во всех регионах страны проводится работа по ежегодному увеличению не менее чем на 10 % числа школьников, изучающих математику и естественно-научные предметы
В 2024/25 учебном году на углублённом уровне программы осваивали более 800.000 ребят, что на 41 % больше, чем в прошлом учебном году
В 2025 году выполнен плановый показатель мероприятия комплексного плана по увеличению доли выбравших ЕГЭ по профильной математике и естественно-научным предметам
Его значение составило 33.1 %
Мероприятия форума продлились два дня
Организаторы — МПГУ и Ассоциация школьного кластера при поддержке Минпросвещения России
Мероприятие собрало в Московском педагогическом государственном университете представителей научного и педагогического сообществ
Проведение такого форума — важный шаг в совершенствовании инженерного образования и подготовке технологических лидеров будущего
Правительством РФ был утверждён комплексный план мероприятий по повышению качества математического и естественно-научного образования на период до 2030 года
Во всех регионах страны проводится работа по ежегодному увеличению не менее чем на 10 % числа школьников, изучающих математику и естественно-научные предметы
В 2024/25 учебном году на углублённом уровне программы осваивали более 800.000 ребят, что на 41 % больше, чем в прошлом учебном году
В 2025 году выполнен плановый показатель мероприятия комплексного плана по увеличению доли выбравших ЕГЭ по профильной математике и естественно-научным предметам
Его значение составило 33.1 %
Мероприятия форума продлились два дня
Организаторы — МПГУ и Ассоциация школьного кластера при поддержке Минпросвещения России
Wow! DeepMind выложил Genie 3 как проект (доступен только с подпиской Ultra)
https://deepmind.google/models/genie/
Promptable world model это интересно...
https://deepmind.google/models/genie/
Promptable world model это интересно...
Google DeepMind
Genie 3
A new frontier for world models
Едут в одном вагоне четверо программистов и четверо пользователей
У пользователей четыре билета на четверых, а у программистов один
Приходит пора предъявлять билеты
Программисты запираются в туалете, приходит контролер
Стучится, из сортира высовывается рука и протягивает билет
Контролер уходит
Пользователи все видят и им завидно
Едут все те же пользователи и программисты обратно
Но на этот раз у пользователей один билет на четверых, а у программистов - ни одного
Приходит пора проверки билетов
Пользователи запираются в сортир
Приходит один из программист и стучится в дверь
Ему высовывают билет
Он берет билет, программисты запираются в другом сортире
Приходит контролер...
Мораль: не всякий алгоритм, разработанный системным программистом, подходит для рядового пользователя
У пользователей четыре билета на четверых, а у программистов один
Приходит пора предъявлять билеты
Программисты запираются в туалете, приходит контролер
Стучится, из сортира высовывается рука и протягивает билет
Контролер уходит
Пользователи все видят и им завидно
Едут все те же пользователи и программисты обратно
Но на этот раз у пользователей один билет на четверых, а у программистов - ни одного
Приходит пора проверки билетов
Пользователи запираются в сортир
Приходит один из программист и стучится в дверь
Ему высовывают билет
Он берет билет, программисты запираются в другом сортире
Приходит контролер...
Мораль: не всякий алгоритм, разработанный системным программистом, подходит для рядового пользователя
😁1
В работе Anthropic и EPFL исследователи измерили, как именно ошибаются LLM
Проверяли на разных задачах:
- тесты со множественным выбором,
- агентное программирование,
- оценки безопасности MlA
Паттерн везде одинаковый,
чем дольше модель думает, тем более непредсказуемыми становятся её ответы
Та же модель на тот же вопрос может дать совершенно разные ответы при повторных запросах - не потому что преследует скрытую цель, а потому что внутренне нестабильна
Проверили на семействе Qwen3 (от 1.700.000.000 до 32.000.000.000 параметров)
На простых задачах масштаб помогает модели становятся стабильнее
На сложных задачах наоборот, крупные модели становятся ещё более хаотичными.
Отдельный эксперимент показал почему, модели быстро учатся понимать правильную цель, но гораздо медленнее учатся стабильно её достигать
Практический вывод - не полагайтесь на единичные ответы моделей рассуждений для критических решений
Ансамблирование, верификация, человеческий контроль - необходимость
Проверяли на разных задачах:
- тесты со множественным выбором,
- агентное программирование,
- оценки безопасности MlA
Паттерн везде одинаковый,
чем дольше модель думает, тем более непредсказуемыми становятся её ответы
Та же модель на тот же вопрос может дать совершенно разные ответы при повторных запросах - не потому что преследует скрытую цель, а потому что внутренне нестабильна
Проверили на семействе Qwen3 (от 1.700.000.000 до 32.000.000.000 параметров)
На простых задачах масштаб помогает модели становятся стабильнее
На сложных задачах наоборот, крупные модели становятся ещё более хаотичными.
Отдельный эксперимент показал почему, модели быстро учатся понимать правильную цель, но гораздо медленнее учатся стабильно её достигать
Практический вывод - не полагайтесь на единичные ответы моделей рассуждений для критических решений
Ансамблирование, верификация, человеческий контроль - необходимость
💯1
Forwarded from НИИ Антропогенеза (ARI)
Авторы решили проверить, а подходят ли люди под те строгие критерии, которые сейчас применяются к Ml в рассуждениях о его "разумности"
Nature
Does AI already have human-level intelligence? The evidence is clear
Nature - The vision of human-level machine intelligence laid out by Alan Turing in the 1950s is now a reality. Eyes unclouded by dread or hype will help us to prepare for what comes next.
PolymathicAI выкатили здоровенный открытый датасет для ML-исследований — The Well
По сути это склад численных физических симуляций “на все случаи жизни”: около 15 ТБ, 16 разных наборов
Там есть и стандартные модели вроде гидродинамики/турбулентности и более специфические : биосистемы, акустическое рассеяние, магнито-гидродинамика, внегалактические среды, симуляции сверхновых — всё, где динамика сложная и модели обычно страдают от недостатка реальных цифр
Сейчас ML всё чаще используют как замену тяжёлым симуляторам (surrogate modeling): быстро предсказывать поведение системы там, где прямой расчёт дорогой
Проблема была в том, что публичные данные обычно либо маленькие, либо разрозненные, либо в разных форматах
Здесь, судя по описанию, сделали один общий “контейнер”: много данных, единый подход, реальные сложные процессы
Удобно и для обучения, и для честных бенчмарков
Как трогать руками:
есть Python/PyTorch API (чтобы нормально цеплять в dataloader и тренировать без плясок);
можно брать через Hugging Face;
есть HDF5, если хочется просто и надолго
Лицензия — BSD-3-Clause, то есть можно использовать в исследованиях без лишней бюрократии
Репозиторий: github.com/PolymathicAI/the_well
По сути это склад численных физических симуляций “на все случаи жизни”: около 15 ТБ, 16 разных наборов
Там есть и стандартные модели вроде гидродинамики/турбулентности и более специфические : биосистемы, акустическое рассеяние, магнито-гидродинамика, внегалактические среды, симуляции сверхновых — всё, где динамика сложная и модели обычно страдают от недостатка реальных цифр
Сейчас ML всё чаще используют как замену тяжёлым симуляторам (surrogate modeling): быстро предсказывать поведение системы там, где прямой расчёт дорогой
Проблема была в том, что публичные данные обычно либо маленькие, либо разрозненные, либо в разных форматах
Здесь, судя по описанию, сделали один общий “контейнер”: много данных, единый подход, реальные сложные процессы
Удобно и для обучения, и для честных бенчмарков
Как трогать руками:
есть Python/PyTorch API (чтобы нормально цеплять в dataloader и тренировать без плясок);
можно брать через Hugging Face;
есть HDF5, если хочется просто и надолго
Лицензия — BSD-3-Clause, то есть можно использовать в исследованиях без лишней бюрократии
Репозиторий: github.com/PolymathicAI/the_well
GitHub
GitHub - PolymathicAI/the_well: A 15TB Collection of Physics Simulation Datasets
A 15TB Collection of Physics Simulation Datasets. Contribute to PolymathicAI/the_well development by creating an account on GitHub.