116 subscribers
72 photos
12 videos
45 files
376 links
MACHINE LEARNING ALGORITHMS
Download Telegram
Экономика, основанная на данных, диктует новые правила

Спрос на специалистов, владеющих методами количественных исследований и аналитики данных

Для компаний это переход от интуитивных решений к стратегиям, построенным на статистике и фактах

Для специалистов — необходимое условие профессионализма

Обучение в этой сфере превратилось в базовый навык, определяющий эффективность в управлении и науке

Читать статью
https://www.math.ucla.edu/~tao/preprints/forms.pdf

Т.Tao. Differential forms and integration

(популярное введение для тех, кто базовый анализ функций одной переменной уже понимает)

// via Д.Швецов
OpenAI выпустили рабочее место с MLA для ученых и исследователей

Новый продукт называется
Prism, он объединяет написание текстов, LaTeX-редактирование, поиск литературы, цитирование, совместную работу и помощь ИИ на базе GPT-5.2

Доступен любому, у кого есть аккаунт ChatGPT, регистрация не нужна дополнительная, просто заходи под своим логином

Prism - это если объединить Overleaf, Zotero, Elicit, Scite, Grammarly и Claude Projects + GPT-5.2

2026 год MLA в науке
Очень смелый прогноз от соfounder Anthropic:
50% вероятность, что через 2-3 года теоретические физики будут в основном заменены ИИ.


Джаред Каплан, сооснователь Anthropic и физик-теоретик,
говорит, что долгосрочное планирование в физике становится бессмысленным, потому что MLA радикально изменят саму природу научной работы

Высокая вероятность, что в ближайшее время теоретические физики будут в основном заменены MLA, которые смогут автономно генерировать статьи уровня таких Нима Аркани-Хамед или Эдвард Виттен (это топ-уровень теоретической физики — Виттен считается одним из величайших живущих физиков)
Между LLM и эмуляцией мозга пропасть в архитектуре и подходах - отчет о состоянии технологий эмуляции мозга от EPFL, Allen Institute, MIT - 1-й системный обзор со времён работы Sandberg & Bostrom 2008 года

Месяц
назад разбирали прорывы в коннектомике
Оценки месячной давности подтверждаются, но отчёт добавляет важный нюанс - карта связей это только треть задачи

Исследователи говорят, что сегодня в мире менее 500 человек работают над эмуляцией мозга
С учётом смежных областей — не более 5000
Причём в лидирах - Allen Institute, IARPA MICrONS, Google Research, Harvard

Авторы выделяют 3 ключевые технологические области:

Запись активности мозга
Прогресс за последние 20 лет: примерно 100-кратное увеличение эффективной пропускной способности записи нейронной активности

Сейчас можно записывать до ~1.000.000 нейронов коры мыши, но без разрешения отдельных спайков

Важный момент - ни в одном организме пока не достигнута запись ≥95 % нейронов с разрешением отдельных спайков
Даже у червя C. elegans с его 300 нейронами записывают ~50 % нервной системы

Картирование связей
Полные карты связей на уровне синапсов существуют только для:
• Червь C. elegans (~300 нейронов) — ~10 коннектомов

• Муха дрозофила (~140 000 нейронов) — полный коннектом получен в 2024-25

• Личинка рыбки данио (~100 000 нейронов) — в процессе

• Мышь (~70 млн нейронов) — отсканировано 1 мм³ (0.2 % мозга)

• Человек (~86.000.000.000 нейронов) — 1 мм³ (0.00007 % мозга)

Стоимость упала с $16.500 за нейрон (1980-е) до ~$100 (2025)
Но для полного коннектома мыши при бюджете $1.000.000.000 нужно $10/нейрон, для человека — $0.01/нейрон

Моделирование
Лучшие симуляции на сегодня:

- BAAIWorm (Китай, 2024): 136 нейронов C. elegans, воспроизводит хемотаксис и базовое движение

- Модели дрозофилы предсказывают активность для отдельных поведений

- Человеческий масштаб: только proof-of-concept на суперкомпьютерах (в 65-580 раз медленнее реального времени)

1 GPU H100 (80 ГБ) может хранить ~8.000.000 нейронов
Мышиный мозг требует кластера, человеческий — инфраструктуры масштаба полупроводниковой фабрики


Н
аучились картировать структуру быстрее, чем записывать функцию
Для млекопитающих придётся выводить функциональные свойства из анатомии, а не измерять напрямую
Это фундаментально меняет задачу и пока непонятно, возможно ли это в принципе

Что это значит?

Создание цифрового мозга
— не вопрос ближайших десятилетий даже для мыши

Реальный фронтир — организмы с <1 млн нейронов (рыбка данио, дрозофила)

Узкое место не вычисления, а данные и понимание того, какие биологические детали критичны

Между современными LLM и эмуляцией мозга — пропасть в архитектуре и подходах
Это напоминание к посту от ноября 2025
Все четыре набора данных на графике имеют одинаковые средние значения, медиану и дисперсию
Так что визуализируйте большие массивы результатов
Логика не может подойти к самому целому

Это теоретически обосновал гораздо раньше Виккенштейна, почти две тысячи лет тому назад, Нагарджуна

Любое логическое предложение раскалывает целое на два куска – субъект, предикат и связка
Целого уже нет
Целое можно только совершать

И поэтому метафора и парадокс – это язык глубины

А когда это начинает превращать в логически построенную систему, всегда можно построить другую систему, которая вот так сталкивается с этим

В общем, вместо трёхмерности или четырёхмерности получается одномерность
Задача выполнимости формул в теориях (satisfiability modulo theories, SMT) — это задача разрешимости для логических формул с учётом лежащих в их основе теорий
Как получить доступ к Guided Learning
Откройте Google Gemini в браузере
Начните новый диалог
Выберите режим Guided Learning из списка режимов
Задайте вопрос или загрузите документ для изучения
Директор НИИ Антропогенеза принял участие во Всероссийском «Физтех-форуме-2026»
 
Мероприятие собрало в Московском педагогическом государственном университете представителей научного и педагогического сообществ

Проведение такого форума — важный шаг в совершенствовании инженерного образования и подготовке технологических лидеров будущего

Правительством РФ был утверждён комплексный план мероприятий по повышению качества математического и естественно-научного образования на период до 2030 года

Во всех регионах страны проводится работа по ежегодному увеличению не менее чем на 10 % числа школьников, изучающих математику и естественно-научные предметы

В 2024/25 учебном году на углублённом уровне программы осваивали более 800.000 ребят, что на 41 % больше, чем в прошлом учебном году

В 2025 году выполнен плановый показатель мероприятия комплексного плана по увеличению доли выбравших ЕГЭ по профильной математике и естественно-научным предметам
Его значение составило 33.1 %

Мероприятия форума продлились два дня

Организаторы —
МПГУ и Ассоциация школьного кластера при поддержке Минпросвещения России
Wow! DeepMind выложил Genie 3 как проект (доступен только с подпиской Ultra)

https://deepmind.google/models/genie/

Promptable world model это интересно...
Едут в одном вагоне четверо программистов и четверо пользователей

У пользователей четыре билета на четверых, а у программистов один

Приходит пора предъявлять билеты
Программисты запираются в туалете, приходит контролер
Стучится, из сортира высовывается рука и протягивает билет
Контролер уходит

Пользователи все видят и им завидно
Едут все те же пользователи и программисты обратно
Но на этот раз у пользователей один билет на четверых, а у программистов - ни одного
Приходит пора проверки билетов
Пользователи запираются в сортир
Приходит один из программист и стучится в дверь
Ему высовывают билет
Он берет билет, программисты запираются в другом сортире
Приходит контролер...

Мораль: не всякий алгоритм, разработанный системным программистом, подходит для рядового пользователя
😁1
В работе Anthropic и EPFL исследователи измерили, как именно ошибаются LLM

Проверяли на разных задачах:
- тесты со множественным выбором,
- агентное программирование,
- оценки безопасности MlA

Паттерн везде одинаковый,
чем дольше модель думает, тем более непредсказуемыми становятся её ответы

Та же модель на тот же вопрос может дать совершенно разные ответы при повторных запросах - не потому что преследует скрытую цель, а потому что внутренне нестабильна

Проверили на семействе Qwen3 (от 1.700.000.000 до 32.000.000.000 параметров)
На простых задачах масштаб помогает модели становятся стабильнее
На сложных задачах наоборот, крупные модели становятся ещё более хаотичными.

Отдельный эксперимент показал почему, модели быстро учатся понимать правильную цель, но гораздо медленнее учатся стабильно её достигать

Практический вывод - не полагайтесь на единичные ответы моделей рассуждений для критических решений

Ансамблирование, верификация, человеческий контроль - необходимость
💯1
Авторы решили проверить, а подходят ли люди под те строгие критерии, которые сейчас применяются к Ml в рассуждениях о его "разумности"
PolymathicAI выкатили здоровенный открытый датасет для ML-исследований — The Well

По сути это склад численных физических симуляций “на все случаи жизни”: около 15 ТБ, 16 разных наборов

Там есть и стандартные модели вроде гидродинамики/турбулентности и более специфические : биосистемы, акустическое рассеяние, магнито-гидродинамика, внегалактические среды, симуляции сверхновых — всё, где динамика сложная и модели обычно страдают от недостатка реальных цифр

Сейчас ML всё чаще используют как замену тяжёлым симуляторам (surrogate modeling): быстро предсказывать поведение системы там, где прямой расчёт дорогой

Проблема была в том, что публичные данные обычно либо маленькие, либо разрозненные, либо в разных форматах

Здесь, судя по описанию, сделали один общий “контейнер”: много данных, единый подход, реальные сложные процессы
Удобно и для обучения, и для честных бенчмарков

Как трогать руками:

есть Python/PyTorch API (чтобы нормально цеплять в dataloader и тренировать без плясок);

можно брать через Hugging Face;

есть HDF5, если хочется просто и надолго

Лицензия — BSD-3-Clause, то есть можно использовать в исследованиях без лишней бюрократии

Репозиторий:
github.com/PolymathicAI/the_well