NoML Digest
2.37K subscribers
76 photos
1 video
2 files
751 links
Download Telegram
Семинар про Scientific ML

▫️ 11 июня (среда), 17:00 МСК
▫️ Google Meet→
▫️ Трансляция YouTube→

Выступает: Михаил Лытаев (СПб ФИЦ РАН, Университет ИТМО)

Тема: Решение обратных задач методами глубокого обучения

Аннотация
Математическая модель позволяет прогнозировать поведение объектов, зная их параметры и параметры внешней среды. Однако зачастую настоящий интерес представляет обратная задача, т.е. определение параметров системы по наблюдаемому (или желаемому) поведению. Классическими примерами обратных задач являются медицинская визуализация, сейсмическая разведка, дистанционное зондирование. Т.е. задачи, в которых непосредственное измерение параметров объекта чрезвычайно дорого или невозможно. Вместо этого интересующие параметры (например, внутреннее строение тела или места залегания полезных ископаемых) пытаются восстановить по данным косвенных измерений. Другим примером являются задачи конструирования метаматериалов и оптимальное управление, когда нужно определить параметры системы таким образом, чтобы она обладала желаемыми свойствами.

Зачастую такие задачи не обладают никакими специальными свойствами, вроде линейности и выпуклости. Кроме того, обратные задачи относятся к классу некорректных: когда нельзя заранее сказать, имеет ли задача единственное физически адекватное решение.
Хотя обратные и некорректные задачи активно изучаются классической теорией и методами функционального анализа, все еще не хватает универсальных методов, подходящих для широкого круга задач. Существующие решения как правило носят узкоспециализированный характер.

Возникшие всего несколько лет назад методы т.н. scientific ML впервые предлагают универсальные методы решения обратных нелинейных задач, используя глубокое обучение. В докладе будут рассмотрены следующие подходы:
— нейронные операторы (DeepONet, FNO), позволяющие обучать обратный нелинейный оператор;
— физически информированные нейронные сети (PINN), позволяющие встраивать физические законы в функцию потерь;
— нейронные дифференциальные уравнения (NeuralODE), позволяющие синтезировать модели на основе дифференциальных уравнений и нейронных сетей;
— автоматическое дифференцирование численных схем, позволяющее строить солверы обратных задач на основе существующих программных реализаций решения прямой задачи.

На простых примерах покажем, как ставятся обратные задачи, в чем заключается суть их некорректность.

Уровень сложности: средний, глубоких знаний в области дифференциальных уравнений, функционального анализа и математической физики не требуется.

Ключевые слова: scientific ML, некорректные задачи, нелинейные операторы, нейронный оператор, нейронное дифференциальное уравнение, автоматическое дифференцирование.
Семинар про многопоточную очередь

▫️ 18 июня (среда), 17:00 МСК
▫️ Google Meet→
▫️ Трансляция YouTube→

Выступает: Виталий Аксенов, доцент ИТМО, руководитель совместной лаборатории ИТМО и ВК по распределённым вычислениям и магистерской программы «Программирование и Искусственный Интеллект». Член программных комитетов SmartData и Sysconf, соорганизатор международной школы SPTDC.

Тема: Конкурентные приоритетные очереди и их применение

Аннотация
Приоритетная очередь является одной из фундаментальных структур данных. Например, она является базовым блоком в алгоритмах поиска кратчайшего пути и планировщиках с приоритетами. Чтобы ускорить эти алгоритмы, хочется использовать параллелизацию, а значит хочется иметь многопоточную версию приоритетной очереди. К сожалению, не всё так просто, так как есть явное узкое место — операция extractMin. Теория говорит, что невозможно избавиться от него и одновременно давать чёткие гарантии на операцию. Что же тогда делать?

В этом докладе мы рассмотрим идеи, которые позволяют ускорить конкурентную приоритетную очередь. Затем, мы выясним, что очередь с точными гарантиями на самом деле не всегда нужна, и, как следствие, можно ослабить требования. Как итог, мы получим быструю очередь MultiQueue, основную идею которой (choice of 2) можно использовать в других областях, например, машинном обучении.

Уровень сложности: средний.

Ключевые слова: многопоточность, структуры данных, приоритетная очередь.
Запись семинара

Виталий Аксенов (ИТМО), Конкурентные приоритетные очереди и их применение. YouTube | Дзен | RuTube (~1 час 10 минут).
Запись семинара про Scientific ML

Михаил Лытаев (СПб ФИЦ РАН, ИТМО), Решение обратных задач методами глубокого обучения. YouTube | Дзен | RuTube (~1 час 30 минут).
Мероприятия NoML в сентябре-октябре

Скоро мы начинаем осеннюю серию семинаров и созвонов. Теперь семинары NoML будут проходить по средам в 18:00 МСК раз в две недели (и не пересекаться с @spaasem). Расписание на ближайшие пару месяцев пока выглядит так:

▫️ 3 сентября | Анна Дубенюк (Ozon Tech), Математическое моделирование в складских процессах, или как работают математики в бигтехе;

▫️ 17 сентября | [тема будет объявлена позже];

▫️ 1 октября | [тема будет объявлена позже];

▫️ 15 октября | Алексей Тарасов (Разумное Расписание), Линейное программирование может больше чем кажется.

Как обычно, обновления и детали предстоящих докладов — в канале @noml_digest и чате @noml_community.

P.S.: База знаний NoML (список прошедших мероприятий и подборки полезных материалов) теперь будет существовать в виде md файлов на GitHub и GitFlic (ещё в процессе переноса).
Семинар про оптимизацию складов

▫️ 3 сентября (среда), 18:00 МСК
▫️ Прямое подключение (Meet)->
▫️ Трансляция (YouTube)->
▫️ Подключение (Яндекс Телемост)->

Выступает: Анна Дубенюк, руководитель группы моделирования и оптимизации складских процессов в Ozon Tech, приглашенный преподаватель ФКН ВШЭ, автор канала @everything_is_eventual

Тема: Математическое моделирование в складских процессах, или как работают математики в бигтехе

Аннотация
Обзорно обсудим, как оптимизационное моделирование помогает решать важные задачи в складских процессах. Поговорим про разные виды задач, инструменты и в целом про создание IT-продуктов и работу математиков в бигтехе.
Про теорию чисел и алгебру в методах оптимизации

Кстати, мы последнее время интересуемся приложениями алгебры и теории чисел в оптимизации (евклидовы (рациональные) решётки, производящие функции, базисы Грёбнера и пр.) Парочка книг и ресурсов, где про это можно почитать:
▫️ T. Rothvoss, Integer Optimization and Lattices (lecture notes), 2016;
▫️ A. Schrijver, Theory of Linear and Integer Programming, Wiley, 1998;
▫️ J.A. De Loera, R. Hemmecke, M. Köppe, Algebraic and Geometric Ideas in the Theory of Discrete Optimization, SIAM, 2013.


А для тех, кто почти не пересекался с мат. оптимизаций, в качестве отправной точки траектории обучения могу порекомендовать следующее,
хорошее и доступное введение:
▫️ J. Matousek, B. Gärtner, Understanding and Using Linear Programming, Springer, 2007;

и далее можно либо глубже познакомиться с теорией линейного программирования, либо погрузиться в особенности целочисленной линейной оптимизации:
▫️ D. Bertsimas, J. Tsitsiklis, Introduction to Linear Optimization, Athena Scientific, 1997;
▫️ L. Wolsey, Integer Programming, 2nd ed., Wiley, 2020.


Более полный список литературы есть в нашей базе знаний->
Про математику в складских процессах

Запись вчерашнего семинара скоро будет, а пока материалы от Анны:

▫️ Статья на Хабре: Математика на складе. Как оптимизировать хаос, 2025 (~8 минут);
▫️ Доклад на Code Fest: Математическое моделирование на складах, или Как математика спасёт мир, 2024 (~40 минут);
▫️ Telegram-канал Анны про прикладную математику: "всё предельно" @everything_is_eventual.

P.S.: А еще на следующей неделе будет конференция E-CODE с секцией по ML/DS.
Запись семинара

Анна Дубенюк (Ozon Tech), Математическое моделирование в складских процессах, или как работают математики в бигтехе. YouTube | Дзен | RuTube (~1 час 20 минут).
Про SageMath

Есть такая система компьютерной алгебры SageMath или просто Sage. Сейчас это скорее уже даже не CAS-система, а сборка библиотек, фреймворков и их обвязок в единый пакет для научных вычислений с интерфейсом взаимодействия на Python, то есть своего рода опенсорсный аналог Wolfram Mathematica, Maple и местами MATLAB.

Если вы учитесь на математематическом факультете, то познакомиться с SageMath — это неплохая возможность изучить Python оставаясь в контексте математики.
Ну а если вы занимаетесь DS/ML/AI, то это неплохая возможность изучить/повторить алгебру, теорию чисел (и другие разделы математики с сильными вычислительными аспектами) оставаясь в контексте написания кода на Python.

Вот небольшая подборка материалов для самообучения Sage:
▫️ Книга: A. Casamayou, P. Zimmermann et al., Calcul mathématique avec Sage, 2013 (перевод на английский: Computational Mathematics with SageMath, 2018);
▫️ Туториал: Sage Tutorial (версия на русском);
▫️ Курс от создателя Sage Уильяма Cтайна Sage Course 2014 (этот курс конечно сильно устарел, но он очень хорош по структуре и идее обучить начинающих математиков стеку Python, git, Cython), ссылки на сохранившиеся записи лекций;
▫️ В научных вычислениях очень важна высокая производительность, а сам Стайн кстати причастен к созданию Cython, так что еще в этом списке книга по Cython: K.W. Smith, Cython: A Guide for Python Programmers, 2015

Обширная библиотека материалов есть также на странице проекта SageMath:
▫️ Список известных курсов с применением Sage;
▫️ Книги и другие ресурсы.


P.S.: Ещё у Cтайна есть учебники по различным разделам теории чисел, в которых изложение теоретического материала часто сопровождается вычислительными примерами на Sage:
▫️ W. Stein, Elementary Number Theory: Primes, Congruences, and Secrets, 2008;
▫️ W. Stein, Algebraic Number Theory, a Computational Approach, 2012;
▫️ W. Stein, Modular Forms: A Computational Approach, 2007;
▫️ K.A. Ribet, W.A. Stein, Lectures on Modular Forms and Hecke Operators, 2017;
▫️ W. Stein, The Birch and Swinnerton-Dyer Conjecture, a Computational Approach, 2007.
Полезные мероприятия (не только NoML)

▫️ 16 сентября (вторник), 17:40 МСК | Олег Фатюхин (Tech Lead, Guardora), Роман Постников (CEO, Upgini), Конфиденциальные вычисления и доверенные среды исполнения: федеративное обучение, регистрация-> (бесплатное участие);

▫️ 18 сентября (четрвег), 16:00 МСК | Альфия Харламова (Data Sapience), Илья Маршаков (Data Sapience), Kolmogorov Online Day: практики MLOps, управление жизненным циклом моделей, управление фабрикой ИИ агентов, регистрация-> (бесплатное участие).


P.S.: А в связи и в преддверии этих мероприятий можно вспомнить релевантное из репертуара NoML:
▫️ Все мероприятия про конфиденциальные вычисления и связанные вопросы (GitHub KB);
▫️ Recap про Kolmogorov (NoML Digest).
Семинар про оптимизацию оптимизации оптимизаторов

▫️ 1 октября (среда), 18:00 МСК
▫️ Подключение→

Выступают: Алексей Никоноров (GlowByte), Вазген Амбарцумов

Тема: Повышение производительности солвера на примере решения одной задачи назначения

Аннотация
Продолжаем развивать тему оптимизации оптимизаторов, предыдущий доклад:
▫️ Максим Гончаров, Алексей Никоноров, Опыт по ускорению оптимизационных open source солверов на примере решения задачи NBO, 2024. YouTube | Дзен | RuTube (~1 час 45 минут).

В этот раз рассмотрим, каким образом тонкая настройка параметров солвера, работа с эвристиками и кастомная реализация алгоритмов позволяют получить ещё большее ускорение производительности относительно того, что даёт MILP-солвер “из коробки”.
Запись семинара

Алексей Никоноров (GlowByte), Повышение производительности солвера на примере решения одной задачи назначения. YouTube | Дзен | RuTube (~50 минут).
Семинар про линейное программирование

▫️ 15 октября (среда), 18:00 МСК
▫️ Подключение→

Выступает: Алексей Тарасов, Разумное Расписание

Тема: Линейное программирование может больше чем кажется

Аннотация
Метод ЛП имеет ограничения по скорости и размеру задач. На примере реальных кейсов я расскажу, что ограничения кажущееся и их на самом деле нет. Как Нео вы сможете уворачиваться от пуль и гнуть ложки, и как доктор Стрэндж сможете планировать сразу мультиреальность.
Запись семинара

Алексей Тарасов (Разумное Расписание), Линейное программирование может больше чем кажется. YouTube | Дзен | RuTube (~1 час 10 минут).
Семинар про методы Монте-Карло

▫️ 29 октября (среда), 18:00 МСК
▫️ Подключение→

Выступает: Влада Петренко, аспирантка Университета «Сириус»

Тема: Методы Монте-Карло и квази-Монте-Карло: от случайных чисел к финансовым моделям

Аннотация
В докладе рассматриваются методы Монте-Карло и квази-Монте-Карло как инструменты численного моделирования. Особое внимание уделяется последовательностям с низким расхождением, понятию дискрепанси, а также их применению в финансовой математике — при оценке опционов и моделировании стохастических процессов.
Запись семинара

Влада Петренко (Университет Сириус), Методы Монте-Карло и квази-Монте-Карло: от случайных чисел к финансовым моделям. YouTube | Дзен | RuTube (~50 минут).
Мероприятия в ноябре

Мероприятия в этом месяце, все семинары по средам в 18:00 МСК, онлайн:

▫️ 5 ноября | СПАА* | Григорий Трофимюк (Университет ИТМО), Методы построения кодов, исправляющих ошибки, с помощью программирования в ограничениях;

▫️ 12 ноября | NoML | Алексейс Ложкинс (LA Optimization), RL для оптимизаторов: новый взгляд на старые задачи;

▫️ 19 ноября | СПАА* | Николай Коломеец (Новосибирский Государственный Университет), Криптографические свойства булевых функций;

▫️ 26 ноября | NoML | Виталий Черненко (Амальгама), Практическое применение комбинаторной оптимизации на примере задачи планирования молочного завода;

*СПАА — Современная Прикладная Алгебра и Арифметика, канал: @spaasem.
Семинар NoML тоже надо назвать как-нибудь многобуквенно, например: ИОИПР — Исследование Операций и Интеллект Принятия Решений;)

Как обычно, обновления, детальные анонсы предстоящих докладов и ссылки для подключения — в канале @noml_digest и чате @noml_community.
Семинар про RL для оптимизаторов

▫️ 12 ноября (среда), 18:00 МСК
▫️ Подключение→

Выступает: Алексейс Ложкинс, LA Optimization, эксперт-консультант по математической оптимизации и моделированию

Тема: RL для оптимизаторов: новый взгляд на старые задачи

Аннотация
Традиционные методы исследования операций давно не обновлялись концептуально, несмотря на рост вычислительных возможностей. Способен ли современный ИИ изменить ситуацию? Разберем на примере, как метод обучения с подкреплением позволяет решать простую оптимизационную задачу.