Семинар сегодня был, кстати, огненный. Кто не пришёл, ждите, пока выложу — я вторую половину доклада прямо на иголках сидел и ждал окончания, чтобы высказаться, и, конечно, не отказал себе потом в этом удовольствии. :)
Разумеется, всё было in good faith, и на второй фотографии мы с Александром Пановым торжественно пожимаем друг другу руки. Или заключаем пари о том, когда появятся AI-Эйнштейны, как знать. В любом случае, как видите, я даже надел специальную толстовку в честь гостя из AIRI.)
Спасибо большое Саше, что приехал! Если вдруг вы AI-исследователь и тоже что-то интересное (а ещё лучше острое! :) ) хотите рассказать на нашем семинаре, пишите мне, а то иначе мы скоро начнём таки в математику углубляться.
#markovlab #seminar #spsu
Разумеется, всё было in good faith, и на второй фотографии мы с Александром Пановым торжественно пожимаем друг другу руки. Или заключаем пари о том, когда появятся AI-Эйнштейны, как знать. В любом случае, как видите, я даже надел специальную толстовку в честь гостя из AIRI.)
Спасибо большое Саше, что приехал! Если вдруг вы AI-исследователь и тоже что-то интересное (а ещё лучше острое! :) ) хотите рассказать на нашем семинаре, пишите мне, а то иначе мы скоро начнём таки в математику углубляться.
#markovlab #seminar #spsu
❤38🔥7
Сегодня в курсе "Основы байесовского вывода" мы закончили разговор о логистической регрессии:
СПбГУ — 2025.10.09 — Байесовский вывод в логистической регрессии
(слайды и доска, как всегда, на странице курса)
Логистическая регрессия — это главная модель для классификации. Революция deep learning её лидерство только упрочила: как все вы знаете, любая нейросеть, решающая задачу классификации (то есть подавляющее большинство нейросетей), заканчивается на слое softmax, то есть на логистической регрессии. Вся остальная модель нужна для того, чтобы извлечь хорошие признаки для этой логистической регрессии.
Так что важно понимать, что это такое и как работает. Мы начали с основных предположений и мультиклассового случая (тот самый softmax), затем записали правдоподобие и стали его максимизировать. Там оказалось, что можно и метод второго порядка записать, и мы пришли к алгоритму IRLS. А кульминацией байесовского вывода стало, конечно, предсказательное распределение; я на лекции полностью все полные квадраты уже не выделял, но рассказал все главные идеи вывода, по которым заполнить пробелы уже несложно.
На этом разговор о двух основных моделях машинного обучения закончился; дальше будут две-три лекции про общие сюжеты, важные для всего ML, а там посмотрим.
#spsu #lectures #bayes2025
СПбГУ — 2025.10.09 — Байесовский вывод в логистической регрессии
(слайды и доска, как всегда, на странице курса)
Логистическая регрессия — это главная модель для классификации. Революция deep learning её лидерство только упрочила: как все вы знаете, любая нейросеть, решающая задачу классификации (то есть подавляющее большинство нейросетей), заканчивается на слое softmax, то есть на логистической регрессии. Вся остальная модель нужна для того, чтобы извлечь хорошие признаки для этой логистической регрессии.
Так что важно понимать, что это такое и как работает. Мы начали с основных предположений и мультиклассового случая (тот самый softmax), затем записали правдоподобие и стали его максимизировать. Там оказалось, что можно и метод второго порядка записать, и мы пришли к алгоритму IRLS. А кульминацией байесовского вывода стало, конечно, предсказательное распределение; я на лекции полностью все полные квадраты уже не выделял, но рассказал все главные идеи вывода, по которым заполнить пробелы уже несложно.
На этом разговор о двух основных моделях машинного обучения закончился; дальше будут две-три лекции про общие сюжеты, важные для всего ML, а там посмотрим.
#spsu #lectures #bayes2025
❤16👍2
Мой канал взял новую высоту — 3000 подписчиков! Для уютного канальчика, который не репостит новости, а делится только моим личным контентом, это, думаю, не так мало. Я точно знаю, что принесло последнюю сотню, и расскажу вам об этом буквально на днях (ещё один источник контента, ага), но не сегодня: не будем отходить о традиций.
В честь новой круглой цифры достаю из архива одно из самых ярких игровых впечатлений прошлого года. Как всегда, полный пост со всеми картинками по ссылке; пост сегодня и впрямь юбилейный, так что сокращения особенно сильны (отмечаю их [...]), и очень рекомендую читать на сайте:
INDIKA
Вряд ли вы могли не слышать об INDIKA; о ней в прошлом году писал даже The Guardian, не говоря уж об игровых изданиях. Однако вы могли случайно пройти мимо, и тем самым совершить большую ошибку. Попробую вас убедить в том, что эту ошибку, если уж она произошла, срочно пора исправлять.
INDIKA — отличный пример игры, где художественная идея и форма оказываются прекрасно согласованными. По форме это короткое (около 4-5 часов) путешествие монахини через альтернативную Россию рубежа XIX-XX веков. Монахиня сомневается в христианской вере, и её внутренний монолог — это не монолог, а спор веры, разума и искушения. Её попутчик и постоянный собеседник — сам дьявол. По жанру это 3D-приключение с упором на историю и головоломки; они не слишком головоломные, и на самом деле игра ближе к симулятору ходьбы, но с важными отклонениями и резкими сменами жанров. INDIKA действительно можно пройти за один-два вечера, и это будут прекрасные вечера. [...]
Главная героиня — монахиня по имени Индика, которая буквально одержима бесами, и в монастыре собственно изначально пытается как-то справиться с этой проблемой. Но одержима не так реалистично-шизофренически, как в Hellblade: в основном Индика разговаривает со звучащим у неё в голове голосом дьявола. Дьявол в игре часто служит голосом здравого смысла, который по чисто случайному совпадению всё время оказывается антирелигиозным — точнее, антиортодоксальным. [...]
Впрочем, потом одержимость героини начнёт выплёскиваться и в окружающий мир. Он вообще хоть и реалистичный, но с элементами стимпанка, странными механизмами в православных храмах и неправдоподобными мелочами вроде рыбы в человеческий рост. Но иногда у Индики взгляд на мир меняется совсем, гм, радикально, и это одна из механик, используемых в головоломках. А ещё время от времени, обычно в воспоминаниях героини, внешний вид меняется на пиксельное 2D, и Индика участвует в разных мини-играх в стиле NES; это разнообразит происходящее, да и смысл кое-какой в этом имеется. [...]
Сюжет развивается параллельно с диалогами с дьяволом, который постоянно старается даже не заронить в душу Индики сомнение, а довести до логического конца сомнения, уже давно имеющиеся. Он подсвечивает лицемерие церкви, постоянное несоответствие реальности и деклараций, внутренние противоречия в религиозных лозунгах и так далее. [...] Но лично мне показалось, что рассуждения в игре слишком карикатурны, и если бы их сделали глубже и более серьёзными, это бы игру очень украсило. Но и так неплохо вышло! [...]
Игры, в которых есть перевод на русский язык, встречаются повсеместно. Игры, в которых есть русскоязычная озвучка — более редкий случай, но тоже ничего удивительного. Но в подавляющем большинстве случаев ни тексты, ни тем более звук на русском языке лучше не трогать; они бывают сделаны откровенно плохо даже в тех случаях, когда разрабатывала игру русскоязычная студия.
Indika — тот редкий случай, когда я настоятельно рекомендую играть именно на русском языке! [...] Главным образом ради дьявола, которого озвучивал сам Ефим Шифрин. И явно вложил в это дело душу — дьявол получился восхитительный; все интонации на месте, блестящая работа. Кстати, актёрская игра Индики (озвучивала Анастасия Дьячук) лично мне тоже очень понравилась, но все обзоры, конечно, всегда на первый план выставляют Шифрина. [...]
Indika — это игра, которая даёт уникальный опыт и действительно показывает, что игры — это искусство. Не пропускайте.
#games #tgif
В честь новой круглой цифры достаю из архива одно из самых ярких игровых впечатлений прошлого года. Как всегда, полный пост со всеми картинками по ссылке; пост сегодня и впрямь юбилейный, так что сокращения особенно сильны (отмечаю их [...]), и очень рекомендую читать на сайте:
INDIKA
Вряд ли вы могли не слышать об INDIKA; о ней в прошлом году писал даже The Guardian, не говоря уж об игровых изданиях. Однако вы могли случайно пройти мимо, и тем самым совершить большую ошибку. Попробую вас убедить в том, что эту ошибку, если уж она произошла, срочно пора исправлять.
INDIKA — отличный пример игры, где художественная идея и форма оказываются прекрасно согласованными. По форме это короткое (около 4-5 часов) путешествие монахини через альтернативную Россию рубежа XIX-XX веков. Монахиня сомневается в христианской вере, и её внутренний монолог — это не монолог, а спор веры, разума и искушения. Её попутчик и постоянный собеседник — сам дьявол. По жанру это 3D-приключение с упором на историю и головоломки; они не слишком головоломные, и на самом деле игра ближе к симулятору ходьбы, но с важными отклонениями и резкими сменами жанров. INDIKA действительно можно пройти за один-два вечера, и это будут прекрасные вечера. [...]
Главная героиня — монахиня по имени Индика, которая буквально одержима бесами, и в монастыре собственно изначально пытается как-то справиться с этой проблемой. Но одержима не так реалистично-шизофренически, как в Hellblade: в основном Индика разговаривает со звучащим у неё в голове голосом дьявола. Дьявол в игре часто служит голосом здравого смысла, который по чисто случайному совпадению всё время оказывается антирелигиозным — точнее, антиортодоксальным. [...]
Впрочем, потом одержимость героини начнёт выплёскиваться и в окружающий мир. Он вообще хоть и реалистичный, но с элементами стимпанка, странными механизмами в православных храмах и неправдоподобными мелочами вроде рыбы в человеческий рост. Но иногда у Индики взгляд на мир меняется совсем, гм, радикально, и это одна из механик, используемых в головоломках. А ещё время от времени, обычно в воспоминаниях героини, внешний вид меняется на пиксельное 2D, и Индика участвует в разных мини-играх в стиле NES; это разнообразит происходящее, да и смысл кое-какой в этом имеется. [...]
Сюжет развивается параллельно с диалогами с дьяволом, который постоянно старается даже не заронить в душу Индики сомнение, а довести до логического конца сомнения, уже давно имеющиеся. Он подсвечивает лицемерие церкви, постоянное несоответствие реальности и деклараций, внутренние противоречия в религиозных лозунгах и так далее. [...] Но лично мне показалось, что рассуждения в игре слишком карикатурны, и если бы их сделали глубже и более серьёзными, это бы игру очень украсило. Но и так неплохо вышло! [...]
Игры, в которых есть перевод на русский язык, встречаются повсеместно. Игры, в которых есть русскоязычная озвучка — более редкий случай, но тоже ничего удивительного. Но в подавляющем большинстве случаев ни тексты, ни тем более звук на русском языке лучше не трогать; они бывают сделаны откровенно плохо даже в тех случаях, когда разрабатывала игру русскоязычная студия.
Indika — тот редкий случай, когда я настоятельно рекомендую играть именно на русском языке! [...] Главным образом ради дьявола, которого озвучивал сам Ефим Шифрин. И явно вложил в это дело душу — дьявол получился восхитительный; все интонации на месте, блестящая работа. Кстати, актёрская игра Индики (озвучивала Анастасия Дьячук) лично мне тоже очень понравилась, но все обзоры, конечно, всегда на первый план выставляют Шифрина. [...]
Indika — это игра, которая даёт уникальный опыт и действительно показывает, что игры — это искусство. Не пропускайте.
#games #tgif
❤🔥24❤12👍8🥴2😁1
Какие у меня всё-таки невероятные друзья. Пришёл на какой-то странный квиз, а там...) Инна, Ира, спасибо вам!! ❤️
#lifestyle
#lifestyle
🔥91❤25😁10👍1
Прошедшую в четверг лекцию курса "Глубокое обучение" долго представлять не надо:
СПбГУ — 2025.10.09 — Self-attention и архитектура трансформера
(слайды и доска на странице курса)
Трансформер — буквально самая главная архитектура нейросетей практически с самого своего появления в 2017 году. В Google Scholar у статьи "Attention is All You Need" уже почти двести тысяч цитирований; это не абсолютный рекорд (есть статьи с сотнями тысяч цитирований про стандартные экспериментальные методы, которые везде потом применялись), но наверняка рекорд за прошедшие неполные восемь лет, и влияние трансформеров в 2025 пока не ослабевает.
В лекции я постарался максимально подробно и не торопясь обсудить всё, что можно было обсудить о самовнимании и архитектуре трансформера: от абстрактно-мотивационной идеи self-attention, приходящей из информационного поиска, до токенизации и позиционных вложений. Многое из того, что будет дальше, — это применения и развития идей этой лекции, так что пропускать её стоит только если вы и так уже всё это хорошо знаете.
#spsu #lectures #dl2025
СПбГУ — 2025.10.09 — Self-attention и архитектура трансформера
(слайды и доска на странице курса)
Трансформер — буквально самая главная архитектура нейросетей практически с самого своего появления в 2017 году. В Google Scholar у статьи "Attention is All You Need" уже почти двести тысяч цитирований; это не абсолютный рекорд (есть статьи с сотнями тысяч цитирований про стандартные экспериментальные методы, которые везде потом применялись), но наверняка рекорд за прошедшие неполные восемь лет, и влияние трансформеров в 2025 пока не ослабевает.
В лекции я постарался максимально подробно и не торопясь обсудить всё, что можно было обсудить о самовнимании и архитектуре трансформера: от абстрактно-мотивационной идеи self-attention, приходящей из информационного поиска, до токенизации и позиционных вложений. Многое из того, что будет дальше, — это применения и развития идей этой лекции, так что пропускать её стоит только если вы и так уже всё это хорошо знаете.
#spsu #lectures #dl2025
👍14❤10
Начинаю уже запутываться в контенте; столько всего происходит, что даже взятый мной темп по одному посту в день начинает трещать по швам. Тем не менее пока попробую оставаться в этом ритме, и сегодня выберу доклад, публикации которого жду не только я, но и его автор, Александр Панов:
Семинар Markov Lab — 2025.10.08 — AI Scientist
(Слайды на странице семинара)
Александр дал обзор того, как сейчас работают AI-системы, помогающие в научных исследованиях, рассказал о том, что об этом думает его лаборатория в AIRI и в каком направлении она работает. Главная мысль, которую он проводил (насколько я понял), была в том, что успешный AI scientist должен быть в каком-то смысле embodied, то есть должен получить другие модальности непосредственного опыта, не только токены текста и картинок/видео.
Как мне кажется, весьма интересной была и дискуссия после доклада. Мои читатели знают, что AI scientist'ы разного рода — это моя любимая тема, и в этом отношении я настроен очень... хм, хотел сказать "оптимистично", но не уверен, что это правильное слово.) В общем, верю я в AI scientist'ов, и даже в то, что для существенной трансформации всего научного поиска новых мегапрорывов до "AI-Эйнштейнов" совершенно не требуется; на днях выложу ещё один свой недавний доклад об этом, кстати.
Так что поспорили мы знатно; надеюсь, разошлись всё-таки друзьями. :)
#markovlab #seminar #spsu
Семинар Markov Lab — 2025.10.08 — AI Scientist
(Слайды на странице семинара)
Александр дал обзор того, как сейчас работают AI-системы, помогающие в научных исследованиях, рассказал о том, что об этом думает его лаборатория в AIRI и в каком направлении она работает. Главная мысль, которую он проводил (насколько я понял), была в том, что успешный AI scientist должен быть в каком-то смысле embodied, то есть должен получить другие модальности непосредственного опыта, не только токены текста и картинок/видео.
Как мне кажется, весьма интересной была и дискуссия после доклада. Мои читатели знают, что AI scientist'ы разного рода — это моя любимая тема, и в этом отношении я настроен очень... хм, хотел сказать "оптимистично", но не уверен, что это правильное слово.) В общем, верю я в AI scientist'ов, и даже в то, что для существенной трансформации всего научного поиска новых мегапрорывов до "AI-Эйнштейнов" совершенно не требуется; на днях выложу ещё один свой недавний доклад об этом, кстати.
Так что поспорили мы знатно; надеюсь, разошлись всё-таки друзьями. :)
#markovlab #seminar #spsu
🔥18❤10😁2
На семинаре лаборатории Маркова начинаем большую математически богатую тему. Мы с самого начала собирались её обсудить, но, конечно, доклады приглашённых извне исследователей всегда имеют приоритет.
Тема очень важная и интересная — SSM и архитектуры типа Mamba; это те самые архитектуры, которые могут потенциально заместить или хотя бы существенно дополнить полную доминацию трансформеров. У нас будет несколько докладов на тему, в среду первый, в котором, надеюсь, всё будет объясняться подробно от самого начала; а саму архитектуру Mamba и последующие за ней новости будем подробно обсуждать в следующий раз.
Состояния важнее внимания? От классических SSM к S4/S5 и Mamba
Алексей Власов, Андрей Лаэтин
Лаборатория Маркова, МКН СПбГУ
Ссылка на трансляцию (среда 15 октября, 14:00)
Трансформеры стали стандартом для работы с последовательностями, но современное моделирование живо «не трансформером единым». Их ключевое ограничение — квадратичное время работы от длины входа. Мы разберём State Space Models (SSM) — в том числе нашумевшую Mamba — как альтернативу: эти модели масштабируются линейно, естественно описывают динамику во времени и лучше работают с дальними зависимостями.
Мы начнём с классических SSM (с помощью которых людей отправляли на Луну), и их практических версий в ML. В качестве мотивации посмотрим на HiPPO: как можно «сжать прошлое и восстановить его обратно». Дальше обсудим связь с оптимальным управлением и сигналами, и покажем, как линейная масштабируемость достигается структурой SSM, а стабильность обучения обеспечивается не только корректной инициализацией, но и выбором метода дискретизации.
Разберём три удобных взгляда на такие модели — как непрерывные динамические системы, как свёрточные операторы (через структурированные матрицы) и как рекуррентное обновление состояния. Покажем эволюцию от S4 (SISO) к S5 (в том числе MIMO), и чем эти апдейты важны на практике.
Завершим кратким обзором Mamba: что в ней означает «селективность» и как устроено обновление скрытого состояния. Заодно обсудим, почему эта модель вызвала такой фурор; но подробное изложение архитектур Mamba и Mamba 2 будет в следующем докладе.
#markovlab #seminar #spsu
Тема очень важная и интересная — SSM и архитектуры типа Mamba; это те самые архитектуры, которые могут потенциально заместить или хотя бы существенно дополнить полную доминацию трансформеров. У нас будет несколько докладов на тему, в среду первый, в котором, надеюсь, всё будет объясняться подробно от самого начала; а саму архитектуру Mamba и последующие за ней новости будем подробно обсуждать в следующий раз.
Состояния важнее внимания? От классических SSM к S4/S5 и Mamba
Алексей Власов, Андрей Лаэтин
Лаборатория Маркова, МКН СПбГУ
Ссылка на трансляцию (среда 15 октября, 14:00)
Трансформеры стали стандартом для работы с последовательностями, но современное моделирование живо «не трансформером единым». Их ключевое ограничение — квадратичное время работы от длины входа. Мы разберём State Space Models (SSM) — в том числе нашумевшую Mamba — как альтернативу: эти модели масштабируются линейно, естественно описывают динамику во времени и лучше работают с дальними зависимостями.
Мы начнём с классических SSM (с помощью которых людей отправляли на Луну), и их практических версий в ML. В качестве мотивации посмотрим на HiPPO: как можно «сжать прошлое и восстановить его обратно». Дальше обсудим связь с оптимальным управлением и сигналами, и покажем, как линейная масштабируемость достигается структурой SSM, а стабильность обучения обеспечивается не только корректной инициализацией, но и выбором метода дискретизации.
Разберём три удобных взгляда на такие модели — как непрерывные динамические системы, как свёрточные операторы (через структурированные матрицы) и как рекуррентное обновление состояния. Покажем эволюцию от S4 (SISO) к S5 (в том числе MIMO), и чем эти апдейты важны на практике.
Завершим кратким обзором Mamba: что в ней означает «селективность» и как устроено обновление скрытого состояния. Заодно обсудим, почему эта модель вызвала такой фурор; но подробное изложение архитектур Mamba и Mamba 2 будет в следующем докладе.
#markovlab #seminar #spsu
❤31👍6
Сегодня расскажу вам про совершенно новую образовательную инициативу, которая началась у меня в этом году. Меня пригласили в Южный федеральный университет (sic!) читать лекции первокурсникам (!!) о том, как устроен искусственный интеллект, на аудиторию в 300-500 человек (!!!). Название курса абстрактное — "Технологии и фронтиры науки о данных" — и суть должна быть в том, чтобы рассказать о современном AI в популярной форме, доступной вчерашним школьникам.
Для меня это совершенно новый вызов: да, я нередко читаю популярные лекции (вот недавно две было, про AI в целом и про рассуждающие модели; бывали доклады и для школьников), так что в целом я не сомневаюсь, что могу говорить об AI популярным языком два или даже четыре часа подряд. Но двадцать?.. С другой стороны, я всё время говорю, что многие идеи современного машинного обучения можно объяснить на пальцах, вот меня в каком-то смысле на слове и поймали. Посмотрим, что у меня получится.
Самое приятное во всём этом, конечно, в том, что мне разрешили выкладывать материалы курса и видео этих лекций. Встречайте — вот страничка курса:
Технологии и фронтиры науки о данных — ЮФУ, осень 2025
В прошлый четверг прошла первая лекция:
Что такое AI? Введение и терминология
(слайды как всегда на странице курса)
Хотел в качестве введения порассуждать о том, что такое вообще интеллект и искусственный интеллект в частности, описать основные типы задач и методов в AI. Пришло действительно несколько сот человек (забыл зафиксировать точное число), и, конечно, возникла живая интересная дискуссия.) Для порядка в письменной форме: коллеги писали в чате, а я старался иногда на их вопросы отвечать, не слишком нарушая течение лекции. В итоге наобсуждались на три часа без четверти, и при этом я даже свой скромный план до конца не выполнил; про типы постановок задач (supervised/unsupervised/reinforcement) расскажу уже в следующий раз.
Интересное дело получается, и вопросы от аудитории часто были хорошие. Спасибо коллегам (в основном Михаилу Игоревичу Карякину) за приглашение, будем продолжать.
Эти лекции точно можно смотреть всем желающим, ничего математически сложного там не будет. А нужно ли их смотреть — решать вам, это уж как пойдёт. Надеюсь, что пойдёт хорошо.
#sfu #lectures #dsfrontiers
Для меня это совершенно новый вызов: да, я нередко читаю популярные лекции (вот недавно две было, про AI в целом и про рассуждающие модели; бывали доклады и для школьников), так что в целом я не сомневаюсь, что могу говорить об AI популярным языком два или даже четыре часа подряд. Но двадцать?.. С другой стороны, я всё время говорю, что многие идеи современного машинного обучения можно объяснить на пальцах, вот меня в каком-то смысле на слове и поймали. Посмотрим, что у меня получится.
Самое приятное во всём этом, конечно, в том, что мне разрешили выкладывать материалы курса и видео этих лекций. Встречайте — вот страничка курса:
Технологии и фронтиры науки о данных — ЮФУ, осень 2025
В прошлый четверг прошла первая лекция:
Что такое AI? Введение и терминология
(слайды как всегда на странице курса)
Хотел в качестве введения порассуждать о том, что такое вообще интеллект и искусственный интеллект в частности, описать основные типы задач и методов в AI. Пришло действительно несколько сот человек (забыл зафиксировать точное число), и, конечно, возникла живая интересная дискуссия.) Для порядка в письменной форме: коллеги писали в чате, а я старался иногда на их вопросы отвечать, не слишком нарушая течение лекции. В итоге наобсуждались на три часа без четверти, и при этом я даже свой скромный план до конца не выполнил; про типы постановок задач (supervised/unsupervised/reinforcement) расскажу уже в следующий раз.
Интересное дело получается, и вопросы от аудитории часто были хорошие. Спасибо коллегам (в основном Михаилу Игоревичу Карякину) за приглашение, будем продолжать.
Эти лекции точно можно смотреть всем желающим, ничего математически сложного там не будет. А нужно ли их смотреть — решать вам, это уж как пойдёт. Надеюсь, что пойдёт хорошо.
#sfu #lectures #dsfrontiers
❤42🔥21👍5👏1💯1👨💻1
Две недели назад выступал на конференции Polynomial Computer Algebra (PCA 2025), и вот дошла наконец очередь написать об этом здесь.) Спасибо за приглашение Николаю Николаевичу Васильеву; он регулярно приглашает меня в ЛЭТИ рассказать о том, чего новенького в мире искусственного интеллекта (вот последний "State of AI" доклад из конца весны), а осенью вместо семинара пригласил вот на конференцию.
AI и математика: последние результаты и прогнозы на будущее
(слайды как всегда на страничке моих выступлений)
В основном это был мой стандартный доклад про математику, но с добавлением последних новостей, о части которых уже шла речь и здесь в канале; сошлюсь на пост с анонсом этого доклада, да и недавний доклад Александра Панова в лаборатории Маркова без подобных новостей не обошёлся.
Надо будет когда-нибудь пост написать об этом, в котором собрать все текущие примеры того, как LLM успешно помогают доказывать теоремы; где только найти время... С другой стороны, пока напишу, глядишь, и ещё пачка новостей накопится, они теперь буквально каждые несколько дней появляются.
#talks #conference
AI и математика: последние результаты и прогнозы на будущее
(слайды как всегда на страничке моих выступлений)
В основном это был мой стандартный доклад про математику, но с добавлением последних новостей, о части которых уже шла речь и здесь в канале; сошлюсь на пост с анонсом этого доклада, да и недавний доклад Александра Панова в лаборатории Маркова без подобных новостей не обошёлся.
Надо будет когда-нибудь пост написать об этом, в котором собрать все текущие примеры того, как LLM успешно помогают доказывать теоремы; где только найти время... С другой стороны, пока напишу, глядишь, и ещё пачка новостей накопится, они теперь буквально каждые несколько дней появляются.
#talks #conference
👍12🔥4❤3
Сегодня у нас использовалось технологическое ноу-хау нашего семинара — меловая доска — так что сфотографировались на её фоне.)
#markovlab #seminar #spsu
#markovlab #seminar #spsu
😁50❤4🔥3