Forwarded from CS Space
С гордостью представляем наше первое мероприятие: открытую лекцию Сергея Николенко!
💡 State of AI: Откуда мы пришли, кто мы и куда мы идём?
– Страница мероприятия
– 16 марта, 14:00 – 17:30
– ПОМИ РАН, наб. реки Фонтанки, 27, Санкт-Петербург
– Пожалуйста, не забудьте зарегистрироваться — это необходимое условие посещения ПОМИ РАН.
💡 О лекторе
📢 Анонс
– Страница мероприятия
– 16 марта, 14:00 – 17:30
– ПОМИ РАН, наб. реки Фонтанки, 27, Санкт-Петербург
– Пожалуйста, не забудьте зарегистрироваться — это необходимое условие посещения ПОМИ РАН.
Сергей Николенко — учёный, преподаватель и практик в области машинного обучения и информатики в целом. Доктор физико-математических наук, сотрудник ПОМИ РАН, преподаватель в СПбГУ, Harbour Space University, ИТМО и НИУ ВШЭ, Head of AI в компании Synthesis AI, автор более 200 научных публикаций и нескольких книг, в том числе бестселлера «Глубокое обучение» (Питер, 2018), монографии «Synthetic Data for Deep Learning» (Springer, 2021) и прямо сейчас появляющейся в продаже книги «Машинное обучение: Основы» (Питер, 2025). Сергей ведёт исследования в разных областях, от улучшения больших языковых моделей до анализа алгоритмов и теоретической информатики, применяет машинное обучение в реальных проектах, пишет посты и книги, ведет телеграм-канал «Sinекура» (@sinecor), а также стал двукратным чемпионом мира по «Что? Где? Когда?».
Уже два года мы живём в эпоху больших языковых моделей (large language models, LLM). За пределы академического сообщества эти новости вышли после появления ChatGPT от OpenAI, а затем появилось много разных моделей, либо созданных на основе ChatGPT, либо продолжающих и развивающих её идеи. Например, главные новости последних месяцев — это большие рассуждающие модели (large reasoning models, LRM), сначала появившиеся у OpenAI в виде семейства o1, а затем внедрённые практически во все ведущие LLM, в том числе [полу]открытые. Начиная с весны 2023 года, буквально каждую неделю появляются новости, которые раньше считались бы революционными, и скорость прогресса никак не хочет уменьшаться.
В первой части я постараюсь рассказать о том, как искусственный интеллект дошёл до такой жизни. Мы поговорим о том, что такое нейросети в целом, как произошла сначала революция глубокого обучения, потом внутри неё революция трансформеров, а потом, внутри неё, — революция больших языковых моделей. Обсудим самые последние новости и сформулируем несколько направлений, которые прямо сейчас являются предметом активных исследований. DeepSeek-R1 тоже обсудим, разумеется. Кое-какие технические детали, возможно, рассказать будет уместно, но я постараюсь сделать рассказ максимально доступным для непрофессионалов.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥26👏8❤🔥7❤1
Извините, опять хвастаться буду — долго ли, коротко ли, но пришёл финальный student feedback про мой январский курс в Harbour Space в Бангкоке. Я волновался, что с практикой у меня плохо получится, но в итоге студентам понравилось. и такие отзывы получать всегда очень приятно. Переспросил, говорят, выложить можно, тем более что это получается немного реклама самого Harbour Space.
Кстати, это теоретически может быть интересно кому-то из подписчиков — университет интересный! Их главная дебютная идея — курсы погружением, когда за три недели ежедневных занятий получается пройти материал почти семестрового курса. С одной стороны, это наверняка менее эффективно, чем настоящий полугодовой курс. Но с другой стороны, такое расписание позволяет Harbour Space приглашать много крутых преподавателей, для которых это welcome distraction, а не отдельный долгосрочный commitment. Да что там крутых — даже я на полгода, конечно, никуда бы не поехал, а на три недели вполне согласен.
Я не знаю, как там сейчас происходят admissions и что для этого нужно, но постоянно встречаю там русскоязычных студентов и в Барселоне, и в Бангкоке, так что это точно возможно.
Кстати, это теоретически может быть интересно кому-то из подписчиков — университет интересный! Их главная дебютная идея — курсы погружением, когда за три недели ежедневных занятий получается пройти материал почти семестрового курса. С одной стороны, это наверняка менее эффективно, чем настоящий полугодовой курс. Но с другой стороны, такое расписание позволяет Harbour Space приглашать много крутых преподавателей, для которых это welcome distraction, а не отдельный долгосрочный commitment. Да что там крутых — даже я на полгода, конечно, никуда бы не поехал, а на три недели вполне согласен.
Я не знаю, как там сейчас происходят admissions и что для этого нужно, но постоянно встречаю там русскоязычных студентов и в Барселоне, и в Бангкоке, так что это точно возможно.
How was your Teacher?
He's amazing in terms of knowledge and teaching skill
I have had an excellent learning experience with Mr.Sergey. His presentation skills are outstanding. he explains complex concepts clearly and engagingly, making the lessons accessible and interesting. He shows genuine interest in his students, encouraging us to ask questions and explore our curiosities. Moreover, his expertise in the subject matter is evident. He combines deep knowledge with practical examples, which not only enhances our understanding but also inspires us to learn more. Overall, his dedication and passion for teaching make a significant impact on our academic journey.
What did you like the most?
How the instructor construct the lesson. The slide and mathematical proof were really smooth and easy to follow.
Harbour Space definitely should hire more professors like this
format of exams helped improve ability to read complex research papers
I appreciate that the class covered not only the history and fundamentals of artificial intelligence but also recent advancements in the field. The instructor introduced alternative perspectives and interpretations of key machine learning concepts, which was highly valuable. Additionally, the discussion on the philosophical aspects of AI added depth to the learning experience.
I appreciated how he explained complex concepts clearly and engagingly. His ability to break down difficult topics into understandable segments not only makes the material more accessible but also sparks my interest and curiosity.
What would you change about the class?
Actually, I like everything in this course. I guess adding some dynamic illustration might help this class more active.
Harbour Space definitely should hire more professors like this
no complaints one of the better structured course
I would love to have a computer vision project at the end of the course to include in my portfolio. Perhaps the midterm could focus on a paper presentation, while the final could be a hands-on project. Although there was an option for a project, there wasn’t enough time to implement it. That said, the class was truly excellent overall. Looking forward for the teacher to teach other subjects like reinforcement learning, which is an important area in artificial intelligence but it is lacking in the set of modules in Harbour Space.
I wouldn't change anything about the class. Everything is well-organized.
How likely are you to recommend this class to other students?
Definitely crucial
Absolutely! I would highly recommend this class to other students. I believe having him teach an introductory or basic class would be fantastic, as his ability to explain complex concepts clearly and engagingly is perfect for beginners. That said, his expertise is equally valuable in advanced classes, making him an excellent choice for any level of instruction.
❤30👍6🔥4❤🔥2
В языковых моделях новый мем — "finish the following greentext" (Claude, Tyler Cowen etc.). Попробовал на себе, и должен сказать, что хотя в целом не смешно, вторая/четвёртая строчка очень хороша. Прямо хочется куда-нибудь в эпиграф вынести.
https://chatgpt.com/share/67cf5252-1484-8004-8a55-4043731c322b
https://chatgpt.com/share/67cf5252-1484-8004-8a55-4043731c322b
😁28🤣9❤🔥3❤1👍1
Большая часть последних лекций была посвящена скрытым марковским моделям (hidden Markov models, HMM). Когда-то это был очень важный класс моделей, на них работало всё распознавание речи, например. Даже когда пришла революция deep learning — а она в первую очередь пришла как раз в распознавание речи — глубокие сети использовались для извлечения признаков (т.е. вместо классических алгоритмов вроде MFCC), а признаки потом всё равно подавались в HMM (Hinton et al., 2012). Лет 10-15 назад я работал в Центре речевых технологий и всё это помню из первых рук.
В распознавании речи, конечно, люди давно перешли на трансформеры. Вы, наверное, слышали про Whisper от OpenAI, который по сути является обычным трансформером, преобразующим звук в текст напрямую sequence-to-sequence, как машинный перевод. А последние новости здесь добавляют к этому трансформеру зрительную модальность, то бишь улучшает распознавание, если видно лицо говорящего: например, Whisper-Flamingo добавляет ещё один Transformer encoder из модели Flamingo, и результаты улучшаются.
Но хотя сфер использования у HMM стало меньше, они, как и всякая хорошая идея, умирать не собираются. Просто в наше время HMM сами по себе — это слишком простая модель, со слишком сильными предположениями, чтобы хорошо работать со сложными данными вроде звука, где важны разные долгосрочные зависимости. Но простые модели отлично работают, когда сами данные тоже попроще! Например, в биоинформатике HMM моделируют геномные последовательности: profile HMM компактно выражает идею того, что участок ДНК — это не фиксированная строчка, а распределение на строчках с вариациями. В результате вы храните в базе не строки из ACGT, а параметры таких HMM, и поиск новой последовательности можно запускать прямо на них. Это очень старая идея (Eddy, 1998), но до сих пор вполне актуальная (Yu et al., 2024).
Здесь надо ещё отличать HMM от CRF (conditional random fields, условные случайные поля), которые представляют собой дискриминирующий вариант порождающей модели HMM и потому могут быть более выразительными, но это уже другая история, до которой, надеюсь, мы в курсе тоже дойдём.
А во второй половине лекции мы начали обсуждать графические модели, но об этом я уж в следующий раз.
https://www.youtube.com/watch?v=MACsuKkZBhE
В распознавании речи, конечно, люди давно перешли на трансформеры. Вы, наверное, слышали про Whisper от OpenAI, который по сути является обычным трансформером, преобразующим звук в текст напрямую sequence-to-sequence, как машинный перевод. А последние новости здесь добавляют к этому трансформеру зрительную модальность, то бишь улучшает распознавание, если видно лицо говорящего: например, Whisper-Flamingo добавляет ещё один Transformer encoder из модели Flamingo, и результаты улучшаются.
Но хотя сфер использования у HMM стало меньше, они, как и всякая хорошая идея, умирать не собираются. Просто в наше время HMM сами по себе — это слишком простая модель, со слишком сильными предположениями, чтобы хорошо работать со сложными данными вроде звука, где важны разные долгосрочные зависимости. Но простые модели отлично работают, когда сами данные тоже попроще! Например, в биоинформатике HMM моделируют геномные последовательности: profile HMM компактно выражает идею того, что участок ДНК — это не фиксированная строчка, а распределение на строчках с вариациями. В результате вы храните в базе не строки из ACGT, а параметры таких HMM, и поиск новой последовательности можно запускать прямо на них. Это очень старая идея (Eddy, 1998), но до сих пор вполне актуальная (Yu et al., 2024).
Здесь надо ещё отличать HMM от CRF (conditional random fields, условные случайные поля), которые представляют собой дискриминирующий вариант порождающей модели HMM и потому могут быть более выразительными, но это уже другая история, до которой, надеюсь, мы в курсе тоже дойдём.
А во второй половине лекции мы начали обсуждать графические модели, но об этом я уж в следующий раз.
https://www.youtube.com/watch?v=MACsuKkZBhE
YouTube
СПбГУ -- 2025.03.11 -- Скрытые марковские модели, направленные графические модели
Это лекция из курса "Графические вероятностные модели", который читается на Факультете математики и компьютерных наук СПбГУ вместе с двумя другими частями курса машинного обучения -- "Основами байесовского вывода" и "Глубоким обучением". Все материалы этой…
🔥16❤🔥7👍7❤3
Я не хочу превращать этот канал в новостной, про AI-новости и так много каналов с кучей подписчиков. Но сейчас пришла новость, которую хочется прокомментировать.
В своих обзорных докладах (например, здесь) я с прошлой осени неизменно упоминал систему AI Scientist от стартапа Sakana AI, появившуюся 12 августа 2024 года. Это система (open source, можете сами установить), которая ходит к нескольким API (разным LLM и Semantic Scholar в основном), умеет использовать информацию и ресурсы компьютера (сохранять веса моделей) и самостоятельно писать и запускать код экспериментов. На выходе получается полностью автоматически порождённая статья. Статьи в августе 2024-го были, конечно, очень средненькие, на топ-конференцию их бы точно не приняли. Но если бы мне, например, прислали на рецензию такой магистерский диплом, я бы совершенно не удивился и не увидел бы причин ставить низкую оценку — работы вполне компетентные, просто очень инкрементальные и неинтересные.
И вот сегодня (12 марта, буквально пару часов назад) появилась новость о второй версии, The AI Scientist-v2. Новость такая: статью под названием "Compositional Regularization: Unexpected Obstacles in Enhancing Neural Network Generalization" приняли на ICLR 2025 workshop "I Can't Believe It's Not Better: Challenges in Applied Deep Learning", посвящённый анализу того, почему теория с практикой в DL не всегда сходятся.
Статья об AI Scientist-v2 ещё не опубликована, но эксперимент был такой:
— исследователи породили несколько (не знаю сколько, вероятно около десяти) новых статей end-to-end, без человеческого участия;
— выбрали из них три лучших (с человеческим участием);
— подали их на workshop как обычные статьи;
— с организаторами эксперимент был согласован, но рецензенты не знали, какие статьи написаны автоматически, и рецензировали обычным порядком.
В результате из трёх статей одна получила оценки 6, 7, 6 и была бы наверняка принята (но, естественно, её сняли "авторы" после рецензирования). Видимо, это первая по-настоящему полностью автоматически порождённая статья, прошедшая серьёзный peer review (про несерьёзный review и Герберта Шлангеманна я рассказывал раньше) и принятая в хорошее место.
Я хочу, пока новость очень свежа, register a prediction: AI-скептики совершенно никак свои мнения под влиянием этих результатов не обновят.
Мы услышим как минимум следующие аргументы:
— это очень инкрементальный прогресс, ничего гениального или особенно интересного в статье нет;
— это всего лишь workshop, а не сама конференция ICLR, планка значительно ниже;
— процесс рецензирования вообще очень стохастический, вон от Шлангеманна тоже статьи принимали.
Все эти замечания, на мой взгляд, абсолютно справедливы, я сам не раз утешал молодых учёных третьим аргументом. :) Но если вы исследователь (не обязательно в области AI), представьте себе, что в начале 2020-го года вы услышали предсказание о том, что через пять лет AI-модели будут писать статьи с настоящими новыми (пусть инкрементальными) результатами, которые будут принимать на настоящие workshop'ы при ведущих конференциях с настоящим рецензированием. Что бы вы подумали о таком предсказании? А если бы в начале 2015-го вам предсказали, что так будет через десять лет?..
Мы забываем, насколько стремительно ускоряется прогресс. Кажется, что всегда так было — новые удивительные возможности AI-моделей всегда появлялись каждую неделю. Но нет, ещё совсем недавно было совершенно не так. Как говорится, you are here (источник картинки).
Об этой новости, как и о многом другом, мы обязательно поговорим в воскресенье — приходите! (регистрацию приоткрыли, места ещё есть)
В своих обзорных докладах (например, здесь) я с прошлой осени неизменно упоминал систему AI Scientist от стартапа Sakana AI, появившуюся 12 августа 2024 года. Это система (open source, можете сами установить), которая ходит к нескольким API (разным LLM и Semantic Scholar в основном), умеет использовать информацию и ресурсы компьютера (сохранять веса моделей) и самостоятельно писать и запускать код экспериментов. На выходе получается полностью автоматически порождённая статья. Статьи в августе 2024-го были, конечно, очень средненькие, на топ-конференцию их бы точно не приняли. Но если бы мне, например, прислали на рецензию такой магистерский диплом, я бы совершенно не удивился и не увидел бы причин ставить низкую оценку — работы вполне компетентные, просто очень инкрементальные и неинтересные.
И вот сегодня (12 марта, буквально пару часов назад) появилась новость о второй версии, The AI Scientist-v2. Новость такая: статью под названием "Compositional Regularization: Unexpected Obstacles in Enhancing Neural Network Generalization" приняли на ICLR 2025 workshop "I Can't Believe It's Not Better: Challenges in Applied Deep Learning", посвящённый анализу того, почему теория с практикой в DL не всегда сходятся.
Статья об AI Scientist-v2 ещё не опубликована, но эксперимент был такой:
— исследователи породили несколько (не знаю сколько, вероятно около десяти) новых статей end-to-end, без человеческого участия;
— выбрали из них три лучших (с человеческим участием);
— подали их на workshop как обычные статьи;
— с организаторами эксперимент был согласован, но рецензенты не знали, какие статьи написаны автоматически, и рецензировали обычным порядком.
В результате из трёх статей одна получила оценки 6, 7, 6 и была бы наверняка принята (но, естественно, её сняли "авторы" после рецензирования). Видимо, это первая по-настоящему полностью автоматически порождённая статья, прошедшая серьёзный peer review (про несерьёзный review и Герберта Шлангеманна я рассказывал раньше) и принятая в хорошее место.
Я хочу, пока новость очень свежа, register a prediction: AI-скептики совершенно никак свои мнения под влиянием этих результатов не обновят.
Мы услышим как минимум следующие аргументы:
— это очень инкрементальный прогресс, ничего гениального или особенно интересного в статье нет;
— это всего лишь workshop, а не сама конференция ICLR, планка значительно ниже;
— процесс рецензирования вообще очень стохастический, вон от Шлангеманна тоже статьи принимали.
Все эти замечания, на мой взгляд, абсолютно справедливы, я сам не раз утешал молодых учёных третьим аргументом. :) Но если вы исследователь (не обязательно в области AI), представьте себе, что в начале 2020-го года вы услышали предсказание о том, что через пять лет AI-модели будут писать статьи с настоящими новыми (пусть инкрементальными) результатами, которые будут принимать на настоящие workshop'ы при ведущих конференциях с настоящим рецензированием. Что бы вы подумали о таком предсказании? А если бы в начале 2015-го вам предсказали, что так будет через десять лет?..
Мы забываем, насколько стремительно ускоряется прогресс. Кажется, что всегда так было — новые удивительные возможности AI-моделей всегда появлялись каждую неделю. Но нет, ещё совсем недавно было совершенно не так. Как говорится, you are here (источник картинки).
Об этой новости, как и о многом другом, мы обязательно поговорим в воскресенье — приходите! (регистрацию приоткрыли, места ещё есть)
👍27❤🔥11🤯9❤5
На этой неделе было совсем не до игр, всю неделю не поднимая головы что-то пишу, готовлю слайды, где-то выступаю и готовлюсь выступать ещё. Но пятничный пост от этого только лучше выйдет.
Оказывается, сегодня юбилей: ровно десять лет назад, 14 марта 2015 года, Элиезер Юдковский выложил последнюю часть "Harry Potter and the Methods of Rationality" (HPMoR). Рационалисты всего мира организуют митапы в честь этого события, в списке даже Москва есть. Я, конечно, на митапы не собираюсь, но для меня это тоже важная книга.
Думаю, мои читатели знают, что такое HPMoR, но если вдруг нет, очень рекомендую прочитать (есть и русский перевод, хотя за его качество не ручаюсь, не читал). По форме это фанфик, в котором вселенная Гарри Поттера пересмотрена с позиций науки, логики и критического мышления. А по сути — введение в научный метод, прикладную рациональность, байесовскую статистику, когнитивные искажения и прочие смежные области, изложенное в очень увлекательной форме. Фанфик получил огромную популярность, см. хотя бы раздел "Critical response" в википедии; о продажах говорить не приходится, потому что это фанфик по чужой интеллектуальной собственности, но в списках самых читаемых фанфиков HPMoR стабильно в топе.
Конечно, такие книги лучше читать в юном возрасте, потому что они, как пишет один критик, не просто "challenging", но ещё и "mind altering". Но я впервые читал как раз примерно десять лет назад, уже далеко не подростком, и всё равно это было очень неожиданно и круто. Даже перечитывал ещё раз несколько лет спустя.
Могу попробовать сформулировать, в чём главный эффект: многие люди (и я в том числе) изучают разные науки, в том числе математику с теорвером, и вполне понимают происходящее, но у них в голове наука и "реальная жизнь" — это separate magisteria, разные сферы жизни, которые никак не пересекаются. HPMoR учит тебя (на примере магии в Хогвартсе, ага), что научный метод, оценки вероятностей и т.д. — это важный скилл, который можно и нужно применять к своей собственной жизни. Эта идея может огорошить человека, к ней не подготовленного.
После HPMoR рекомендую и "Rationality: from AI to Zombies" Юдковского прочитать, это большой сборник non-fiction эссе на примерно те же темы, уже без сюжета и без Гарри Поттера, но тоже очень интересно. Элиэзер Юдковский — один из отцов-основателей AI safety, очень важной области, о которой я вам ещё не раз расскажу в ближайшем будущем.
И вот так сложилось, что в 2025 году я снова вспомнил про величайший фанфик всех времён. На Новый год прекрасная Ира @fuesis сделала мне воистину царский подарок: настоящее физическое издание книг HPMoR; спасибо!!! Перечитал их с большим удовольствием, вспомнил молодость, а тут и юбилей книги подоспел. Так что вот, рассказываю вам.
Оказывается, сегодня юбилей: ровно десять лет назад, 14 марта 2015 года, Элиезер Юдковский выложил последнюю часть "Harry Potter and the Methods of Rationality" (HPMoR). Рационалисты всего мира организуют митапы в честь этого события, в списке даже Москва есть. Я, конечно, на митапы не собираюсь, но для меня это тоже важная книга.
Думаю, мои читатели знают, что такое HPMoR, но если вдруг нет, очень рекомендую прочитать (есть и русский перевод, хотя за его качество не ручаюсь, не читал). По форме это фанфик, в котором вселенная Гарри Поттера пересмотрена с позиций науки, логики и критического мышления. А по сути — введение в научный метод, прикладную рациональность, байесовскую статистику, когнитивные искажения и прочие смежные области, изложенное в очень увлекательной форме. Фанфик получил огромную популярность, см. хотя бы раздел "Critical response" в википедии; о продажах говорить не приходится, потому что это фанфик по чужой интеллектуальной собственности, но в списках самых читаемых фанфиков HPMoR стабильно в топе.
Конечно, такие книги лучше читать в юном возрасте, потому что они, как пишет один критик, не просто "challenging", но ещё и "mind altering". Но я впервые читал как раз примерно десять лет назад, уже далеко не подростком, и всё равно это было очень неожиданно и круто. Даже перечитывал ещё раз несколько лет спустя.
Могу попробовать сформулировать, в чём главный эффект: многие люди (и я в том числе) изучают разные науки, в том числе математику с теорвером, и вполне понимают происходящее, но у них в голове наука и "реальная жизнь" — это separate magisteria, разные сферы жизни, которые никак не пересекаются. HPMoR учит тебя (на примере магии в Хогвартсе, ага), что научный метод, оценки вероятностей и т.д. — это важный скилл, который можно и нужно применять к своей собственной жизни. Эта идея может огорошить человека, к ней не подготовленного.
После HPMoR рекомендую и "Rationality: from AI to Zombies" Юдковского прочитать, это большой сборник non-fiction эссе на примерно те же темы, уже без сюжета и без Гарри Поттера, но тоже очень интересно. Элиэзер Юдковский — один из отцов-основателей AI safety, очень важной области, о которой я вам ещё не раз расскажу в ближайшем будущем.
И вот так сложилось, что в 2025 году я снова вспомнил про величайший фанфик всех времён. На Новый год прекрасная Ира @fuesis сделала мне воистину царский подарок: настоящее физическое издание книг HPMoR; спасибо!!! Перечитал их с большим удовольствием, вспомнил молодость, а тут и юбилей книги подоспел. Так что вот, рассказываю вам.
🔥24❤🔥9❤5👍1🤮1💩1
Первый доклад в новом CS Space прошёл в воскресенье. Кажется, прошёл успешно, как будет видео, обязательно выложу. Пока прислали фоточки, так что вот вам минутка самолюбования. :) На последних фото — организаторы CS Space, которым большое спасибо за приглашение и огромных успехов в этом начинании! Подписывайтесь на канал CS Space и приходите на будущие курсы и лекции.
Но уже пора анонсировать следующий мой доклад: в это воскресенье поговорим о том, какие есть риски, связанные с развитием искусственного интеллекта, и как мы, человечество, с этими рисками пытаемся справиться. Spoiler: риски есть, а пытаемся явно недостаточно.
Первый доклад я планировал разделить на две части, и первую сделать более популярной, а вторую — более технической. В итоге один "популярный" раздел пришлось перенести на вторую лекцию, но это было не так уж важно: к счастью, в перерыве ушли немногие, и вроде бы слушателям было интересно. В этот раз тоже попробуем по той же схеме: в первой части расскажу о рисках популярно и на уровне махания руками, а во второй — о современных исследованиях, которые пытаются эти риски так или иначе уменьшить.
Приходите! Тема стала более узкой и более... ммм... дискомфортной; так что думаю, что в этот раз проблем с переполнением быть не должно.
Но уже пора анонсировать следующий мой доклад: в это воскресенье поговорим о том, какие есть риски, связанные с развитием искусственного интеллекта, и как мы, человечество, с этими рисками пытаемся справиться. Spoiler: риски есть, а пытаемся явно недостаточно.
Первый доклад я планировал разделить на две части, и первую сделать более популярной, а вторую — более технической. В итоге один "популярный" раздел пришлось перенести на вторую лекцию, но это было не так уж важно: к счастью, в перерыве ушли немногие, и вроде бы слушателям было интересно. В этот раз тоже попробуем по той же схеме: в первой части расскажу о рисках популярно и на уровне махания руками, а во второй — о современных исследованиях, которые пытаются эти риски так или иначе уменьшить.
Приходите! Тема стала более узкой и более... ммм... дискомфортной; так что думаю, что в этот раз проблем с переполнением быть не должно.
❤21🔥15❤🔥5
Forwarded from CS Space
– Страница мероприятия
– 23 марта, 14:00 – 17:30
– Мраморный зал, ПОМИ РАН, наб. реки Фонтанки, 27, Санкт-Петербург
– Пожалуйста, не забудьте зарегистрироваться — это необходимое условие посещения ПОМИ РАН.
Сергей Николенко — учёный, преподаватель и практик в области машинного обучения и информатики в целом. Доктор физико-математических наук, сотрудник ПОМИ РАН, преподаватель в СПбГУ, Harbour Space University, ИТМО и НИУ ВШЭ, Head of AI в компании Synthesis AI, автор более 200 научных публикаций и нескольких книг, в том числе бестселлера «Глубокое обучение» (Питер, 2018), монографии «Synthetic Data for Deep Learning» (Springer, 2021) и прямо сейчас появляющейся в продаже книги «Машинное обучение: Основы» (Питер, 2025). Сергей ведёт исследования в разных областях, от улучшения больших языковых моделей до анализа алгоритмов и теоретической информатики, применяет машинное обучение в реальных проектах, пишет посты и книги, ведет телеграм-канал «Sinекура» (@sinecor), а также стал двукратным чемпионом мира по «Что? Где? Когда?».
Многие исследователи считают, что создание настоящего сильного искусственного интеллекта (artificial general intelligence, AGI) уже не за горами. Во второй части нашего разговора мы именно это и обсудим: когда появится AGI, как мы об этом узнаем и, главное, готовы ли мы к этому? Нужно ли нам бояться AGI и если нужно, то чего именно и над чем нам в этом контексте работать? Почему такие люди, как Джеффри Хинтон, Йошуа Бенджи и Билл Гейтс, говорят, что создание AGI может быть экзистенциальным риском для человечества?
В этой части я надеюсь не только поговорить о рисках, но и дать достаточно полный обзор основных направлений исследований, которые люди сейчас ведут в области AI safety. Это очень молодая область, и очень сложная — в основном мы не знаем даже, как хорошо поставить ту или иную задачу. Но заниматься ей надо, и мы поговорим о том, как люди пытаются это делать. Как и в первой части, доклад не будет требовать глубокого знания технических аспектов машинного обучения, но некоторые идеи я всё-таки надеюсь рассказать.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍13❤11🔥7🤮1
Видео из CS Space появилось, но пока оно мне не нравится: слайды в нём почему-то сильно засвечены, что иногда прямо мешает восприятию. Так что постараюсь переделать, а пока вот вчерашние лекции из СПбГУ по расписанию.
Мы в прошлый раз начали, а в этот продолжили говорить о графических вероятностных моделях. По сути это удобный и элегантный способ (точнее, несколько разных способов) представить сложные вероятностные зависимости в виде графа. Узлы такого графа — это случайные переменные, а связи между ними показывают, как они влияют друг на друга (точнее, их условные и безусловные [не]зависимости между собой).
Когда впервые слышишь о графических моделях, на ум приходят применения вроде представления знаний и вероятностного вывода в стиле MYCIN из 1970-х: как по набору симптомов, уложенному в такой граф экспертным путём, поставить диагноз. Изначально для этого графические модели в 1980-х и разрабатывались, и такие применения, конечно, тоже есть.
Но на самом деле это просто язык, на котором говорят целые большие разделы машинного обучения. Как объяснить, например, ваш вариант скрытой марковской модели или тематической модели LDA? Можно — и нужно, конечно! — написать новые, изменившиеся формулы. Скорее всего, у вашей модели есть что-то общее с базовой, но в ней появились новые переменные, а в правдоподобии, соответственно, — новые сомножители. Но формулы часто бывает не так легко понять интуитивно, и если в дополнение к формуле нарисовать графическую модель, то структура ваших предположений сразу станет гораздо понятнее. На этом языке мы и дальше будем постоянно "разговаривать" в курсе.
Кроме того, в некоторых случаях такие графы полезны и непосредственно. Если фактор-граф модели представляет собой дерево, то на нём можно запустить простой и быстрый алгоритм передачи сообщений, который сделает точный вероятностный вывод (маргинализацию). Это было основное техническое содержание первой части лекции.
Но алгоритм передачи сообщений помогает не так часто; обычно фактор-граф сложной модели всё-таки отнюдь не является деревом, и нужно вести приближённый вывод. Поэтому во второй части мы начали говорить о сэмплировании; о нём напишу в следующий раз, когда доберёмся до методов Markov chain Monte Carlo (MCMC).
https://www.youtube.com/watch?v=PUXyA0FbRbk
Мы в прошлый раз начали, а в этот продолжили говорить о графических вероятностных моделях. По сути это удобный и элегантный способ (точнее, несколько разных способов) представить сложные вероятностные зависимости в виде графа. Узлы такого графа — это случайные переменные, а связи между ними показывают, как они влияют друг на друга (точнее, их условные и безусловные [не]зависимости между собой).
Когда впервые слышишь о графических моделях, на ум приходят применения вроде представления знаний и вероятностного вывода в стиле MYCIN из 1970-х: как по набору симптомов, уложенному в такой граф экспертным путём, поставить диагноз. Изначально для этого графические модели в 1980-х и разрабатывались, и такие применения, конечно, тоже есть.
Но на самом деле это просто язык, на котором говорят целые большие разделы машинного обучения. Как объяснить, например, ваш вариант скрытой марковской модели или тематической модели LDA? Можно — и нужно, конечно! — написать новые, изменившиеся формулы. Скорее всего, у вашей модели есть что-то общее с базовой, но в ней появились новые переменные, а в правдоподобии, соответственно, — новые сомножители. Но формулы часто бывает не так легко понять интуитивно, и если в дополнение к формуле нарисовать графическую модель, то структура ваших предположений сразу станет гораздо понятнее. На этом языке мы и дальше будем постоянно "разговаривать" в курсе.
Кроме того, в некоторых случаях такие графы полезны и непосредственно. Если фактор-граф модели представляет собой дерево, то на нём можно запустить простой и быстрый алгоритм передачи сообщений, который сделает точный вероятностный вывод (маргинализацию). Это было основное техническое содержание первой части лекции.
Но алгоритм передачи сообщений помогает не так часто; обычно фактор-граф сложной модели всё-таки отнюдь не является деревом, и нужно вести приближённый вывод. Поэтому во второй части мы начали говорить о сэмплировании; о нём напишу в следующий раз, когда доберёмся до методов Markov chain Monte Carlo (MCMC).
https://www.youtube.com/watch?v=PUXyA0FbRbk
YouTube
СПбГУ -- 2025.03.18 -- Алгоритм передачи сообщений, сэмплирование в машинном обучении
Это лекция из курса "Графические вероятностные модели", который читается на Факультете математики и компьютерных наук СПбГУ вместе с двумя другими частями курса машинного обучения -- "Основами байесовского вывода" и "Глубоким обучением". Все материалы этой…
🔥16❤🔥4🤣1
Видео из CS Space цветокорректировали, и оно стало гораздо лучше. Меня всё ещё подмывает всё переделать и вставить слайды картинками, но на это надо потратить несколько часов, а прорекламировать канал CS Space всё равно хорошо и правильно, так что вот вам ссылка пока что на него.
А почему у меня нет на это сейчас нескольких часов? Потому что я готовлюсь к лекциям в воскресенье! В отличие от первой части, стандартного доклада "State of AI", который у меня просто обновляется последними новостями (и всё равно такое обновление занимает день-два перед каждой итерацией), подробные лекции об AI Safety мне приходится делать почти с нуля. Сейчас у меня около двухсот слайдов, и конца пока не видно.)
Поэтому в анонсе доклада я не мог пообещать ничего, кроме общих слов — а теперь уже могу! Мы поговорим не только о том, как AGI выбирается из ящика, заменяет всех программистов и покрывает мир канцелярскими скрепками, хотя и об этом тоже. Но главное — я постараюсь обсудить основные разделы и результаты сегодняшнего AI Safety:
— основные определения (там много интересного, определять такие вещи трудно);
— goodharting (термин от "Goodhart's Law", покрывающий specification gaming, reward hacking и тому подобные вещи);
— интерпретируемость (в основном mechanistic interpretability по Крису Ола);
— то, что я назвал "sparks of misalignment": интересные примеры поведения LLM и других AI-агентов, в том числе очень свежие.
В начале года, кстати, вышел большой отчёт о рисках и состоянии AI safety, первым автором в котором был не кто-нибудь, а Йошуа Бенджи; мысли оттуда мы тоже обсудим.
Регистрируйтесь и приходите! Сейчас, когда все темы и основные идеи новых лекций у меня уже определились, я искренне считаю, что этот доклад будет интереснее первого.
https://www.youtube.com/watch?v=fCOr8qX0sG0&ab_channel=ComputerScienceSpace
А почему у меня нет на это сейчас нескольких часов? Потому что я готовлюсь к лекциям в воскресенье! В отличие от первой части, стандартного доклада "State of AI", который у меня просто обновляется последними новостями (и всё равно такое обновление занимает день-два перед каждой итерацией), подробные лекции об AI Safety мне приходится делать почти с нуля. Сейчас у меня около двухсот слайдов, и конца пока не видно.)
Поэтому в анонсе доклада я не мог пообещать ничего, кроме общих слов — а теперь уже могу! Мы поговорим не только о том, как AGI выбирается из ящика, заменяет всех программистов и покрывает мир канцелярскими скрепками, хотя и об этом тоже. Но главное — я постараюсь обсудить основные разделы и результаты сегодняшнего AI Safety:
— основные определения (там много интересного, определять такие вещи трудно);
— goodharting (термин от "Goodhart's Law", покрывающий specification gaming, reward hacking и тому подобные вещи);
— интерпретируемость (в основном mechanistic interpretability по Крису Ола);
— то, что я назвал "sparks of misalignment": интересные примеры поведения LLM и других AI-агентов, в том числе очень свежие.
В начале года, кстати, вышел большой отчёт о рисках и состоянии AI safety, первым автором в котором был не кто-нибудь, а Йошуа Бенджи; мысли оттуда мы тоже обсудим.
Регистрируйтесь и приходите! Сейчас, когда все темы и основные идеи новых лекций у меня уже определились, я искренне считаю, что этот доклад будет интереснее первого.
https://www.youtube.com/watch?v=fCOr8qX0sG0&ab_channel=ComputerScienceSpace
YouTube
State of AI: Откуда мы пришли, кто мы и куда мы идём? | Сергей Николенко
– Сергей Николенко, https://t.me/sinecor
– Страница мероприятия: https://csspace.io/open-lecture/2025-stateAI
– Telegram: https://t.me/csspace_io
00:23 Революции AI
13:00 ML, DL, трансформеры…
01:11:34 Масштабирование и прогресс
01:41:18 Примеры возможностей…
– Страница мероприятия: https://csspace.io/open-lecture/2025-stateAI
– Telegram: https://t.me/csspace_io
00:23 Революции AI
13:00 ML, DL, трансформеры…
01:11:34 Масштабирование и прогресс
01:41:18 Примеры возможностей…
❤25❤🔥9🔥9👍5🤯1🥴1