Sinекура
3.34K subscribers
916 photos
15 videos
261 links
Канал Сергея Николенко обо всём, но в основном об AI.

Сайт с выступлениями, лекциями и публикациями: https://sergeynikolenko.ru/
Download Telegram
В среду будет второй доклад на семинаре лаборатории Маркова. На этот раз рассказывать будет Константин Яковлев, собственно заведующий лабораторией. Обещался рассказать потенциальные задачки и проекты, должно быть интересно и разнообразно — заходите в Zoom на огонёк! Вот анонс:

Search. Plan. Learn.
Ищи. Планируй. Учись.


Константин Яковлев

Ссылка на трансляцию (среда 24 сентября, 14:00)

Способность искать и находить решение нетривиальных задач, планировать на несколько шагов вперёд и обучаться (на чужом или собственном опыте) — эти свойства традиционно приписывают интеллектуальным системам (или, как это принято сейчас говорить, искусственному интеллекту). Неудивительно, что эти (под)области ИИ активно развивались с самого зарождения этой науки и развиваются до сих пор.

В рамках доклада мы рассмотрим ряд интересных и практически мотивированных задач, которые решаются исследователями с помощью методов эвристического поиска, автоматического планирования и машинного обучения и которые входят в сферу моих интересов. Например: как спланировать множество неконфликтных путей для n мобильных агентов, действующих в общей среде? Или: как решить сложную логическую головоломку вроде кубика Рубика? Или: как по данным датчиков от робота построить карту местности, в которой он перемещается? Особое внимание будет уделено открытым задачам, не имеющим в настоящий момент решения, но которые (на мой взгляд) вполне под силу решить в рамках курсовой/дипломной работы и внести свой вклад в науку.

Я надеюсь, что этот доклад придаст мотивации тем из вас, кто хочет заняться научной деятельностью, и поможет сориентироваться тем, кто сейчас выбирает тему КР/ВКР.

#markovlab #seminar #spsu
🔥149
Завёл страничку для семинара лаборатории Маркова и выложил туда первый доклад (тот самый, что я тут рекламировал на прошлой неделе, про influence functions):

Страница семинара лаборатории Маркова

Прямая ссылка на мой доклад на YouTube

Слайды тоже на странице семинара выкладываются. Надеюсь, и дальше будем делать записи, хотя, скорее всего, они будут в виде слайдов и звука — некому будет их постоянно монтировать. Да и не надо, как видите, видео в тёмной аудитории с проектором получается, мягко скажем, сомнительное.

Но доклад, кажется, и правда вышел интересный; постарался сохранить баланс между углублением в математические идеи influence functions и разнообразием идей всяких других.

#markovlab #seminar #spsu
14🔥8🙏3
Меня попросили прорекламировать среди студентов, но кажется, что здесь тоже могут быть заинтересованные люди. Мопед не мой, но я лично ручаюсь, что дело хорошее, и делают его очень хорошие люди.)

Клуб спортивного автостопа (телеграм-канал) объявляет новый набор и будет рад всех видеть на Дне открытых дверей вечером в воскресенье 28 сентября.

28 сентября, 19:00, Артклауд
(м. Владимирская, Кузнечный переулок, д. 6)


Автостоп — это не только способ добраться до точки B на халяву, но и действительно целый спорт, с правилами, состязаниями и даже, кажется, неофициальными, но спортивными званиями. Сам бывал, в гонке одной участвовал, подтверждаю, что дело очень интересное. Но главное, конечно, в том, что в этом клубе люди хорошие.) Ну и скилл по жизни действительно полезный, безотносительно гонок и званий.

Приходите послушать весёлые истории профессиональных автостопщиков, а там, глядишь, и поучаствовать захочется.
34🤯6👍2
Четвёртая лекция курса "Основы байесовского вывода":

СПбГУ — 2025.09.25 — Линейная регрессия
(слайды и ноутбук на странице курса)

Заканчиваем разговор о линейной регрессии, проводя собственно байесовский вывод в ней. Как я и говорю в этой лекции, это самый важный пример в курсе: он уже точно полностью настоящий, но при этом ещё всё выводится и всё можно достаточно наглядно нарисовать. Если вы понимаете, что нарисовано на картиночках, которые я показываю в середине лекции, — вы понимаете байесовский вывод.

В линейной регрессии даже и предсказательное распределение можно вывести аналитически; это упражнение я тоже из года в год делаю. Конечно, на этот вывод ничего дальше в курсе не завязано, но думаю, что это полезно для здоровья и духоподъёмно.

#spsu #lectures #bayes2025
👍154🔥1🎄1
Сегодня у нас очень добрая уютная игра; вот полная версия поста:

Caravan SandWitch

Маленький open world — почти оксюморон, но Caravan SandWitch справляется. В первую очередь это ужасно добрая игра, comfort game, которая вас согреет ярким солнышком, напоит тёплым чайком и обнимет всеми руками всех NPC сразу, включая роботов, младенцев и разумных лягушек, недавно отделившихся от великой грибницы. Сложности здесь никакой нет, зато есть много приятного исследования окружающего мира.

Формально Caravan SandWitch — это open world adventure с элементами метроидвании. Главная героиня ездит по компактному, но на удивление богатому и разнообразному открытому миру на милом фургончике, выполняя квесты и собирая collectibles. Время от времени фургончик получает апгрейд одного из инструментов — или сканера, который потом обучится хакингу и сможет открывать некоторые закрытые двери, или специального выстреливающего кабеля, который со временем приобретёт сразу много разных свойств.

Сюжет достаточно предсказуем: ты возвращаешься на родную планету Cigalo (понятия не имею, как это правильно произносить) искать пропавшую сестру, от которой вдруг поступило загадочное сообщение. По ходу дела приходится разобраться, что вообще на родной планете происходит, как большая межзвёздная корпорация её бросила, решить проблемы всех, кто на планете живёт, и так далее.

Но есть важные подробности. Во-первых, персонажи: они и сами прописаны хорошо, и взаимоотношения между ними достаточно разнообразные (но все милые и тёплые!). Во-вторых, мир и его история: лор достаточно богатый, мир хоть и маленький, но очень разнообразный. Достаточно сказать, что на Cigalo обитает раса разумных существ, внешне похожих на лягушек, но в реальности являющихся, видимо, грибами, как Владимир Ильич.

Локации сделаны очень хорошо. Они тоже маленькие и компактные, но дают много возможностей для исследования, много мини-загадок, не представляющих интеллектуального интереса, но открывающих зачастую новые неожиданные места и кусочки лора. Мне так понравилось исследовать мир, что я не поленился выполнить все сайд-квесты.

Но в первую очередь это игра про настроение, про вайб, расслабляющий, почти терапевтичный опыт. Думаю, не случайно в Caravan SandWitch нет смены дня и ночи: там всегда солнечно, уютно и безопасно. И в то же время слегка меланхолично — всё-таки мир постапокалиптический; музыка всем этим вайбам тоже весьма способствует. Врагов никаких нет, срочности никакой нет, нельзя даже разбиться, прыгнув с большой высоты. Все NPC очень дружелюбные и милые, никакого конфликта нет, и даже пресловутая “песчаная ведьма” в итоге, конечно же, никакой угрозой не является.

Единственный минус этого на мой личный взгляд — то, что через всю игру идёт этакий вайб, который я даже не знаю как назвать, поэтому назову, рискуя обидеть целое поколение, “зумерским”. Все тексты написаны так, как будто все персонажи этого постапокалиптического мира, испытывающего буквально проблемы с едой, регулярно ходят к терапевту и проходят тренинги по бережной коммуникации. Все герои проговаривают свои чувства словами через рот, принимают друг друга с первого слова, во всей игре нет ни одного конфликта между персонажами. С одной стороны, я понимаю, что так и задумано, но с другой, это требует куда большего suspension of disbelief, чем говорящие лягушки.

Но это мелочи, а в целом я рекомендую Caravan SandWitch всем, кто хочет расслабиться, потыкать в кнопочки без напряга и получить милую тёплую историю и красивый мир, который интересно исследовать. Несколько приятных вечеров гарантированы.

#games #tgif
14👍7🥰6🤔31🐳1
А на курсе "Глубокое обучение" закончили разговор о дотрансформенном компьютерном зрении.

СПбГУ — 2025.09.25 — Распознавание объектов и сегментация

Сначала закончил про object detection, рассказал о том, почему разный масштаб и маленькие объекты — это сложно, и что люди пытались с этим делать. А потом рассказал о нейросетевых подходах к сегментации: сначала о семантической, от FCN через DeconvNet/SegNet до U-Net, а затем об instance segmentation, в которой главным примером была, конечно, модель Mask R-CNN. Как всегда, рассказываю не о конкретных решениях (кому это надо), а об идеях, которые могут пригодиться где-то ещё.

Дальше уже будем двигаться к механизмам внимания — хочется дойти до чего-нибудь хотя бы относительно современного, и в этом году, кажется, есть все шансы.

#spsu #lectures #dl2025
20
Наконец-то на этом канале начинает появляться не только мой личный контент.) Рад представить второй доклад на семинаре лаборатории Маркова, от его заведующего Константина Яковлева:

Семинар Markov Lab — 2025.09.25 — Search. Plan. Learn

Константин рассказывал о сразу многих задачах, которые условно связаны с темой алгоритмов поиска и планирования, в смысле MCTS или A*, а не в смысле retrieval. В частности, поставил несколько задач, которые, кажется, можно смело брать и решать; в этом и была задумка — предложить сразу несколько возможных тем для курсовых/дипломов, которые были бы при этом настоящими, но не слишком сложными научными продвижениями.

Спасибо Константину, а через пару семинаров мы начнём, кажется, очень интересную и куда более математически глубокую тему; но об этом позже...

#markovlab #seminar #spsu
29🔥8👍3
Следущий семинар будет скорее обзорно-познавательным, о том, как работает RLHF и вообще RL для LLM fine-tuning, что нового в это привнёс DeepSeek и немного о том, как это работает на практике.

Но думаю, что будет интересно как минимум из-за личности докладчика. Кирилл Тыщук когда-то был моим студентом в СПбГУ, потом уехал сначала в Москву — в Сколтех и Яндекс — а потом и дальше, в Perplexity AI. И сейчас как раз находится между двумя работами: переходит из Perplexity AI в Google DeepMind. Кажется, этот взгляд на RL для LLM может быть интересным.)

Пост-обучение LLM с подкреплением: последние новости в алгоритмах и их наградах


Кирилл Тыщук
ex-Yandex, ex-Perplexity AI
Incoming Research Engineer, DeepMind

Ссылка на трансляцию (среда 1 октября, 14:00)

Мы проведём обзорную экскурсию по современным алгоритмам обучения с подкреплением для больших языковых моделей. Кратко напомним стандартный пайплайн обучения LLM, разберём, почему на финальном этапе нужна именно RL-оптимизация и как конструируются награды.

А затем подробнее остановимся на технических деталях самых популярных алгоритмов:
— базовый PPO, которым обучали первый ChatGPT;
— простой DPO, который делает "RL без RL";
— новый GRPO + verifiable rewards, которым обучали DeepSeek R1.

#markovlab #seminar #spsu
48🔥12👍10
С блогом Synthesis AI вышел неприятный случай — когда умер мой корпоративный Google-аккаунт, из большинства постов вдруг пропали все картинки. Оказалось, что они почему-то не подгружались на wordpress, а оставались в виде ссылок на те места, где они на моём Google Drive и лежали.

Аккаунт удалось временно восстановить, но это мне напомнило, что не только аккаунт, но и домен synthesis.ai не вечен, и блог надо спасать. Так что ожидайте очередную порцию ностальгических постов, на этот раз уже из серии о Generative AI и далее.

Generative AI Models in Image Generation: Overview

С этого поста когда-то всё началось; я хотел просто написать пост о том, как модели рисуют картинки, но оказалось, что это только начало. Его можно считать очень высокоуровневым кратким содержанием того, что будет в серии дальше, так что отдельного смысла он практически не имеет.

Variational Autoencoders (VAEs): Generative AI I

Ну а сама серия началась с поста про вариационные автокодировщики, на которых до сих пор основаны диффузионные модели для порождения (они работают в латентном пространстве разных VAE). Мне кажется, в этом посте я нарисовал довольно удачные картинки, и до сих пор их показываю в лекциях про VAE. Ну и вообще изложение получилось довольно стройным, от идеи к реализации, вроде бы всё должно быть понятно.

#longreads #synthesisai
14🤓6