Sinекура
3.34K subscribers
916 photos
15 videos
261 links
Канал Сергея Николенко обо всём, но в основном об AI.

Сайт с выступлениями, лекциями и публикациями: https://sergeynikolenko.ru/
Download Telegram
Пятничный пост сегодня о небольшой, но необычной и интересной игре; как всегда, полностью по ссылке:

OneShot

OneShot — интересное произведение искусства. Одна из тех игр, которые не хочется подробно обсуждать, потому что хочется, чтобы вы играли в неё, ничего не зная заранее. Но я всё-таки немножечко попробую.

Во-первых, это нарративная история. Квест в самом классическом смысле этого слова: суть геймплея OneShot состоит в том, чтобы решать загадки и продвигаться по сюжету, путешествуя из одной локации в другую. Загадки иногда (далеко не всегда!) решаются буквально применением собранных предметов в нужные места. Но это, конечно, далеко не самое интересное, что есть в этой игре.

Главный герой по имени Нико (кажется, в игре нигде не сказано определённо, мальчик это или девочка) носит кошачьи ушки и смотрит на мир кошачьими глазками, но регулярно называет себя “обычным ребёнком” и отказывается самоидентифицироваться как кот. Завязка сюжета состоит в том, что Нико просыпается в незнакомой комнате и вскоре узнаёт, что ему нужно спасти мир, который потерял свет и в результате довольно быстро разрушается. Чтобы это сделать, нужно принести на самую высокую башню Солнце, которое представляет собой обычную электрическую лампочку. Скорее всего, вы уже зеваете и ждёте стандартного приключения с некоторой долей самоиронии вроде лампочки. Но подождите, you ain’t heard nothing yet.

Графически это 2D adventure, сделанная на RPG Maker, так что у самого геймплея есть узнаваемый графический стиль, который ничем особенным от других игр на RPG Maker не отличается.

Но в игре постоянно бывают вставки милых кавайных полноэкранных рисунков, которые появляются в важные сюжетные моменты и настроение которых мне очень понравилось. Они именно что милые, тёплые, эмоциональные и немного детские.

А теперь главное, что поднимает эту игру в моих глазах на два уровня выше. Это будет даже не то чтобы спойлер, я просто расскажу вам эпизод, который происходит в самом начале игры. Буквально первый NPC, которого вы встречаете в игре — это робот, предназначенный для того, чтобы приветствовать мессию и ввести его в курс дела. Да, мессия — это Нико, он несёт в мир солнце, и все, кого он встречает, тут же узнают мессию по лампочке.

Робот сначала рассказывает об этом удивлённому Нико. Потом Нико расспрашивает робота о том, как в этом мире всё устроено. В частности, Нико удивляется тому, что писал на экране компьютер, который был в самой первой комнате.

И робот говорит, что это было предназначено для… человека, сидящего за компьютером, называя того по юзернейму. Более того, оказывается, что Нико, будучи мессией, может напрямую общаться с этим человеком; нужно только закрыть глаза и сосредоточиться.

Я не буду рассказывать дальше, но на этом сломе четвёртой стены построена вся история в игре и многие загадки. Не читайте обзоров со спойлерами и прохождений, просто поиграйте в OneShot, и вы будете приятно удивлены.

Диалоги и вообще тексты в игре, кстати, первоклассные. Иногда — нечасто, но иногда! — проступает то, что Нико всего лишь ребёнок, который совершенно не готов(а) спасать какие-то чужие миры, и это действительно берёт за душу.

Слом четвёртой стены — это то ощущение, которое я очень люблю в играх; от OneShot остаётся то же послевкусие, как от Stanley Parable или Doki Doki Literature Club, только в другой форме, да ещё и с интересными не всегда тривиальными загадками. Попробуйте сами!

#games #tgif
21💘1
В этот раз в курсе "Глубокое обучение" была очень важная тема:

СПбГУ — 2025.10.23 — Глубокие порождающие модели и идея GAN
(слайды и доска на странице курса)

С одной стороны, поговорили о том, что такое вообще порождающие модели. Хотя можно это по-разному объяснять, трудно определить это более конкретно, чем то, что у модели "большой" выход, а не "маленький" (число, вектор вероятностей классов). Мы поговорили о двойственности между порождающими и дискриминирующими моделями (где наивный Байес соответствует логистической регрессии) и о таксономии глубоких порождающих моделей, т.е. порождающих моделей, в которых где-то есть нейросети. Обсудил все те части этой таксономии, о которых не буду рассказывать подробно, а также привёл примеры ранних глубоких авторегрессивных моделей (PixelCNN, WaveNet).

А после всего этого разговора начали обсуждать GAN'ы, то бишь порождающие состязательные сети. Я рассказал общую идею и поставил задачу минимакса, но сильно дальше не продвинулся; разные функции ошибки и вообще прогресс в GAN'ах обсудим в следующий раз.

#spsu #lectures #dl2025
🔥86👍1
Серия докладов про Mamba на семинаре лаборатории Маркова будет продолжаться рассказом про Mamba 2. Смысл этой работы в том, что SSM и механизм внимания — это две стороны одной медали, и можно их объединить так, чтобы сделать гибридную архитектуру ещё более эффективной.

Mamba-2: SSM и механизм внимания
Ссылка на трансляцию (среда 29 октября, 14:00)

Андрей Лаэтин
Лаборатория Маркова, МКН СПбГУ


Мы продолжаем разбор моделей на основе State Space Models и переходим к Mamba-2 — архитектуре, выросшей из идеи Structured State-Space Duality (SSD), которая показывает, что SSM и механизм внимания можно рассматривать как два взгляда на одну и ту же структуру. Этот подход объединяет сильные стороны обоих направлений: эффективность и линейную масштабируемость SSM с выразительностью и гибкостью механизмов внимания.

Мы разберём, как устроен новый слой Mamba-2, чем он отличается от первой версии и как через SSD удаётся свести вычисления к матричным операциям, хорошо оптимизированным под GPU. Именно благодаря этому Mamba-2 работает в несколько раз быстрее Mamba-1 и остаётся конкурентоспособной с трансформерами по качеству на задачах языкового моделирования.

#markovlab #seminar #spsu
🔥143🥰2
А вот пока видео семинара, прошедшего в прошлую среду:

Владислав Ушаков, Максим Романов
Погружение в детали реализации Mamba
(Слайды на странице семинара)

Для доски в этот раз принёс отдельную камеру, а потом её подмонтировал, так что надеюсь, что всё видно хорошо.

А в целом это был доклад во многом вообще о том, как устроены вычисления на GPU. Всем известно, что GPU — это много (тысячи) относительно слабых процессоров, а CPU — мало (десяток) относительно мощных. Но это же значит, что алгоритмы для вычислений на GPU должны быть немного другие, чтобы они смогли использовать этот высокий уровень параллелизма.

Так что мне кажется, что доклад может быть интересен и сам по себе, не только как вторая часть рассказа про современные state space models.

#markovlab #seminar #spsu
🔥163👍1
В популярном, рассчитанном на начинающих курсе "Технологии и фронтиры науки о данных" в ЮФУ прошла третья лекция. Проблемы со звуком, кажется, решились (спасибо комментаторам!), теперь всё звучит так же, как во всех других моих курсах:

ЮФУ — 2025.10.23 — GOFAI, экспертные системы, представление знаний
(слайды и доска на странице курса)

Это последняя сугубо историческая лекция, но уже не про Талоса и аль-Джазари, а про GOFAI шестидесятых и семидесятых, так что я в ней постарался всё-таки проводить параллели с современностью и рассказывать, что дожило до наших дней (спойлер: графы знаний дожили, а остальное в меньшей степени).

Начал с Logic Theorist, внезапно поговорил о том, что такое вообще матлогика и поиск вывода в формальных системах (чуть-чуть), потом Shakey the Robot (это когда нескольким аспирантам дали на лето задание решить компьютерное зрение), ELIZA (которая в 2025 году всё ещё была бейзлайном в статье про тест Тьюринга), SHRDLU и, наконец, машинный перевод в пятидесятые-шестидесятые годы, неизбежный провал которого стал одной из главных причин зимы искусственного интеллекта.

А в семидесятые годы был расцвет экспертных систем: MYCIN и ему подобные жонглировали факторами уверенности (certainty factors), Лотфи Заде разрабатывал нечёткую логику, а потом всё-таки Демпстер и Шейфер сказали, что все эти ваши факторы — это переизобретение обычных вероятностей; о вероятностях, впрочем, будем говорить в следующий раз.

Последний раздел — о представлении знаний. Здесь не знаю, насколько убедительно у меня получилось об этом рассказать, но в любом случае интересно проследить, что представление знаний об окружающем мире эволюционировало от сложного к простому. Были всякие разные идеи, от Квиллиана до Джона Совы, но реально всех победили и дожили до наших дней графы знаний (knowledge graphs), которые во многом являются самым простым из этих формализмов. Графы знаний, на мой взгляд, и прямо сейчас, в 2025 году, недооценённая штука; кстати, в контексте графов знаний я уже смог привести пример из последнего месяца, рассказав о статье, вышедшей 10 октября.

Дальше пойдём в сторону теории вероятностей; постараюсь всё-таки рассказать о главной сути, фундаменте машинного обучения — насколько смогу.

#sfu #lectures #dsfrontiers
13👏5
Семинар сегодня не отличался высокой посещаемостью, что и логично, конечно, для третьей части в серии из четырёх.

Зато из окон лаборатории Маркова виден Исаакиевский собор.

#markovlab #seminar #spsu
🔥269👍2👀1
В курсе "Основы байесовского вывода" сегодня поговорили про байесовский выбор моделей:

СПбГУ — 2025.09.30 — Байесовский выбор моделей
(слайды и доска на странице курса)

Как понять, какая из нескольких возможных моделей лучше для того или иного датасета? Сравнивать правдоподобие недостаточно: у модели, у которой больше параметров, правдоподобие будет почти всегда выше, но это не значит, что она непременно лучше (самое высокое правдоподобие будет, разумеется, при жёстком оверфиттинге).

Как и практически всё в машинном обучении, сравнение моделей тоже происходит из теоремы Байеса: надо сравнивать правдоподобие, да, но после интегрирования по всевозможным параметрам модели, т.е. надо сравнивать знаменатели формулы Байеса, p(D). Так называемые информационные критерии как раз и строят аппроксимации к p(D), и в этой лекции мы рассмотрели байесовский информационный критерий (BIC).

А в последней части лекции начали разговор о так называемом эмпирическом Байесе (empirical Bayes): это та же самая идея, но применённая не к сравнению отдельных моделей, а к выбору гиперпараметров. Здесь всё хорошо видно на примере линейной регрессии; логарифм p(D) для линейной регрессии подсчитали сегодня, до алгоритма доведём в следующий раз.

#spsu #lectures #bayes2025
10🔥2👍1
В прекрасном мультсериале “Disenchantment” (очень рекомендую!) есть раса эльфов, носящих говорящие имена. Они все заканчиваются на -o: Shocko, Watcho, Weirdo, Annoyo и так далее до собственно Elfo, одного из главных героев. С играми тоже так бывает, и сегодня у нас обзоры двух таких маленьких игр-эльфов; обе мне весьма понравились! Полный пост по ссылке:

Игры-эльфы: Carto и Gato Roboto

Carto

Милая небольшая головоломка, которая развивает одну и ту же механику: главная героиня — юный картограф, её карта игрового мира составлена из кусочков (почти всегда квадратных тайлов), и героиня может вращать каждый кусочек по отдельности, составляя из них карту в новых сочетаниях. Нужно только, чтобы тайлы подходили друг к другу, как в Carcassonne. Иногда это просто позволяет тебе пройти в нужное место, а иногда нужно составить специальные формы из тайлов, которые что-нибудь откроют.

Вот пример буквально из трейлера игры, так что спойлером его трудно назвать. Сначала слегка сумасшедшая сова рисует круг на земле и показывает, что тебе туда. Из этого тебе нужно догадаться, что нужно сделать круглую замкнутую речку, и тогда на острове в центре появится новый объект (персонаж в данном случае).

A ещё здесь есть бесконечно добрый и милый сюжет. В нём героиня ищет свою бабушку, летающую где-то на своём стимпанковском воздушном судне, а по дороге знакомится с обитателями разных биомов этого мира и их (порой странноватыми) обычаями. Впрочем, глубины сюжета или мощного лора тут не ждите: один из дизайнеров игры Ли-Куо Чен говорил, что вдохновение для нарратива игры они черпали из Atlas des Géographes d'Orbæ, прекрасной, но детской книги с картинками.

И сюжет, и мягкий юмор прекрасно подходят сути игры: ненавязчивая головоломка часов на пять. Кстати, играл на Steam Deck и могу сказать, что это идеальная игра для гейминга на ходу: одна глава занимает примерно полчаса, то есть как раз одну-две поездки в метро, а главы почти независимы. Рекомендую!

Gato Roboto

Далёкое будущее, а может, и далёкая галактика. Пилот космического корабля по имени Гэри отправляется к планете, с которой получил сигнал бедствия. На планете расположен некий исследовательский центр.

Однако происходит незапланированное: Кики, кошка Гэри, прогулялась по клавиатуре, и космический корабль падает прямо на какую-то лабораторию!

В результате пилот оказывается в ловушке, и спасать его должна Кики. Она оказывается очень смышлёной кошечкой (не то что Майлз!) и отправляется на поиски способа спасти хозяина. Так начинается 2D-метроидвания с очаровательной однобитной графикой, в которой Кики умеет бегать, прыгать, лазать по стенам и плавать, но умирает от первого касания любого врага.

К счастью, Кики вскоре находит костюм меха-робота, в котором у неё появляется health bar, две разные пушки, rocket jump и всё такое.

Я так подробно рассказал о завязке сюжета потому, что о самой игре особенно сказать нечего: это просто хорошая метроидвания (кажется, я недавно уже такое говорил). Главные её особенности — это необычная однобитная графика (один из collectibles в игре — аудиокассеты, которые дают тебе новые “палитры”… то есть заменяют белый цвет на другой оттенок) и забавная история про котика, которая по ходу игры очень хорошо раскрывается.

Но не беспокойтесь, всё закончится хорошо и быстро; Gato Roboto проходится часа за три-четыре (если вы не из этих, которым надо 100%). Ничего особенного, но пройти было приятно, рекомендую.

#games #tgif
7