Сегодня в пятничном посте две очень разные игры, объединённые... да нет, эстетика тоже очень разная. Но обе очень короткие, и обе понравились! Здесь чуть сократил, а полный текст по ссылке:
Две монохромные мини-игры: Minit и s.p.l.i.t
(и вот выложил на DTF)
Minit
Это необычная маленькая метроидвания. Здесь интересный геймплейный твист: каждый забег может продолжаться не больше минуты. Буквально: есть таймер, он идёт от 60 к нулю, и когда доходит до нуля, персонаж умирает и возрождается заново. Сюжетно это обосновано проклятым мечом, который герой подбирает у себя возле дома — и теперь каждый его “день” длится ровно шестьдесят секунд.
Из этого возникает очень любопытный design constraint: хочешь — не хочешь, а надо теперь строить игру так, чтобы за минуту можно было сделать некоторое осмысленное продвижение, пусть не с первого раза. За одну минуту ты успеешь добежать до NPC и получить задание, или найти новый предмет, или убить пару монстров, открывающих путь дальше. Прогресс при этом сохраняется: собранные предметы, открытые проходы, побеждённые враги — всё остаётся, а вот ты сам возвращаешься к последнему “дому”, где успел завести чекпойнт.
И у авторов действительно отлично получилось! Здесь есть и цель (снять проклятие), и не слишком богатый, но логичный и в меру абсурдный сюжет, и несколько колоритных персонажей, и имеющие смысл головоломки (да-да, такие, чтобы можно было решить за минуту, но не без смысла), и юмор, и chiptune-музыка.
В общем, идеальная игра для коротких поездок в транспорте со Steam Deck.
s.p.l.i.t
Здесь лучше рассказать контекст, чем долго обозревать саму игру.
Майк Клубника (да-да, Mike Klubnika) — инди-разработчик из Эстонии, создатель маленьких экспериментальных игр, обычно хорроров. Широкой аудитории он знаком благодаря завирусившейся Buckshot Roulette — симулятору русской рулетки с дробовиком, вышедшему в 2024 году и продавшему 6 млн копий. Buckshot Roulette сделала Клубнику финансово свободным на всю жизнь (его слова) и дала ему возможность делать то, что он хочет.
А хочет он делать короткие, мрачные, “грязные” игры, которые раньше даже в Steam не выходили обычно, а только на itch.io. s.p.l.i.t — как раз одна из таких, последнее творение Клубники.
Вся игра происходит в одной комнате, где ты играешь за хакера, в основном на экранах — терминале с юниксоподобной системой и IRC-чате. Но в игре есть и сама комната: можно откинуться от экрана и увидеть окно, и это пару раз оказывается важно.
Игра занимает часа полтора, но это очень насыщенное время, и не скримерами, а вполне интеллектуальными околохакерскими загадками. Уровень головоломок выдержан отлично: они заставляют подумать, но не фрустрируют.
А рядом в папках лежат много интересных файлов, из которых можно узнать кое-что о той организации, против которой ты действуешь. Рекомендую читать всё; файлы содержат подсказки, но главное — создают атмосферу и рассказывают о мире Майка Клубники.
Игра отлично создаёт нужное состояние: клаустрофобия, тревога и ощущение, что ты делаешь что-то, за что тебя найдут. Спойлерить ничего не буду, игра занимает полтора часа, так что это было бы преступлением. Лучше поиграйте сами.
Но Майк! Почему, ну почему в твоём юниксе нельзя написать cd ../../folder, а можно только cd .., потом cd .., потом cd folder?.. Это, пожалуй, единственный серьёзный недостаток! В остальном — категорически рекомендую и s.p.l.i.t, и другие маленькие игры Майка Клубники.
#tgif #games
Две монохромные мини-игры: Minit и s.p.l.i.t
(и вот выложил на DTF)
Minit
Это необычная маленькая метроидвания. Здесь интересный геймплейный твист: каждый забег может продолжаться не больше минуты. Буквально: есть таймер, он идёт от 60 к нулю, и когда доходит до нуля, персонаж умирает и возрождается заново. Сюжетно это обосновано проклятым мечом, который герой подбирает у себя возле дома — и теперь каждый его “день” длится ровно шестьдесят секунд.
Из этого возникает очень любопытный design constraint: хочешь — не хочешь, а надо теперь строить игру так, чтобы за минуту можно было сделать некоторое осмысленное продвижение, пусть не с первого раза. За одну минуту ты успеешь добежать до NPC и получить задание, или найти новый предмет, или убить пару монстров, открывающих путь дальше. Прогресс при этом сохраняется: собранные предметы, открытые проходы, побеждённые враги — всё остаётся, а вот ты сам возвращаешься к последнему “дому”, где успел завести чекпойнт.
И у авторов действительно отлично получилось! Здесь есть и цель (снять проклятие), и не слишком богатый, но логичный и в меру абсурдный сюжет, и несколько колоритных персонажей, и имеющие смысл головоломки (да-да, такие, чтобы можно было решить за минуту, но не без смысла), и юмор, и chiptune-музыка.
В общем, идеальная игра для коротких поездок в транспорте со Steam Deck.
s.p.l.i.t
Здесь лучше рассказать контекст, чем долго обозревать саму игру.
Майк Клубника (да-да, Mike Klubnika) — инди-разработчик из Эстонии, создатель маленьких экспериментальных игр, обычно хорроров. Широкой аудитории он знаком благодаря завирусившейся Buckshot Roulette — симулятору русской рулетки с дробовиком, вышедшему в 2024 году и продавшему 6 млн копий. Buckshot Roulette сделала Клубнику финансово свободным на всю жизнь (его слова) и дала ему возможность делать то, что он хочет.
А хочет он делать короткие, мрачные, “грязные” игры, которые раньше даже в Steam не выходили обычно, а только на itch.io. s.p.l.i.t — как раз одна из таких, последнее творение Клубники.
Вся игра происходит в одной комнате, где ты играешь за хакера, в основном на экранах — терминале с юниксоподобной системой и IRC-чате. Но в игре есть и сама комната: можно откинуться от экрана и увидеть окно, и это пару раз оказывается важно.
Игра занимает часа полтора, но это очень насыщенное время, и не скримерами, а вполне интеллектуальными околохакерскими загадками. Уровень головоломок выдержан отлично: они заставляют подумать, но не фрустрируют.
А рядом в папках лежат много интересных файлов, из которых можно узнать кое-что о той организации, против которой ты действуешь. Рекомендую читать всё; файлы содержат подсказки, но главное — создают атмосферу и рассказывают о мире Майка Клубники.
Игра отлично создаёт нужное состояние: клаустрофобия, тревога и ощущение, что ты делаешь что-то, за что тебя найдут. Спойлерить ничего не буду, игра занимает полтора часа, так что это было бы преступлением. Лучше поиграйте сами.
Но Майк! Почему, ну почему в твоём юниксе нельзя написать cd ../../folder, а можно только cd .., потом cd .., потом cd folder?.. Это, пожалуй, единственный серьёзный недостаток! В остальном — категорически рекомендую и s.p.l.i.t, и другие маленькие игры Майка Клубники.
#tgif #games
🔥9👍2❤1
У нас наконец-то случился очный семинар, так что сфотографировались на улице.
В Питере холодно, но пахнет весной. А семинар был хороший.
#spsu #markovlab #seminar
В Питере холодно, но пахнет весной. А семинар был хороший.
#spsu #markovlab #seminar
👍24❤11🔥8
И ещё один пост про музыку. Я давеча выкладывал своё сольное выступление на джеме, а теперь вот сделал видео и с выступлением нашего скромного коллектива:
Draft Funk — 2026.03.27 — Jamschool
Снимали на телефоны в довольно тёмном зале, так что качество не очень, и всё снято с примерно одного и того же угла, так что наших басиста и ударника, увы, почти совсем не видно.
Но вообще, как по мне, всё не так уж и плохо получилось! И ансамбль у нас подобрался отличный. Конечно, больше всего нам повезло с вокалом: Юля занимается очень серьёзно, и даже записывает авторские песни, написанные специально для неё; вот её аккаунт на Яндекс.Музыке.
Но и все остальные крутые! Дмитрий на гитаре, Даша на саксофоне, Евгений на бас-гитаре, Семён на ударных, Лена на синтезаторе, а на перкуссии был наш руководитель Эдгар. Спасибо большое всем! Нам ещё, конечно, работать и работать, чтобы хоть что-то получалось, но мы будем стараться.)
#music #lifestyle
Draft Funk — 2026.03.27 — Jamschool
Снимали на телефоны в довольно тёмном зале, так что качество не очень, и всё снято с примерно одного и того же угла, так что наших басиста и ударника, увы, почти совсем не видно.
Но вообще, как по мне, всё не так уж и плохо получилось! И ансамбль у нас подобрался отличный. Конечно, больше всего нам повезло с вокалом: Юля занимается очень серьёзно, и даже записывает авторские песни, написанные специально для неё; вот её аккаунт на Яндекс.Музыке.
Но и все остальные крутые! Дмитрий на гитаре, Даша на саксофоне, Евгений на бас-гитаре, Семён на ударных, Лена на синтезаторе, а на перкуссии был наш руководитель Эдгар. Спасибо большое всем! Нам ещё, конечно, работать и работать, чтобы хоть что-то получалось, но мы будем стараться.)
#music #lifestyle
❤15🔥8❤🔥4🤯2
В следующую пятницу на семинаре лаборатории Маркова мы внезапно продолжаем разговор о термодинамике машинного обучения (напомню доклад Ильдуса)... но с совершенно другой стороны.
Мой давний знакомый Сергей Кольцов (расшаривал их вакансию недавно) тоже применяет термодинамические концепции в машинном обучении, но кажется, что совершенно по-другому. Правда, я пока всерьёз не разбирался, вот заодно и послушаем:
Термодинамический взгляд на машинное обучение
Ссылка на трансляцию (пятница 17 апреля, 14:00)
Сергей Кольцов (Высшая школа экономики)
Современные методы машинного обучения всё чаще сталкиваются с вопросами эффективности, устойчивости и фундаментальных ограничений вычислительных процессов. В этом докладе будет рассмотрен подход, который переносит понятия и интуицию из классической термодинамики в область машинного обучения. Применения данного подхода будет продемонстрированно на двух областях: тематическое моделирование и pruning нейронных сетей.
Основные темы:
— аналогии между термодинамическими системами и моделями машинного обучения;
— энтропия и свободная энергия в контексте информации и неопределённости модели машинного обучения;
— тематическое моделирование и проблема отбора числа кластеров;
— pruning, проблема выбора уровня разреживания.
Целевая аудитория: исследователи в области машинного обучения, специалисты по искусственному интеллекту, физики, интересующиеся междисциплинарными подходами, а также разработчики, стремящиеся понять фундаментальные основания современных моделей.
#spsu #seminar #markovlab
Мой давний знакомый Сергей Кольцов (расшаривал их вакансию недавно) тоже применяет термодинамические концепции в машинном обучении, но кажется, что совершенно по-другому. Правда, я пока всерьёз не разбирался, вот заодно и послушаем:
Термодинамический взгляд на машинное обучение
Ссылка на трансляцию (пятница 17 апреля, 14:00)
Сергей Кольцов (Высшая школа экономики)
Современные методы машинного обучения всё чаще сталкиваются с вопросами эффективности, устойчивости и фундаментальных ограничений вычислительных процессов. В этом докладе будет рассмотрен подход, который переносит понятия и интуицию из классической термодинамики в область машинного обучения. Применения данного подхода будет продемонстрированно на двух областях: тематическое моделирование и pruning нейронных сетей.
Основные темы:
— аналогии между термодинамическими системами и моделями машинного обучения;
— энтропия и свободная энергия в контексте информации и неопределённости модели машинного обучения;
— тематическое моделирование и проблема отбора числа кластеров;
— pruning, проблема выбора уровня разреживания.
Целевая аудитория: исследователи в области машинного обучения, специалисты по искусственному интеллекту, физики, интересующиеся междисциплинарными подходами, а также разработчики, стремящиеся понять фундаментальные основания современных моделей.
#spsu #seminar #markovlab
🔥11❤4👍2👀1
Неделю назад прошла яркая новость: Милла Йовович стала вайб-кодером и разработчиком системы памяти для LLM-агентов! Я воспользовался этим поводом, чтобы обсудить память всерьёз, и написал большой пост с обзором всей этой науки:
Память для LLM-агентов: Милла Йовович и 20/20 hindsight
Разумеется, сюда поместиться этот пост никак не может, он очень большой, так что вот оглавление и заключение (и то еле влезло!), а в целом читайте по ссылке.
1. Вступление, в котором актриса неожиданно становится инфраструктурным разработчиком
2. Мотивация, где мы разбираемся, зачем LLM-агентам вообще какая-то память
3. Таксономии, или как можно смотреть на структуру агентской памяти:
— срез первый, нейропсихологический;
— срез второй, операционный;
— срез третий, идейный.
4. Три столпа агентской памяти, или как всё началось
— Generative Agents: поток с взвешиванием
— MemGPT / Letta: память как операционная система
— Reflexion: вербальное обучение с подкреплением
5. Графы и нейронаука, или как добавить языковой модели гиппокамп
— HippoRAG
— Zep / Graphiti: графы с учётом времени
6. Изменяемая память, или как переписывать свои собственные воспоминания
— A-MEM: Zettelkasten для моделей
— Memory-R1: add/update/delete через RL
7. Open-source фреймворки, или что можно взять и использовать прямо сейчас
— Mem0: простой API, большое сообщество
— Letta (MemGPT) и Zep / Graphiti
— LangChain / LangMem, LlamaIndex, CrewAI, Cognee
— Большая тройка
8. Что на фронтире, или биомимикрия, мультиграфы и крепкий сон для LLM-агентов
— Эмуляция сна: явная консолидация памяти
— Новые примитивы для хранения элементов памяти
— Новые принципы работы с памятью
9. Бенчмарки, или как мы измеряем память
10. MemPalace, или что же там всё-таки Милла Йовович
11. Hindsight, или современный пример хорошей системы агентской памяти
— Четыре сети памяти
— TEMPR: параллельный multi-strategy retrieval с RRF
— CARA: reflect в приоритетном порядке
— Disposition parameters: личность агента влияет и на память
— Цифры
12. Выводы и заключение
Попытаюсь сделать несколько общих выводов из всех работ, которые я тут перечитал и пересказал.
Во-первых, качество retrieval-стратегии важнее сложности хранилища. Hindsight побеждает на бенчмарках не потому, что у него какая-то хитрая база данных, а потому, что у него четыре стратегии извлечения с RRF-слиянием. HippoRAG побеждает на multi-hop не потому, что у него навороченный knowledge graph, а потому, что он делает один шаг PPR вместо трёх LLM-вызовов. Системы, которые полагаются исключительно на векторную похожесть, стабильно проигрывают.
Во-вторых, бенчмарки бенчмаркам рознь. Это давно всем известно, но вот и задокументировано в MemoryArena: система, которая даёт 95% на LoCoMo, может давать 40% на реальной агентской задаче. Не уверен, что мы с этим разрывом скоро разберёмся, но как минимум MemoryArena и Mem2ActBench задают правильные вопросы, и это уже прогресс.
В-третьих, архитектуры памяти начинают учиться. Memory-R1 — это, по-моему, самое важное из того, что вышло в 2025-2026. Он показывает, что политику управления памятью можно учить на ~150 примерах по downstream reward. Плюс ещё и bio-inspired направление (LightMem, SleepGate, EverMemOS) двигается в ту же сторону. Мне кажется, что в ближайшие пару лет написанные вручную стратегии управления памятью постепенно уступят обучаемым.
А в целом это одна из самых интересных областей в прикладных LLM прямо сейчас. Год назад казалось, что агенты упираются в недостаточно хорошие рассуждения; полгода назад — что в tool use; а сейчас я всё больше уверен, что следующее важное “узкое место” — это именно память. А вот Милла Йовович, увы, подвела.
#longreads #ai #blog
Память для LLM-агентов: Милла Йовович и 20/20 hindsight
Разумеется, сюда поместиться этот пост никак не может, он очень большой, так что вот оглавление и заключение (и то еле влезло!), а в целом читайте по ссылке.
1. Вступление, в котором актриса неожиданно становится инфраструктурным разработчиком
2. Мотивация, где мы разбираемся, зачем LLM-агентам вообще какая-то память
3. Таксономии, или как можно смотреть на структуру агентской памяти:
— срез первый, нейропсихологический;
— срез второй, операционный;
— срез третий, идейный.
4. Три столпа агентской памяти, или как всё началось
— Generative Agents: поток с взвешиванием
— MemGPT / Letta: память как операционная система
— Reflexion: вербальное обучение с подкреплением
5. Графы и нейронаука, или как добавить языковой модели гиппокамп
— HippoRAG
— Zep / Graphiti: графы с учётом времени
6. Изменяемая память, или как переписывать свои собственные воспоминания
— A-MEM: Zettelkasten для моделей
— Memory-R1: add/update/delete через RL
7. Open-source фреймворки, или что можно взять и использовать прямо сейчас
— Mem0: простой API, большое сообщество
— Letta (MemGPT) и Zep / Graphiti
— LangChain / LangMem, LlamaIndex, CrewAI, Cognee
— Большая тройка
8. Что на фронтире, или биомимикрия, мультиграфы и крепкий сон для LLM-агентов
— Эмуляция сна: явная консолидация памяти
— Новые примитивы для хранения элементов памяти
— Новые принципы работы с памятью
9. Бенчмарки, или как мы измеряем память
10. MemPalace, или что же там всё-таки Милла Йовович
11. Hindsight, или современный пример хорошей системы агентской памяти
— Четыре сети памяти
— TEMPR: параллельный multi-strategy retrieval с RRF
— CARA: reflect в приоритетном порядке
— Disposition parameters: личность агента влияет и на память
— Цифры
12. Выводы и заключение
Попытаюсь сделать несколько общих выводов из всех работ, которые я тут перечитал и пересказал.
Во-первых, качество retrieval-стратегии важнее сложности хранилища. Hindsight побеждает на бенчмарках не потому, что у него какая-то хитрая база данных, а потому, что у него четыре стратегии извлечения с RRF-слиянием. HippoRAG побеждает на multi-hop не потому, что у него навороченный knowledge graph, а потому, что он делает один шаг PPR вместо трёх LLM-вызовов. Системы, которые полагаются исключительно на векторную похожесть, стабильно проигрывают.
Во-вторых, бенчмарки бенчмаркам рознь. Это давно всем известно, но вот и задокументировано в MemoryArena: система, которая даёт 95% на LoCoMo, может давать 40% на реальной агентской задаче. Не уверен, что мы с этим разрывом скоро разберёмся, но как минимум MemoryArena и Mem2ActBench задают правильные вопросы, и это уже прогресс.
В-третьих, архитектуры памяти начинают учиться. Memory-R1 — это, по-моему, самое важное из того, что вышло в 2025-2026. Он показывает, что политику управления памятью можно учить на ~150 примерах по downstream reward. Плюс ещё и bio-inspired направление (LightMem, SleepGate, EverMemOS) двигается в ту же сторону. Мне кажется, что в ближайшие пару лет написанные вручную стратегии управления памятью постепенно уступят обучаемым.
А в целом это одна из самых интересных областей в прикладных LLM прямо сейчас. Год назад казалось, что агенты упираются в недостаточно хорошие рассуждения; полгода назад — что в tool use; а сейчас я всё больше уверен, что следующее важное “узкое место” — это именно память. А вот Милла Йовович, увы, подвела.
#longreads #ai #blog
🔥13❤🔥4❤1👍1