Sinекура
3.84K subscribers
1.2K photos
18 videos
337 links
Канал Сергея Николенко обо всём, но в основном об AI.

Сайт с выступлениями, лекциями и публикациями: https://sergeynikolenko.ru/
Download Telegram
И ещё один пост про музыку. Я давеча выкладывал своё сольное выступление на джеме, а теперь вот сделал видео и с выступлением нашего скромного коллектива:

Draft Funk — 2026.03.27 — Jamschool

Снимали на телефоны в довольно тёмном зале, так что качество не очень, и всё снято с примерно одного и того же угла, так что наших басиста и ударника, увы, почти совсем не видно.

Но вообще, как по мне, всё не так уж и плохо получилось! И ансамбль у нас подобрался отличный. Конечно, больше всего нам повезло с вокалом: Юля занимается очень серьёзно, и даже записывает авторские песни, написанные специально для неё; вот её аккаунт на Яндекс.Музыке.

Но и все остальные крутые! Дмитрий на гитаре, Даша на саксофоне, Евгений на бас-гитаре, Семён на ударных, Лена на синтезаторе, а на перкуссии был наш руководитель Эдгар. Спасибо большое всем! Нам ещё, конечно, работать и работать, чтобы хоть что-то получалось, но мы будем стараться.)

#music #lifestyle
15🔥8❤‍🔥4🤯2
В следующую пятницу на семинаре лаборатории Маркова мы внезапно продолжаем разговор о термодинамике машинного обучения (напомню доклад Ильдуса)... но с совершенно другой стороны.

Мой давний знакомый Сергей Кольцов (расшаривал их вакансию недавно) тоже применяет термодинамические концепции в машинном обучении, но кажется, что совершенно по-другому. Правда, я пока всерьёз не разбирался, вот заодно и послушаем:

Термодинамический взгляд на машинное обучение
Ссылка на трансляцию (пятница 17 апреля, 14:00)

Сергей Кольцов (Высшая школа экономики)

Современные методы машинного обучения всё чаще сталкиваются с вопросами эффективности, устойчивости и фундаментальных ограничений вычислительных процессов. В этом докладе будет рассмотрен подход, который переносит понятия и интуицию из классической термодинамики в область машинного обучения. Применения данного подхода будет продемонстрированно на двух областях: тематическое моделирование и pruning нейронных сетей.

Основные темы:
— аналогии между термодинамическими системами и моделями машинного обучения;
— энтропия и свободная энергия в контексте информации и неопределённости модели машинного обучения;
— тематическое моделирование и проблема отбора числа кластеров;
— pruning, проблема выбора уровня разреживания.

Целевая аудитория: исследователи в области машинного обучения, специалисты по искусственному интеллекту, физики, интересующиеся междисциплинарными подходами, а также разработчики, стремящиеся понять фундаментальные основания современных моделей.

#spsu #seminar #markovlab
🔥114👍2👀1
Неделю назад прошла яркая новость: Милла Йовович стала вайб-кодером и разработчиком системы памяти для LLM-агентов! Я воспользовался этим поводом, чтобы обсудить память всерьёз, и написал большой пост с обзором всей этой науки:

Память для LLM-агентов: Милла Йовович и 20/20 hindsight

Разумеется, сюда поместиться этот пост никак не может, он очень большой, так что вот оглавление и заключение (и то еле влезло!), а в целом читайте по ссылке.

1. Вступление, в котором актриса неожиданно становится инфраструктурным разработчиком

2. Мотивация, где мы разбираемся, зачем LLM-агентам вообще какая-то память

3. Таксономии, или как можно смотреть на структуру агентской памяти:

— срез первый, нейропсихологический;
— срез второй, операционный;
— срез третий, идейный.

4. Три столпа агентской памяти, или как всё началось

— Generative Agents: поток с взвешиванием
— MemGPT / Letta: память как операционная система
— Reflexion: вербальное обучение с подкреплением

5. Графы и нейронаука, или как добавить языковой модели гиппокамп

— HippoRAG
— Zep / Graphiti: графы с учётом времени

6. Изменяемая память, или как переписывать свои собственные воспоминания

— A-MEM: Zettelkasten для моделей
— Memory-R1: add/update/delete через RL

7. Open-source фреймворки, или что можно взять и использовать прямо сейчас

— Mem0: простой API, большое сообщество
— Letta (MemGPT) и Zep / Graphiti
— LangChain / LangMem, LlamaIndex, CrewAI, Cognee
— Большая тройка

8. Что на фронтире, или биомимикрия, мультиграфы и крепкий сон для LLM-агентов

— Эмуляция сна: явная консолидация памяти
— Новые примитивы для хранения элементов памяти
— Новые принципы работы с памятью

9. Бенчмарки, или как мы измеряем память

10. MemPalace, или что же там всё-таки Милла Йовович

11. Hindsight, или современный пример хорошей системы агентской памяти

— Четыре сети памяти
— TEMPR: параллельный multi-strategy retrieval с RRF
— CARA: reflect в приоритетном порядке
— Disposition parameters: личность агента влияет и на память
— Цифры

12. Выводы и заключение

Попытаюсь сделать несколько общих выводов из всех работ, которые я тут перечитал и пересказал.

Во-первых, качество retrieval-стратегии важнее сложности хранилища. Hindsight побеждает на бенчмарках не потому, что у него какая-то хитрая база данных, а потому, что у него четыре стратегии извлечения с RRF-слиянием. HippoRAG побеждает на multi-hop не потому, что у него навороченный knowledge graph, а потому, что он делает один шаг PPR вместо трёх LLM-вызовов. Системы, которые полагаются исключительно на векторную похожесть, стабильно проигрывают.

Во-вторых, бенчмарки бенчмаркам рознь. Это давно всем известно, но вот и задокументировано в MemoryArena: система, которая даёт 95% на LoCoMo, может давать 40% на реальной агентской задаче. Не уверен, что мы с этим разрывом скоро разберёмся, но как минимум MemoryArena и Mem2ActBench задают правильные вопросы, и это уже прогресс.

В-третьих, архитектуры памяти начинают учиться. Memory-R1 — это, по-моему, самое важное из того, что вышло в 2025-2026. Он показывает, что политику управления памятью можно учить на ~150 примерах по downstream reward. Плюс ещё и bio-inspired направление (LightMem, SleepGate, EverMemOS) двигается в ту же сторону. Мне кажется, что в ближайшие пару лет написанные вручную стратегии управления памятью постепенно уступят обучаемым.

А в целом это одна из самых интересных областей в прикладных LLM прямо сейчас. Год назад казалось, что агенты упираются в недостаточно хорошие рассуждения; полгода назад — что в tool use; а сейчас я всё больше уверен, что следующее важное “узкое место” — это именно память. А вот Милла Йовович, увы, подвела.

#longreads #ai #blog
🔥11❤‍🔥41👍1