Интересное что-то
517 subscribers
2.72K photos
253 videos
139 files
4.52K links
Материалы и мысли, понадерганные отовсюду
Блог: https://t.me/asisakov_channel
Чат: https://t.me/youknowds_chat
Download Telegram
Forwarded from КПД
KIVI: A Tuning-Free Asymmetric 2bit Quantization for KV Cache
[Статья] [Код]

Для того, чтобы работать с большим контекстом в условии ограниченных ресурсов необходимо как-нибудь да сжимать KV-кэши, и квантизация одно их первых, что приходит в голову.

Группа исследователей (с забавным примечанием The order of authors is determined by flipping a coin 🪙) из разных мест на послендем ICML представила статью со звучным названием KIVI (терминал оплаты, фрукт и птица пишутся по-другому).

Метод

Предыдущие методы квантизации кэшей обычно квантизовали кэши и ключи и потокенно, так как статистики (scale и zero) при таком подходе можно пересчитывать на лету. Для 4-битной квантизации такой подход работает хорошо, но при 2-х битных кэшах модель становится полностью негодной.

Дабы эффективно квантизовать кэши, авторы анализируют распределение активаций в KV-кэшах и обнаруживают, что в активациях k-проекций имеют место ярко выраженные выбросы, в то время как в v паттерн хаотический. Перебирая варианты с потокенной и поканальной квантизацией, исследователи приходят к выводу, что ключи лучше всего квантизовать поканально, а values - потокенно.

При поканальной квантизации придется пересчитывать значения всех прошлых кэшей при пересчете диапазона. Потому предлагается хранить неквантизуемый буфер из самых свежим токенов (размера 128) и, как только буфер наполнится, квантизовать данную группу, и начать следующий. Для длинных контекстов накладные расходы от такого буфера небольшие.

Эксперименты

Метод валидируют на бенчах из LM-Eval, LongBench (наборе задач на длинный контекст) и Needle-in-a-Haystack (где нужно достать вытащить нужный факт из длинного промпта) на моделях Llama-2, Mistral.

Наивная квантизация в 2 бита сильно страдает по качеству, а предложенный подход работает с совсем небольшой просадкой. Есть, правда, маленький нюанс, что 2-битная квантизация использует размер группы 32 с fp zero-point, что означает на практике 3 бита 😅. Needle-in-a-Haystack решается почти идеально.

Поддержание неквантизованного буфера свежим токенов важно для лучше качества (свежие токены влияют сильнее, чем далекие, в большинстве задач).

При работе с большими контекстами доминирующим фактором, определяющим скорость работы, при авторегрессивной генерации становится подгрузка кэшей (уже не весов модели). За счет их сжатия удается ускорить генерацию до 3.5 раз.

Вывод

Сжатие кэшей - богоугодное дело. А дабы эффективно квантизовать кэши полезно смотреть на распределение того - что сжимаешь.
Forwarded from эйай ньюз
Mistral обновили Codestral

Новая версия 25.01 значительно умнее и в два раза быстрее, из-за обновлённого токенизатора и улучшенной архитектуры. Окно контекста расширили до 256к токенов. Заявляют первое место на Copilot Arena, но результаты пока что не опубликовали.

С бенчами опять шалят - Qwen 2.5 Coder в сравнении отсутствует, семейство Llama тут представляет не Llama 3.3, а Codellama 70B полуторагодичной давности.

С моделями DeepSeek, на этот раз, всё же сравнивают, но только с моделями меньше 100B параметров, из-за чего сильные MoE модели из сравнения выпадают. А ведь Codestral стоит на уровне скидочных цен DeepSeek V3 - $0.09/$0.30 за вход/выход, не на уровне моделек поменьше. Но у Mistral нету context caching, что сильно повышает цену при реальном использовании модели в кодинге (в Copilot сценариях часто входных токенов 95%+). Ждём независимых бенчей чтобы понять реально соотношение цены и качества.

Весов в открытый доступ не дают, даже по кастрированной лицензии. Попробовать бесплатно можно через плагин continue.dev, он доступен для VS Code и JetBrains.

@ai_newz
Forwarded from Art, Design & AI (Lena Starkova)
🆕 Kling: новые инструменты для промтинга

Модель 1.6 получила классные обновления, которые сделают работу с промптами проще и эффективнее:

• Словарь промптов
Теперь доступен для Text-to-Video и Image-to-Video! Рекомендации по движениям камеры, сценам и освещению помогут создавать сложные промпты быстро и интуитивно.
• Управление пресетами
Новый модуль My Presets позволяет сохранять часто используемые комбинации промптов одним нажатием. Больше скорости, меньше рутины!
Ну и на десерт
Функция Lip Sync добавлена в меню и доступна для всех загруженных видео.

🔗 klingai.com

Арт, дизайн и нейросети
@art_design_ai / #kling@art_design_ai

Бустануть канал - https://t.me/boost/art_design_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Почему одни фильмы и истории становятся легендарными, а другие проваливаются? Всё дело в "Пути Героя" Кэмпбелла

Пишу из Дубай, где активно смотрю кинопремьеры декабря. Честно – многие фильмы не цепляют (и низкие рейтинги на IMDB это подтверждают). Знаменитые режиссёры и актёры, крутая графика – а в середине фильма ловлю себя на мысли, что не понимаю сценарий и мотивацию персонажей. От этого непонимания хочется быстрее свалить с сеанса.

🤔 Я задумался, почему так происходит и есть ли рецепт "легендарного сценария" для рассказа увлекательных историй. В поиске ответов наткнулся на TED-лекцию «What makes a hero?» и прикрепил ее видео к посту. В ней говорится, что все известные мифы и истории на самом деле созданы по одному универсальному фреймворку из книги «Тысячеликий герой» и теории о «Мономифе и Пути Героя» Джо Кэмпбелла.

📝 Что же делает историю легендарной
1️⃣ Персонажи, созданные по архетипам из книги Юнга.
Базовые образы героя и персонажей (Мудрец, Тень, Союзник, Трикстер) вокруг героя, которые с детства живут в подсознании каждого человека. Именно поэтому они так цепляют!

Разберем на примерах:
🪄 «Гарри Поттер»
• Герой: Гарри (обычный мальчик → спаситель мира волшебников и маглов)
• Мудрец: Дамблдор
• Тень: Волан-де-Морт
• Союзники: Рон и Гермиона
• Трикстер: Драко

🗡 «Властелин Колец»
• Герой: Фродо (обычный хоббит → спаситель Средиземья от тьмы)
• Мудрец: Гэндальф
• Тень: Саурон
• Союзники: Сэм
• Трикстер: Голлум

2️⃣ Фреймворк развития Пути Героя.
1. Обычный мир: Герой живет своей обычной жизнью, не осознавая своего предназначения.

2. Зов к приключениям: Происходит необычное, призывая Героя к действию и переменам. Сначала Герой отказывается от зова, его одолевает инстинкт самосохранения или страх поражения перед Тенью (главным злом).

3. Встреча с наставником: Появляется Мудрец, чтобы подготовить Героя к предстоящим испытаниям.

4. Испытания, союзники и враги: Герой сталкивается с трудностями, связанными с Тенью. Находит Союзников, противостоит врагам и Трикстеру (неоднозначному персонажу, который попытается сбить Героя с пути).

5. Финальное испытание: Герой в одиночку сражается с Тенью, используя все силы и полученные знания.

6. Награда: Победив Тень, Герой получает награду — новый опыт, сокровище. Совершает подвиг, важный для всех зрителей и персонажей.

7. Возвращение с эликсиром: Герой возвращается домой преображенным, принося с собой нечто ценное для своего внутреннего и всего внешнего мира.

🎯 Примеры известных фильмов, созданных по фреймворку Пути Героя: Гарри Поттер, Властелин Колец, Звёздные войны, Матрица, Король Лев, Черная Пантера, Начало и другие.

💡Фреймворк "Пути Героя" работает и для создания собственных увлекательных историй
Сторис в соцсетях: Митрошина часто публикует сторис на основе "Пути Героя". Смотря ее закрепы, подписчики видят, как она — Герой «принимает зов, попадает в трудности, получает помощь, преодолевает себя» и на основе своей истории готова делиться опытом, став Мудрецом. Такой сторителлинг позволяет ей становиться экспертом, вовлекать аудиторию и продавать курсы на миллиард рублей.

Коммуникации брендов: Nike делает много iconic кампаний, построенных на основе "Пути Героя". Первый шаг в приближении к их уровню - перестать думать что твой продукт и бренд находится в центре вселенной, занять роль Мудреца или Союзника для помощи с испытаниями клиента — Героя. Следующие шаги я описал в моем саммари по книге «Storybrand» из прошлого поста.

• Даже баттл Оксимирона с Гнойным был рассказан по "Пути Героя"😉

✍️ Придумать и рассказать классную историю — это скилл
Чтобы начать его качать, обращайте внимание на то как связаны новогодние истории, фильмы и видео с:
1. Архетипами Юнга. Какой архетип у персонажа, про которого вы только что узнали или говорите сами? Какие его мотивы?
2. Путем Героя. На каком этапе своего пути сейчас герой рассказа или вы сами? Что ждет вас дальше?

👍 - если пост полезен и поможет вам рассказывать увлекательные истории про свою жизнь и ваши бренды
💬 - пишите в комменты свои вопросы, разберем их вместе 🙂

Мальцев | Карьера и Маркетинг с AI
Please open Telegram to view this post
VIEW IN TELEGRAM
🤖 Универсальный промпт для нейросети: как выжать максимум из ChatGPT, YandexGPT, Gemini, Claude в 2025

Ребята, хочу поделиться с вами лайфхаком для работы с AI в 2025 году 🏄

С 2017 я интересуюсь темой AI (с того самого момента, когда бот OpenAI эпично уделал Dendi в Dota 2 — кто бы мог подумать, что это только начало! 😅) и постоянно ищу способы, как использовать нейросети для решения своих рабочих задач.

В конце года захотелось структурировать знания в одну статью-методологию и один промпт, поделиться ими с вами. Перед этим я:
• Прошел курсы по YandexGPT, ChatGPT (особенно понравился Reasoning with GPT от OpenAI) и переосмыслил все свои промпты
• Протестировал последние версии ChatGPT, Gemini, Claude, YandexGPT и обсудил свои мысли с Серегой Юдиным

🎯 Результат: создал универсальный шаблон промпта, который хорошо работает с 80% моих задач в GPT (а ставлю я их по паре штук каждый день). Сохраняйте себе в избранное универсальный шаблон для постановки сложной задачи для GPT в 2025.

Контекст: [Опишите ситуацию для постановки задачи, проблему, цель, целевую аудиторию для кого делаете задачу...]

Роль: Представь что ты [Кто?]. Ты обладаешь глубоким пониманием [ключевых навыков/знаний...] и имеешь опыт в [область, связанная с задачей...]

Задача: [Что делать? Сформулируйте, что нужно сделать. Используйте глаголы действия и укажите, что является конечным результатом...].
Перед ответом на задачу используй логический подход для выполнения задачи и обоснования своих решений.
Подумай, какие шаги или подходы будут наиболее эффективны для выполнения задачи, и приведи аргументы, почему.

Формат: [В каком виде? Опишите желаемый формат результата. Укажите тип, структуру, элементы...].
Укажи несколько примеров по содержанию и оформлению. Объясни, почему именно предложенное решение будет наиболее эффективным.

Объем: [Сколько? Укажите желаемый объем. Используйте измеримые единицы символов, слов, страниц, примеров, пунктов...]

Стиль: [Как? Определите стиль, укажите тональность, настроение, допустимые языковые средства...]. Ответ должен быть [ключевые особенности стиля...]

Критерии качества: Каждое решение должно быть логически обосновано и подкреплено аргументами. [Что еще важно? Перечислите критерии...]

Приоритеты: [Что в фокусе? Расставьте приоритеты для критериев качества. Приоритет 1 - ... Приоритет 2 - ...]

Дополнительная информация: При разработке ответа используй логику, дедукцию и аргументацию. [Что еще важно для решения задачи? Добавьте любую релевантную информацию]


💡 Шаблон уже включает фразы для активации Reasoning и был проверен на ChatGPT, YandexGPT, Gemini, Claude. Например, с его помощью мы создали один из самых конверсионных лендингов для "Нейроредактора" в Яндекс Браузере.

🔍 Подробный разбор трендов AI на 2025, все фишки промпта и реальные кейсы использования — в статье на vc.ru:
• Как один промпт может заменить десятки шаблонов для ChatGPT, YandexGPT и других нейросетей в 2025?
• Как использовать Reasoning, чтобы нейросеть думала как человек?
• Метапромптинг — новый «чит-код» для работы с ИИ или все еще сырой метод для ленивых?

💭 Мечтаю, что шаблон промпта и информация из статьи помогут всем нам выжимать из GPT максимум для своих задач, а кому-то наконец-то преодолеть блок «это всё не для меня, действую по-старинке».

👍 - если пост полезен и поможет вам в работе с GPT в 2025
💬 - напишите в комменты какие задачи вы уже пробовали делать с GPT: чем довольны, а где качество все еще фиговое. Мне интересно 🙂

Мальцев | Карьера и Маркетинг с AI
Please open Telegram to view this post
VIEW IN TELEGRAM
🤖 Как с помощью GPT я читаю и запоминаю посты из 100 Telegram каналов и не схожу с ума 🔥

Ребята, хочу рассказать как за новогодние я хакнул свое обучение. С Gemini (или СhatGPT) и NotebookLM я теперь читаю сотню Telegram-каналов за 2 часа в неделю и держу под рукой структурированные знания, которые постоянно обновляются.


Делюсь с вами лайфхаком по бусту чтения и запоминания тысяч постов из каналов, книг и курсов в 2025 🏄

Как мы с GPT читаем и запоминаем тысячи ранее опубликованных постов из Telegram-каналов

1️⃣ Через «Экспорт истории чатов» я выгрузил в HTML все посты из каналов, которые считаю интересными (список, ссылки и описание каналов, которые я читаю).

2️⃣ В Яндекс Браузере перевел HTML в PDF и загрузил их в NotebookLM (для работы из РФ понадобится VPN).

3️⃣ Задаю NotebookLM вопросы по интересующим темам, в ответах получаю в том числе ссылки на источники — посты в каналах. Если хочется разобраться глубже, то иду в Telegram и нахожу пост через поиск по цитате из ответа.

4️⃣ Вытягиваю нужные тексты из NotebookLM в свои доки по темам и дополняю личными знаниями. Так получается единое хранилище: мой опыт + знания от сотни авторов интересных мне каналов.

Фишки для буста моего обучения с NotebookLM

🔴Аудиоподкаст и голосовое общение с GPT. На основе загруженных постов NotebookLM создает подкаст с двумя ведущими, которые обсуждают заданную мной тему. Говорю с ними вслух, что помогает лучше усваивать материал, прокачивать язык и получать новые идеи.

🔴Проверка усвоения. С помощью специального промпта для GPT (пришлю его в коммент к посту) можно провести проверку моих знаний по добавленному материалу из постов. GPT создает тест, проверяет меня на ошибки, объясняет и подсказывает, о чём надо помнить, чтобы дать правильный ответ.

🔴Объединение знаний с собственными документами, топовыми книгами и курсами. В свои блокноты Notebook LM я также добавляю конспекты из книг, курсов и идеи из Telegram-каналов накладываются на фундаментальные знания. Итогом получается ещё более целостная картина.

Как мы с GPT еженедельно читаем и запоминаем сотни новых постов из Telegram-каналов

1️⃣ Я подключил @thecronicabot, который собирает новый контент из выбранных мной каналов в отдельный чат, чтобы не собирать все руками.

2️⃣ Каждую пятницу делаю «Экспорт историю чата» в новый HTML, загружаю его в GPT и через специальный промпт спрашиваю, что интересного появилось во всех каналах и по разным темам отдельно. В ответ GPT дает подборки и ссылки на посты для более глубокого изучения.

3️⃣Конвертирую HTML в PDF и добавляю его NotebookLM. Чтобы вся база из старых и новых постов оставалась в едином месте, я добавляю новые PDF-файлы в NotebookLM каждую неделю.

🔍 Подробный разбор и примеры для каждого упомянутого мной выше пункта — в моей статье на vc.ru.

💭 Уметь постоянно учиться — это отдельный скилл, с которым связан потенциал для развития каждого из нас. А этот потенциал всегда рассматривается при любых кадровых решениях и часто влияет на финальный выбор даже директоров крупных компаний.


Надеюсь, что мой пост поможет вам забустить скилы обучения. А 2025 будет для вас топовым, в том числе потому, что вы сможете еще быстрее прокачивать знания и навыки.

❤️ и 👍 - если пост полезен и вам интересно посмотреть все промпты, примеры по теме чтения и обучения с GPT
💬 - поделитесь опытом как справляетесь с объёмными постами, книгами и курсами. Какие у вас лайфхаки по быстрому чтению и запоминанию? Мне интересно 🙂

Мальцев: Карьера. Маркетинг. AI.
Please open Telegram to view this post
VIEW IN TELEGRAM
Закончилось соревнование Jane Street Real-Time Market Data Forecasting где надо было предсказывать не пойми что на не пойми каких фичах 🤷 Однако, какой-то гений из MIT отреверсинжинирил, что это не совсем не пойми чо, а простое скользящее среднее 20 подряд не пойми чего. Техника, которой он это сделал, интересная, мне понравилось. Никак мне не помогло, хотя я пару дней очень пытался из этого что-то выжать.

В соревновании был специфический для временных рядов способ принимать ответы - признаки, соответствующие последовательным моментам времени давались друг за другом и тебе не давали следующую порцию, пока не дал ответ к предыдущей. Временное ограничение - 1 минута. Но суммарный лимит 9ч, что приводит к тому, что надо давать ответы в среднем за 0.2сек. Раз в 968 шагов, что соответствует одному торговому дню, давали ответы за весь предыдущий день. Что давало интересные возможности, о которых ниже.

В последний день злодеи выкинули меня из золота паблика, хотя я тоже сделал свой лучший сабмит, исправив ошибки, как водится. Ну ничего, прайват будет настигать нас инкрементальными обновлениями аж до июля.

Я не придумал ни одной работающей идеи, но вот что мне помогло финишировать в топ-20:
1) Online learning. Нейронки отлично учатся на новых данных, самый лучший сетап - просто скормить им день как батч с низким lr. Деревья неожиданно тоже учатся и в итоговый ансамбль вошел lightgbm, для которого использовал метод refit для обновления. В среднем онлайн обучение давало маленький, но довольно надежный бонус к скору. Учится быстро (около 3 секунд суммарно на все мои модели раз за день)
2) Online ансамбль. Ну а почему бы и нет, раз уж мы модели можем дообучать, то и однослойный mlp с весами моделей в ансамбле тоже можем. Не смотря на метрику соревнования (weighted R2 ~ MSE) лучшим лоссом для ансамбля у меня был MAE.
3) TabM! Открытие ушедшего года, супер-модель, которая без всяких хитрых эмбеддингов, хотя она умеет и это, бьет на всех моих около-табличных бенчмарках все остальное, а кое-где и бусты. Без всяких наворотов, соло-модель на дефолтных фичах с онлайн обучением (и даже без) обгоняло лучший публичный ансамбль. Удивительно! Единственное что я сделал - странный лосс и отказ от использования категориальных фичей (с низкой кардинальностью). Использовал их как числа, отнормализовав в [0,1].
4) SWA спасение от стохастики в выборе гиперпараметра - сколько эпох учить. Вытягивает максимум за заданное число эпох
5) Валидация. Последние 120 дней, размером как паблик. Ну такое. Чем ближе к паблику, тем лучше бьются числа, но корреляция слабая. Однако! Лучшие гиперпараметры на валидации как-будто воспроизводят и лучший паблик. Использовал количество эпох для обучения как гиперпараметр и учил на полном датасете (включая бывшую валидацию)
6) Трансформер. Послабее чем TabM, но забустил скор в ансамбле. Нам дан не один ряд, а много рядов, соответствующих каким-то торговым тикерам. Крипта, фьючерсы или стоки - не так важно. Используем кросс-аттеншн чтобы спроецировать фичи с учетом других тикеров и на получившихся фичах гоняем RNN по времени. Трансформер по времени очень жруч по ресурсам, я даже не смог его довести до сабмита, а RNN позволяет сохранять стейт и применяться только к текущей порции данных. Возможно, тут я и проиграл и трансформер по времени был ключем для победы.
7) Хитрый лосс. MSE почему-то не коррелировал особо с R2. а вот MSE / var(y) коррелировал. Почти все модели обучены с ним.
8 ) Чего-то по мелочи, одна из моделей предсказывает вместо таргета целый ряд, на который сообразно реверс-инжинирингу накладываем лоссы из известных SMA. Не зашло, но чуть-чуть забустило ансамбль.

Смотрю на возможный шейкап позитивно, модель 6 обладает некоей сезонностью и паблик для нее плохое время, а потом (приват) должно быть хорошим 😂 Надеюсь, онлайн ансамбль вытянет. Паблик был намного стабильнее моей валидации, так что большого шейкапа не жду, буду удивлен, если он случится.
Forwarded from Data Blog
📈 Привет, друзья!

Сейчас работаю над обзором по explainable AI для мультимодальных моделей (задачка со звездочкой, не скажу, что закончу скоро, но стараюсь!)

Наткнулась на любопытную статью: Mapping the Mind of an Instruction-based Image Editing using SMILE.

Суть: товарищи представляют интерпретируемость на основе локальной модели — метод LIME на максималках — для построения тепловой карты влияния текстовых элементов на созданное изображение.

Что делают:
* Разбивают текстовую команду на ключевые слова.
* Генерируют изображения, изменяя команды, чтобы выявить влияние каждого слова.
* Создают визуальные тепловые карты (heatmaps), отображающие вес каждого слова в процессе редактирования изображения.

Фишка SMILE: вместо простого расстояния (например, косинусного, как у классического LIME) используют расстояние Васерштейна (и дотягивают к нему модель, обученную на извлечение признаков).

Что примечательно: LIME, в контексте XAI — пионер, он был предложен 2016 году, в статье ""Why Should I Trust You?" Explaining the Predictions of Any Classifier". Уникальность LIME — в качестве результата не коэффициенты влияния или графики, а суррогатная модель, объясняющая, как работает чёрный ящик.

С того времени LIME активно адаптировали: есть версии для временных рядов, графов, звука — карточки из статьи прикрепляю к посту. И вот мы дошли до генерации. Ну, красота.

На что хочу обратить внимание? Классические методы вроде LIME всё ещё мощный инструмент. Их потенциал огромный, особенно если адаптировать под задачи! Прямо рекомендую добавить их в свой XAI-инструментарий.

Меня это прям восхищает.

Не запланировано овладела большим количеством свободного времени и сейчас делаю ещё два материала. Первый — открытый (бесплатный) курс на степике по интерпретируемым моделям. Большой курс у меня уже есть (и он тоже растет), решила сделать поменьше)

Второй — обзорный курс на механистическую интерпретируемость. Тоже будет открытым.

Как только доделаю, будут ссылки! 😌

До встречи!
Ваш, Дата-автор!
Forwarded from Dealer.AI
RStaR - с лучших решений по нитке Small-LM на колпак рассуждения соберем.

Всех с началом нового рабочего года.

Daily top papers на huggingface за 8.01.2025 статья про то как бустануть рассуждения моделек на уровне бОльших конкурентов.

На самом деле, собрали все самое лучшее, что сработало воедино и нормально затюнили:

1. STaR концепт для просеивания/фильтрации лучших рассуждений. Упоминается Дядей тут.

2. Используется augmented-ToT. Похожий концепт мне рассказывал один kaggle GM в сореве по решению математических олимпиад. Суть в том,чтобы делать генерации рассуждений/решений задач в путон коде. Далее запускать такое и нерабочие имплементации забанить, попросив дебагнуть LMку. Топ-1 решение соревы тут.

3. Process preference model (PPM) в пику dpo и прочим rlhf работает на оценке предпочтения веток полученных с Q-values поиска по дереву из другой топовой статьи по ToT для решения мат.задач с MCTS. Пример расчета и формулы в этой статье.
На этих знаниях лучше или хуже развилка рассуждений учим pair ranking model. Забавно,что кому-то в 2023 году Дядя предлагал в nli формате делать контрастив поиск веток рассуждений.

4. Это self-evolution подходы для обучения. О похожих концептах Дядя писал тут и тут. Подобно spin или rest подходам хорошие стратегии возвращаются для самоулучшения в сет обучения, как хорошие примеры.

В итоге, авторы получили суп из рабочих хаков в той или иной задаче вокруг рассуждений и решений math problem. Получили жОский ап и влетели в топ по бенчам, догнав топовых конкурентов с большим размером моделей.
Forwarded from Dealer.AI
А теперь взгляните. У нас есть StAR, есть Q-values с MCTS на основе self-rewarding в состоянии ветки S, есть самоэволюция и все это не тот ли самый магический и легендарный Q-star? 🤔🤔🤔