Forwarded from Мальцев: Карьера с AI
This media is not supported in your browser
VIEW IN TELEGRAM
Почему одни фильмы и истории становятся легендарными, а другие проваливаются? Всё дело в "Пути Героя" Кэмпбелла
Пишу из Дубай, где активно смотрю кинопремьеры декабря. Честно – многие фильмы не цепляют (и низкие рейтинги на IMDB это подтверждают). Знаменитые режиссёры и актёры, крутая графика – а в середине фильма ловлю себя на мысли, что не понимаю сценарий и мотивацию персонажей. От этого непонимания хочется быстрее свалить с сеанса.
🤔 Я задумался, почему так происходит и есть ли рецепт "легендарного сценария" для рассказа увлекательных историй. В поиске ответов наткнулся на TED-лекцию «What makes a hero?» и прикрепил ее видео к посту. В ней говорится, что все известные мифы и истории на самом деле созданы по одному универсальному фреймворку из книги «Тысячеликий герой» и теории о «Мономифе и Пути Героя» Джо Кэмпбелла.
📝 Что же делает историю легендарной
1️⃣ Персонажи, созданные по архетипам из книги Юнга.
Базовые образы героя и персонажей (Мудрец, Тень, Союзник, Трикстер) вокруг героя, которые с детства живут в подсознании каждого человека. Именно поэтому они так цепляют!
Разберем на примерах:
🪄 «Гарри Поттер»
• Герой: Гарри (обычный мальчик → спаситель мира волшебников и маглов)
• Мудрец: Дамблдор
• Тень: Волан-де-Морт
• Союзники: Рон и Гермиона
• Трикстер: Драко
🗡 «Властелин Колец»
• Герой: Фродо (обычный хоббит → спаситель Средиземья от тьмы)
• Мудрец: Гэндальф
• Тень: Саурон
• Союзники: Сэм
• Трикстер: Голлум
2️⃣ Фреймворк развития Пути Героя.
1. Обычный мир: Герой живет своей обычной жизнью, не осознавая своего предназначения.
2. Зов к приключениям: Происходит необычное, призывая Героя к действию и переменам. Сначала Герой отказывается от зова, его одолевает инстинкт самосохранения или страх поражения перед Тенью (главным злом).
3. Встреча с наставником: Появляется Мудрец, чтобы подготовить Героя к предстоящим испытаниям.
4. Испытания, союзники и враги: Герой сталкивается с трудностями, связанными с Тенью. Находит Союзников, противостоит врагам и Трикстеру (неоднозначному персонажу, который попытается сбить Героя с пути).
5. Финальное испытание: Герой в одиночку сражается с Тенью, используя все силы и полученные знания.
6. Награда: Победив Тень, Герой получает награду — новый опыт, сокровище. Совершает подвиг, важный для всех зрителей и персонажей.
7. Возвращение с эликсиром: Герой возвращается домой преображенным, принося с собой нечто ценное для своего внутреннего и всего внешнего мира.
🎯 Примеры известных фильмов, созданных по фреймворку Пути Героя: Гарри Поттер, Властелин Колец, Звёздные войны, Матрица, Король Лев, Черная Пантера, Начало и другие.
💡Фреймворк "Пути Героя" работает и для создания собственных увлекательных историй
• Сторис в соцсетях: Митрошина часто публикует сторис на основе "Пути Героя". Смотря ее закрепы, подписчики видят, как она — Герой «принимает зов, попадает в трудности, получает помощь, преодолевает себя» и на основе своей истории готова делиться опытом, став Мудрецом. Такой сторителлинг позволяет ей становиться экспертом, вовлекать аудиторию и продавать курсы на миллиард рублей.
• Коммуникации брендов: Nike делает много iconic кампаний, построенных на основе "Пути Героя". Первый шаг в приближении к их уровню - перестать думать что твой продукт и бренд находится в центре вселенной, занять роль Мудреца или Союзника для помощи с испытаниями клиента — Героя. Следующие шаги я описал в моем саммари по книге «Storybrand» из прошлого поста.
• Даже баттл Оксимирона с Гнойным был рассказан по "Пути Героя"😉
✍️ Придумать и рассказать классную историю — это скилл
Чтобы начать его качать, обращайте внимание на то как связаны новогодние истории, фильмы и видео с:
1. Архетипами Юнга. Какой архетип у персонажа, про которого вы только что узнали или говорите сами? Какие его мотивы?
2. Путем Героя. На каком этапе своего пути сейчас герой рассказа или вы сами? Что ждет вас дальше?
👍 - если пост полезен и поможет вам рассказывать увлекательные истории про свою жизнь и ваши бренды
💬 - пишите в комменты свои вопросы, разберем их вместе 🙂
Мальцев | Карьера и Маркетинг с AI
Пишу из Дубай, где активно смотрю кинопремьеры декабря. Честно – многие фильмы не цепляют (и низкие рейтинги на IMDB это подтверждают). Знаменитые режиссёры и актёры, крутая графика – а в середине фильма ловлю себя на мысли, что не понимаю сценарий и мотивацию персонажей. От этого непонимания хочется быстрее свалить с сеанса.
🤔 Я задумался, почему так происходит и есть ли рецепт "легендарного сценария" для рассказа увлекательных историй. В поиске ответов наткнулся на TED-лекцию «What makes a hero?» и прикрепил ее видео к посту. В ней говорится, что все известные мифы и истории на самом деле созданы по одному универсальному фреймворку из книги «Тысячеликий герой» и теории о «Мономифе и Пути Героя» Джо Кэмпбелла.
📝 Что же делает историю легендарной
1️⃣ Персонажи, созданные по архетипам из книги Юнга.
Базовые образы героя и персонажей (Мудрец, Тень, Союзник, Трикстер) вокруг героя, которые с детства живут в подсознании каждого человека. Именно поэтому они так цепляют!
Разберем на примерах:
🪄 «Гарри Поттер»
• Герой: Гарри (обычный мальчик → спаситель мира волшебников и маглов)
• Мудрец: Дамблдор
• Тень: Волан-де-Морт
• Союзники: Рон и Гермиона
• Трикстер: Драко
🗡 «Властелин Колец»
• Герой: Фродо (обычный хоббит → спаситель Средиземья от тьмы)
• Мудрец: Гэндальф
• Тень: Саурон
• Союзники: Сэм
• Трикстер: Голлум
2️⃣ Фреймворк развития Пути Героя.
1. Обычный мир: Герой живет своей обычной жизнью, не осознавая своего предназначения.
2. Зов к приключениям: Происходит необычное, призывая Героя к действию и переменам. Сначала Герой отказывается от зова, его одолевает инстинкт самосохранения или страх поражения перед Тенью (главным злом).
3. Встреча с наставником: Появляется Мудрец, чтобы подготовить Героя к предстоящим испытаниям.
4. Испытания, союзники и враги: Герой сталкивается с трудностями, связанными с Тенью. Находит Союзников, противостоит врагам и Трикстеру (неоднозначному персонажу, который попытается сбить Героя с пути).
5. Финальное испытание: Герой в одиночку сражается с Тенью, используя все силы и полученные знания.
6. Награда: Победив Тень, Герой получает награду — новый опыт, сокровище. Совершает подвиг, важный для всех зрителей и персонажей.
7. Возвращение с эликсиром: Герой возвращается домой преображенным, принося с собой нечто ценное для своего внутреннего и всего внешнего мира.
🎯 Примеры известных фильмов, созданных по фреймворку Пути Героя: Гарри Поттер, Властелин Колец, Звёздные войны, Матрица, Король Лев, Черная Пантера, Начало и другие.
💡Фреймворк "Пути Героя" работает и для создания собственных увлекательных историй
• Сторис в соцсетях: Митрошина часто публикует сторис на основе "Пути Героя". Смотря ее закрепы, подписчики видят, как она — Герой «принимает зов, попадает в трудности, получает помощь, преодолевает себя» и на основе своей истории готова делиться опытом, став Мудрецом. Такой сторителлинг позволяет ей становиться экспертом, вовлекать аудиторию и продавать курсы на миллиард рублей.
• Коммуникации брендов: Nike делает много iconic кампаний, построенных на основе "Пути Героя". Первый шаг в приближении к их уровню - перестать думать что твой продукт и бренд находится в центре вселенной, занять роль Мудреца или Союзника для помощи с испытаниями клиента — Героя. Следующие шаги я описал в моем саммари по книге «Storybrand» из прошлого поста.
• Даже баттл Оксимирона с Гнойным был рассказан по "Пути Героя"😉
✍️ Придумать и рассказать классную историю — это скилл
Чтобы начать его качать, обращайте внимание на то как связаны новогодние истории, фильмы и видео с:
1. Архетипами Юнга. Какой архетип у персонажа, про которого вы только что узнали или говорите сами? Какие его мотивы?
2. Путем Героя. На каком этапе своего пути сейчас герой рассказа или вы сами? Что ждет вас дальше?
👍 - если пост полезен и поможет вам рассказывать увлекательные истории про свою жизнь и ваши бренды
Мальцев | Карьера и Маркетинг с AI
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Мальцев: Карьера с AI
Ребята, хочу поделиться с вами лайфхаком для работы с AI в 2025 году 🏄
С 2017 я интересуюсь темой AI (с того самого момента, когда бот OpenAI эпично уделал Dendi в Dota 2 — кто бы мог подумать, что это только начало! 😅) и постоянно ищу способы, как использовать нейросети для решения своих рабочих задач.
В конце года захотелось структурировать знания в одну статью-методологию и один промпт, поделиться ими с вами. Перед этим я:
• Прошел курсы по YandexGPT, ChatGPT (особенно понравился Reasoning with GPT от OpenAI) и переосмыслил все свои промпты
• Протестировал последние версии ChatGPT, Gemini, Claude, YandexGPT и обсудил свои мысли с Серегой Юдиным
🎯 Результат: создал универсальный шаблон промпта, который хорошо работает с 80% моих задач в GPT (а ставлю я их по паре штук каждый день). Сохраняйте себе в избранное универсальный шаблон для постановки сложной задачи для GPT в 2025.
Контекст: [Опишите ситуацию для постановки задачи, проблему, цель, целевую аудиторию для кого делаете задачу...]
Роль: Представь что ты [Кто?]. Ты обладаешь глубоким пониманием [ключевых навыков/знаний...] и имеешь опыт в [область, связанная с задачей...]
Задача: [Что делать? Сформулируйте, что нужно сделать. Используйте глаголы действия и укажите, что является конечным результатом...].
Перед ответом на задачу используй логический подход для выполнения задачи и обоснования своих решений.
Подумай, какие шаги или подходы будут наиболее эффективны для выполнения задачи, и приведи аргументы, почему.
Формат: [В каком виде? Опишите желаемый формат результата. Укажите тип, структуру, элементы...].
Укажи несколько примеров по содержанию и оформлению. Объясни, почему именно предложенное решение будет наиболее эффективным.
Объем: [Сколько? Укажите желаемый объем. Используйте измеримые единицы символов, слов, страниц, примеров, пунктов...]
Стиль: [Как? Определите стиль, укажите тональность, настроение, допустимые языковые средства...]. Ответ должен быть [ключевые особенности стиля...]
Критерии качества: Каждое решение должно быть логически обосновано и подкреплено аргументами. [Что еще важно? Перечислите критерии...]
Приоритеты: [Что в фокусе? Расставьте приоритеты для критериев качества. Приоритет 1 - ... Приоритет 2 - ...]
Дополнительная информация: При разработке ответа используй логику, дедукцию и аргументацию. [Что еще важно для решения задачи? Добавьте любую релевантную информацию]
💡 Шаблон уже включает фразы для активации Reasoning и был проверен на ChatGPT, YandexGPT, Gemini, Claude. Например, с его помощью мы создали один из самых конверсионных лендингов для "Нейроредактора" в Яндекс Браузере.
🔍 Подробный разбор трендов AI на 2025, все фишки промпта и реальные кейсы использования — в статье на vc.ru:
• Как один промпт может заменить десятки шаблонов для ChatGPT, YandexGPT и других нейросетей в 2025?
• Как использовать Reasoning, чтобы нейросеть думала как человек?
• Метапромптинг — новый «чит-код» для работы с ИИ или все еще сырой метод для ленивых?
💭 Мечтаю, что шаблон промпта и информация из статьи помогут всем нам выжимать из GPT максимум для своих задач, а кому-то наконец-то преодолеть блок «это всё не для меня, действую по-старинке».
👍 - если пост полезен и поможет вам в работе с GPT в 2025
Мальцев | Карьера и Маркетинг с AI
Please open Telegram to view this post
VIEW IN TELEGRAM
vc.ru
Универсальный промпт для нейросети: как выжать максимум из ChatGPT, YandexGPT, Gemini, DeepSeek в 2025
Я отвечаю за маркетинг Яндекс Браузера (ex CMO Яндекс Путешествия, Playrix, консультировал League of Legends, Tinkoff, Sber, VK). Буду делиться опытом работы с нейросетями в моей жизни обычного сотрудника, который не сильно разбирается в коде или продвинутом…
Forwarded from Мальцев: Карьера с AI
Ребята, хочу рассказать как за новогодние я хакнул свое обучение. С Gemini (или СhatGPT) и NotebookLM я теперь читаю сотню Telegram-каналов за 2 часа в неделю и держу под рукой структурированные знания, которые постоянно обновляются.
Делюсь с вами лайфхаком по бусту чтения и запоминания тысяч постов из каналов, книг и курсов в 2025 🏄
Как мы с GPT читаем и запоминаем тысячи ранее опубликованных постов из Telegram-каналов
Фишки для буста моего обучения с NotebookLM
Как мы с GPT еженедельно читаем и запоминаем сотни новых постов из Telegram-каналов
🔍 Подробный разбор и примеры для каждого упомянутого мной выше пункта — в моей статье на vc.ru.
💭 Уметь постоянно учиться — это отдельный скилл, с которым связан потенциал для развития каждого из нас. А этот потенциал всегда рассматривается при любых кадровых решениях и часто влияет на финальный выбор даже директоров крупных компаний.
Надеюсь, что мой пост поможет вам забустить скилы обучения. А 2025 будет для вас топовым, в том числе потому, что вы сможете еще быстрее прокачивать знания и навыки.
❤️ и 👍 - если пост полезен и вам интересно посмотреть все промпты, примеры по теме чтения и обучения с GPT
Мальцев: Карьера. Маркетинг. AI.
Please open Telegram to view this post
VIEW IN TELEGRAM
vc.ru
Как с помощью GPT я читаю и запоминаю посты из сотни Telegram каналов и не схожу с ума
Я отвечаю за маркетинг Яндекс Браузера (ex CMO Яндекс Путешествия, Playrix, eBay и консультант League of Legends, Tinkoff, Sber, VK). Подпишитесь на мой telegram-канал «Мальцев: Карьера. Маркетинг. AI», где я делюсь своим опытом по применению нейросетей для…
Forwarded from adapt compete evolve or die
Закончилось соревнование Jane Street Real-Time Market Data Forecasting где надо было предсказывать не пойми что на не пойми каких фичах 🤷 Однако, какой-то гений из MIT отреверсинжинирил, что это не совсем не пойми чо, а простое скользящее среднее 20 подряд не пойми чего. Техника, которой он это сделал, интересная, мне понравилось. Никак мне не помогло, хотя я пару дней очень пытался из этого что-то выжать.
В соревновании был специфический для временных рядов способ принимать ответы - признаки, соответствующие последовательным моментам времени давались друг за другом и тебе не давали следующую порцию, пока не дал ответ к предыдущей. Временное ограничение - 1 минута. Но суммарный лимит 9ч, что приводит к тому, что надо давать ответы в среднем за 0.2сек. Раз в 968 шагов, что соответствует одному торговому дню, давали ответы за весь предыдущий день. Что давало интересные возможности, о которых ниже.
В последний день злодеи выкинули меня из золота паблика, хотя я тоже сделал свой лучший сабмит, исправив ошибки, как водится. Ну ничего, прайват будет настигать нас инкрементальными обновлениями аж до июля.
Я не придумал ни одной работающей идеи, но вот что мне помогло финишировать в топ-20:
1) Online learning. Нейронки отлично учатся на новых данных, самый лучший сетап - просто скормить им день как батч с низким lr. Деревья неожиданно тоже учатся и в итоговый ансамбль вошел lightgbm, для которого использовал метод refit для обновления. В среднем онлайн обучение давало маленький, но довольно надежный бонус к скору. Учится быстро (около 3 секунд суммарно на все мои модели раз за день)
2) Online ансамбль. Ну а почему бы и нет, раз уж мы модели можем дообучать, то и однослойный mlp с весами моделей в ансамбле тоже можем. Не смотря на метрику соревнования (weighted R2 ~ MSE) лучшим лоссом для ансамбля у меня был MAE.
3) TabM! Открытие ушедшего года, супер-модель, которая без всяких хитрых эмбеддингов, хотя она умеет и это, бьет на всех моих около-табличных бенчмарках все остальное, а кое-где и бусты. Без всяких наворотов, соло-модель на дефолтных фичах с онлайн обучением (и даже без) обгоняло лучший публичный ансамбль. Удивительно! Единственное что я сделал - странный лосс и отказ от использования категориальных фичей (с низкой кардинальностью). Использовал их как числа, отнормализовав в [0,1].
4) SWA спасение от стохастики в выборе гиперпараметра - сколько эпох учить. Вытягивает максимум за заданное число эпох
5) Валидация. Последние 120 дней, размером как паблик. Ну такое. Чем ближе к паблику, тем лучше бьются числа, но корреляция слабая. Однако! Лучшие гиперпараметры на валидации как-будто воспроизводят и лучший паблик. Использовал количество эпох для обучения как гиперпараметр и учил на полном датасете (включая бывшую валидацию)
6) Трансформер. Послабее чем TabM, но забустил скор в ансамбле. Нам дан не один ряд, а много рядов, соответствующих каким-то торговым тикерам. Крипта, фьючерсы или стоки - не так важно. Используем кросс-аттеншн чтобы спроецировать фичи с учетом других тикеров и на получившихся фичах гоняем RNN по времени. Трансформер по времени очень жруч по ресурсам, я даже не смог его довести до сабмита, а RNN позволяет сохранять стейт и применяться только к текущей порции данных. Возможно, тут я и проиграл и трансформер по времени был ключем для победы.
7) Хитрый лосс. MSE почему-то не коррелировал особо с R2. а вот MSE / var(y) коррелировал. Почти все модели обучены с ним.
8 ) Чего-то по мелочи, одна из моделей предсказывает вместо таргета целый ряд, на который сообразно реверс-инжинирингу накладываем лоссы из известных SMA. Не зашло, но чуть-чуть забустило ансамбль.
Смотрю на возможный шейкап позитивно, модель 6 обладает некоей сезонностью и паблик для нее плохое время, а потом (приват) должно быть хорошим 😂 Надеюсь, онлайн ансамбль вытянет. Паблик был намного стабильнее моей валидации, так что большого шейкапа не жду, буду удивлен, если он случится.
В соревновании был специфический для временных рядов способ принимать ответы - признаки, соответствующие последовательным моментам времени давались друг за другом и тебе не давали следующую порцию, пока не дал ответ к предыдущей. Временное ограничение - 1 минута. Но суммарный лимит 9ч, что приводит к тому, что надо давать ответы в среднем за 0.2сек. Раз в 968 шагов, что соответствует одному торговому дню, давали ответы за весь предыдущий день. Что давало интересные возможности, о которых ниже.
В последний день злодеи выкинули меня из золота паблика, хотя я тоже сделал свой лучший сабмит, исправив ошибки, как водится. Ну ничего, прайват будет настигать нас инкрементальными обновлениями аж до июля.
Я не придумал ни одной работающей идеи, но вот что мне помогло финишировать в топ-20:
1) Online learning. Нейронки отлично учатся на новых данных, самый лучший сетап - просто скормить им день как батч с низким lr. Деревья неожиданно тоже учатся и в итоговый ансамбль вошел lightgbm, для которого использовал метод refit для обновления. В среднем онлайн обучение давало маленький, но довольно надежный бонус к скору. Учится быстро (около 3 секунд суммарно на все мои модели раз за день)
2) Online ансамбль. Ну а почему бы и нет, раз уж мы модели можем дообучать, то и однослойный mlp с весами моделей в ансамбле тоже можем. Не смотря на метрику соревнования (weighted R2 ~ MSE) лучшим лоссом для ансамбля у меня был MAE.
3) TabM! Открытие ушедшего года, супер-модель, которая без всяких хитрых эмбеддингов, хотя она умеет и это, бьет на всех моих около-табличных бенчмарках все остальное, а кое-где и бусты. Без всяких наворотов, соло-модель на дефолтных фичах с онлайн обучением (и даже без) обгоняло лучший публичный ансамбль. Удивительно! Единственное что я сделал - странный лосс и отказ от использования категориальных фичей (с низкой кардинальностью). Использовал их как числа, отнормализовав в [0,1].
4) SWA спасение от стохастики в выборе гиперпараметра - сколько эпох учить. Вытягивает максимум за заданное число эпох
5) Валидация. Последние 120 дней, размером как паблик. Ну такое. Чем ближе к паблику, тем лучше бьются числа, но корреляция слабая. Однако! Лучшие гиперпараметры на валидации как-будто воспроизводят и лучший паблик. Использовал количество эпох для обучения как гиперпараметр и учил на полном датасете (включая бывшую валидацию)
6) Трансформер. Послабее чем TabM, но забустил скор в ансамбле. Нам дан не один ряд, а много рядов, соответствующих каким-то торговым тикерам. Крипта, фьючерсы или стоки - не так важно. Используем кросс-аттеншн чтобы спроецировать фичи с учетом других тикеров и на получившихся фичах гоняем RNN по времени. Трансформер по времени очень жруч по ресурсам, я даже не смог его довести до сабмита, а RNN позволяет сохранять стейт и применяться только к текущей порции данных. Возможно, тут я и проиграл и трансформер по времени был ключем для победы.
7) Хитрый лосс. MSE почему-то не коррелировал особо с R2. а вот MSE / var(y) коррелировал. Почти все модели обучены с ним.
8 ) Чего-то по мелочи, одна из моделей предсказывает вместо таргета целый ряд, на который сообразно реверс-инжинирингу накладываем лоссы из известных SMA. Не зашло, но чуть-чуть забустило ансамбль.
Смотрю на возможный шейкап позитивно, модель 6 обладает некоей сезонностью и паблик для нее плохое время, а потом (приват) должно быть хорошим 😂 Надеюсь, онлайн ансамбль вытянет. Паблик был намного стабильнее моей валидации, так что большого шейкапа не жду, буду удивлен, если он случится.
Forwarded from Data Blog
📈 Привет, друзья!
Сейчас работаю над обзором по explainable AI для мультимодальных моделей (задачка со звездочкой, не скажу, что закончу скоро, но стараюсь!)
Наткнулась на любопытную статью: Mapping the Mind of an Instruction-based Image Editing using SMILE.
Суть: товарищи представляют интерпретируемость на основе локальной модели — метод LIME на максималках — для построения тепловой карты влияния текстовых элементов на созданное изображение.
Что делают:
* Разбивают текстовую команду на ключевые слова.
* Генерируют изображения, изменяя команды, чтобы выявить влияние каждого слова.
* Создают визуальные тепловые карты (heatmaps), отображающие вес каждого слова в процессе редактирования изображения.
Фишка SMILE: вместо простого расстояния (например, косинусного, как у классического LIME) используют расстояние Васерштейна (и дотягивают к нему модель, обученную на извлечение признаков).
Что примечательно: LIME, в контексте XAI — пионер, он был предложен 2016 году, в статье ""Why Should I Trust You?" Explaining the Predictions of Any Classifier". Уникальность LIME — в качестве результата не коэффициенты влияния или графики, а суррогатная модель, объясняющая, как работает чёрный ящик.
С того времени LIME активно адаптировали: есть версии для временных рядов, графов, звука — карточки из статьи прикрепляю к посту. И вот мы дошли до генерации. Ну, красота.
На что хочу обратить внимание? Классические методы вроде LIME всё ещё мощный инструмент. Их потенциал огромный, особенно если адаптировать под задачи! Прямо рекомендую добавить их в свой XAI-инструментарий.
Меня это прям восхищает.
Не запланировано овладела большим количеством свободного времени и сейчас делаю ещё два материала. Первый — открытый (бесплатный) курс на степике по интерпретируемым моделям. Большой курс у меня уже есть (и он тоже растет), решила сделать поменьше)
Второй — обзорный курс на механистическую интерпретируемость. Тоже будет открытым.
Как только доделаю, будут ссылки! 😌
До встречи!
Ваш, Дата-автор!
Сейчас работаю над обзором по explainable AI для мультимодальных моделей (задачка со звездочкой, не скажу, что закончу скоро, но стараюсь!)
Наткнулась на любопытную статью: Mapping the Mind of an Instruction-based Image Editing using SMILE.
Суть: товарищи представляют интерпретируемость на основе локальной модели — метод LIME на максималках — для построения тепловой карты влияния текстовых элементов на созданное изображение.
Что делают:
* Разбивают текстовую команду на ключевые слова.
* Генерируют изображения, изменяя команды, чтобы выявить влияние каждого слова.
* Создают визуальные тепловые карты (heatmaps), отображающие вес каждого слова в процессе редактирования изображения.
Фишка SMILE: вместо простого расстояния (например, косинусного, как у классического LIME) используют расстояние Васерштейна (и дотягивают к нему модель, обученную на извлечение признаков).
Что примечательно: LIME, в контексте XAI — пионер, он был предложен 2016 году, в статье ""Why Should I Trust You?" Explaining the Predictions of Any Classifier". Уникальность LIME — в качестве результата не коэффициенты влияния или графики, а суррогатная модель, объясняющая, как работает чёрный ящик.
С того времени LIME активно адаптировали: есть версии для временных рядов, графов, звука — карточки из статьи прикрепляю к посту. И вот мы дошли до генерации. Ну, красота.
На что хочу обратить внимание? Классические методы вроде LIME всё ещё мощный инструмент. Их потенциал огромный, особенно если адаптировать под задачи! Прямо рекомендую добавить их в свой XAI-инструментарий.
Меня это прям восхищает.
Не запланировано овладела большим количеством свободного времени и сейчас делаю ещё два материала. Первый — открытый (бесплатный) курс на степике по интерпретируемым моделям. Большой курс у меня уже есть (и он тоже растет), решила сделать поменьше)
Второй — обзорный курс на механистическую интерпретируемость. Тоже будет открытым.
Как только доделаю, будут ссылки! 😌
До встречи!
Ваш, Дата-автор!
Forwarded from Dealer.AI
RStaR - с лучших решений по нитке Small-LM на колпак рассуждения соберем.
Всех с началом нового рабочего года.
Daily top papers на huggingface за 8.01.2025 статья про то как бустануть рассуждения моделек на уровне бОльших конкурентов.
На самом деле, собрали все самое лучшее, что сработало воедино и нормально затюнили:
1. STaR концепт для просеивания/фильтрации лучших рассуждений. Упоминается Дядей тут.
2. Используется augmented-ToT. Похожий концепт мне рассказывал один kaggle GM в сореве по решению математических олимпиад. Суть в том,чтобы делать генерации рассуждений/решений задач в путон коде. Далее запускать такое и нерабочие имплементации забанить, попросив дебагнуть LMку. Топ-1 решение соревы тут.
3. Process preference model (PPM) в пику dpo и прочим rlhf работает на оценке предпочтения веток полученных с Q-values поиска по дереву из другой топовой статьи по ToT для решения мат.задач с MCTS. Пример расчета и формулы в этой статье.
На этих знаниях лучше или хуже развилка рассуждений учим pair ranking model. Забавно,что кому-то в 2023 году Дядя предлагал в nli формате делать контрастив поиск веток рассуждений.
4. Это self-evolution подходы для обучения. О похожих концептах Дядя писал тут и тут. Подобно spin или rest подходам хорошие стратегии возвращаются для самоулучшения в сет обучения, как хорошие примеры.
В итоге, авторы получили суп из рабочих хаков в той или иной задаче вокруг рассуждений и решений math problem. Получили жОский ап и влетели в топ по бенчам, догнав топовых конкурентов с большим размером моделей.
Всех с началом нового рабочего года.
Daily top papers на huggingface за 8.01.2025 статья про то как бустануть рассуждения моделек на уровне бОльших конкурентов.
На самом деле, собрали все самое лучшее, что сработало воедино и нормально затюнили:
1. STaR концепт для просеивания/фильтрации лучших рассуждений. Упоминается Дядей тут.
2. Используется augmented-ToT. Похожий концепт мне рассказывал один kaggle GM в сореве по решению математических олимпиад. Суть в том,чтобы делать генерации рассуждений/решений задач в путон коде. Далее запускать такое и нерабочие имплементации забанить, попросив дебагнуть LMку. Топ-1 решение соревы тут.
3. Process preference model (PPM) в пику dpo и прочим rlhf работает на оценке предпочтения веток полученных с Q-values поиска по дереву из другой топовой статьи по ToT для решения мат.задач с MCTS. Пример расчета и формулы в этой статье.
На этих знаниях лучше или хуже развилка рассуждений учим pair ranking model. Забавно,что кому-то в 2023 году Дядя предлагал в nli формате делать контрастив поиск веток рассуждений.
4. Это self-evolution подходы для обучения. О похожих концептах Дядя писал тут и тут. Подобно spin или rest подходам хорошие стратегии возвращаются для самоулучшения в сет обучения, как хорошие примеры.
В итоге, авторы получили суп из рабочих хаков в той или иной задаче вокруг рассуждений и решений math problem. Получили жОский ап и влетели в топ по бенчам, догнав топовых конкурентов с большим размером моделей.
huggingface.co
Paper page - rStar-Math: Small LLMs Can Master Math Reasoning with Self-Evolved Deep
Thinking
Thinking
Join the discussion on this paper page
Forwarded from Dealer.AI
А теперь взгляните. У нас есть StAR, есть Q-values с MCTS на основе self-rewarding в состоянии ветки S, есть самоэволюция и все это не тот ли самый магический и легендарный Q-star? 🤔🤔🤔
OpenAI Developer Community
OpenAI Rumors: Q* is Now a Reasoning Engine Called 'Project Strawberry'
According to leaks reported by Bloomberg and Reuters, OpenAI is making progress in enabling AI models to plan ahead before providing answers. On Tuesday at an internal all-hands meeting, OpenAI showed a demo of a research project that it claimed had new…
Forwarded from Tensor Banana
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Ускоряем Hunyuan video fast еще в 2 раза на винде
Есть оригинальный Hunyuan-video-13B, он работает за 20-30 шагов (20-30 минут на видео), а есть дистиллированный Hunyuan fast, который работает за 6-10 шагов. 6 шагов мне не нравятся, 10 выглядят намного лучше (10 минут на генерацию 1 видео в 720p, 2 секунды, 48 кадров).
Недавно вышел waveSpeed, который ускоряет flux, LTX и hunyuan в 1.5-2 раза в comfy на видюхах 3000 серии и новее с помощью двух технологий: first-block-cache и torch-model-compile+. На моей 3090 прирост скорости относительно Hunyuan fast - в 2 раза, до 4.6 минуты на 1 видео. Поддерживается воркфлоу от comfyanonymous. Воркфлоу от kijai пока не поддерживается.
Hunyuan из коробки умеет nsfw. Верх довольно неплохой, низ слегка зацензурен, но лучше, чем в дефолтном flux. Но умельцы уже наделели 100+ лор для Hunyuan на civitai для разных nsfw поз, движений, персонажей и стилей (в https://civitai.com/models ставим 2 фильтра: LoRA + Hunyuan video).
Но compile+ ускоряет генерацию не всегда. Иногда torch compile занимает дополнительные 47 секунд. Перекомпилируется модель периодически, 1 раз в 2-3 генерации. Хз как побороть, скорее всего, vram мало, возможно, надо сделать меньше разрешение или количество кадров.
Предположу, что для работы Hunyuan хватит 32 GB RAM. У меня просто еще xtts+wav2lip в памяти висят. Если у вас в самом конце comfy вылетает без ошибок - снизьте разрешение или кол-во кадров.
Видел отзывы, что Hunyuan работает на 12 GB vram. Пока не тестил.
УСТАНОВКА
Нужен тритон и видюха 3000 серии или новее. 2000 серия nvidia не поддерживается. cuda toolkit 12.4+.
1. обновляем comfy через update_comfyui.bat
2. как установить тритон и sage-attention в комфи на винду:
https://www.reddit.com/r/StableDiffusion/comments/1h7hunp/how_to_run_hunyuanvideo_on_a_single_24gb_vram_card/
Первый шаг в этой инструкции пропускаем (установка нод kijai/ComfyUI-HunyuanVideoWrapper можно пропустить, мы будем использовать официальные ноды встроенные в комфи. Были отзывы, что в нодах от kijai пока не поддерживаются лоры при работе с first-block-cache). Выполняем пункты 2-4, включаем переводчик, если надо. Последние пункты 5-8 со скачиванием моделей не выполняем, мы скачаем другие, они меньше и быстрее.
3. Качаем clip_l.safetensors and llava_llama3_fp8_scaled и hunyuan_video_vae_bf16.safetensors: https://comfyanonymous.github.io/ComfyUI_examples/hunyuan_video/
Качаем hunyuan fast: https://huggingface.co/Kijai/HunyuanVideo_comfy/blob/main/hunyuan_video_FastVideo_720_fp8_e4m3fn.safetensors и кладем в diffusion_models
4. в run_nvidia_gpu.bat для запуска comfy надо добавить флаг
5. Устанавливаем custom node через comfyui manager -> install via GIT URL:
https://github.com/chengzeyi/Comfy-WaveSpeed
6. Hunyuan воркфлоу: https://github.com/Mozer/comfy_stuff/blob/main/workflows/hunyuan_fast_wave_speed_with_lora.json
Flux воркфлоу: https://github.com/Mozer/comfy_stuff/blob/main/workflows/flux_wave_speed.json
Советы:
- 1280x720, 720x1280, 544x960, 960x544 - рекомендуемые разрешения. В остальных могут быть артефакты.
- при малом количестве кадров анимация может работать хуже и с артефактами, рекомендую 25 и 49 кадров (1 и 2 сек)
- img2video пока нет, но разрабы обещают. Есть video2video и IPadapter2video от kijai.
- FLUX dev (bonus) -
1024x1024 20 steps
Прирост скорости во флаксе + waveSpeed составил 35%.
Во флаксе compile+ не работает на 3000 серии с flux-fp8, но работает с bf16, из-за этого прироста скорости не заметно. В hunyuan compile+ работает и дает прирост.
Есть оригинальный Hunyuan-video-13B, он работает за 20-30 шагов (20-30 минут на видео), а есть дистиллированный Hunyuan fast, который работает за 6-10 шагов. 6 шагов мне не нравятся, 10 выглядят намного лучше (10 минут на генерацию 1 видео в 720p, 2 секунды, 48 кадров).
Недавно вышел waveSpeed, который ускоряет flux, LTX и hunyuan в 1.5-2 раза в comfy на видюхах 3000 серии и новее с помощью двух технологий: first-block-cache и torch-model-compile+. На моей 3090 прирост скорости относительно Hunyuan fast - в 2 раза, до 4.6 минуты на 1 видео. Поддерживается воркфлоу от comfyanonymous. Воркфлоу от kijai пока не поддерживается.
Hunyuan из коробки умеет nsfw. Верх довольно неплохой, низ слегка зацензурен, но лучше, чем в дефолтном flux. Но умельцы уже наделели 100+ лор для Hunyuan на civitai для разных nsfw поз, движений, персонажей и стилей (в https://civitai.com/models ставим 2 фильтра: LoRA + Hunyuan video).
fast model, fp8:
48 frames, 48s/it, 10 min, 19 GB vram, 39 GB RAM
fast model, sage-attention, first-block-cache:
48 frames, 25s/it, 5.6 min, 20 GB vram, 38 GB RAM
sage-attention, first-block-cache, compile+:
25 frames, 10s/it, 2.1 min, 18 GB vram, 29 GB RAM
48 frames, 22s/it, 4.7 min, 20 GB vram, 38 GB RAM
61 frames, 34s/it, 6.7 min
65 frames - OOM
Но compile+ ускоряет генерацию не всегда. Иногда torch compile занимает дополнительные 47 секунд. Перекомпилируется модель периодически, 1 раз в 2-3 генерации. Хз как побороть, скорее всего, vram мало, возможно, надо сделать меньше разрешение или количество кадров.
Предположу, что для работы Hunyuan хватит 32 GB RAM. У меня просто еще xtts+wav2lip в памяти висят. Если у вас в самом конце comfy вылетает без ошибок - снизьте разрешение или кол-во кадров.
Видел отзывы, что Hunyuan работает на 12 GB vram. Пока не тестил.
УСТАНОВКА
Нужен тритон и видюха 3000 серии или новее. 2000 серия nvidia не поддерживается. cuda toolkit 12.4+.
1. обновляем comfy через update_comfyui.bat
2. как установить тритон и sage-attention в комфи на винду:
https://www.reddit.com/r/StableDiffusion/comments/1h7hunp/how_to_run_hunyuanvideo_on_a_single_24gb_vram_card/
Первый шаг в этой инструкции пропускаем (установка нод kijai/ComfyUI-HunyuanVideoWrapper можно пропустить, мы будем использовать официальные ноды встроенные в комфи. Были отзывы, что в нодах от kijai пока не поддерживаются лоры при работе с first-block-cache). Выполняем пункты 2-4, включаем переводчик, если надо. Последние пункты 5-8 со скачиванием моделей не выполняем, мы скачаем другие, они меньше и быстрее.
3. Качаем clip_l.safetensors and llava_llama3_fp8_scaled и hunyuan_video_vae_bf16.safetensors: https://comfyanonymous.github.io/ComfyUI_examples/hunyuan_video/
Качаем hunyuan fast: https://huggingface.co/Kijai/HunyuanVideo_comfy/blob/main/hunyuan_video_FastVideo_720_fp8_e4m3fn.safetensors и кладем в diffusion_models
4. в run_nvidia_gpu.bat для запуска comfy надо добавить флаг
--use-sage-attention вот так:.\python_embeded\python.exe -s ComfyUI\main.py --windows-standalone-build --use-sage-attention5. Устанавливаем custom node через comfyui manager -> install via GIT URL:
https://github.com/chengzeyi/Comfy-WaveSpeed
6. Hunyuan воркфлоу: https://github.com/Mozer/comfy_stuff/blob/main/workflows/hunyuan_fast_wave_speed_with_lora.json
Flux воркфлоу: https://github.com/Mozer/comfy_stuff/blob/main/workflows/flux_wave_speed.json
Советы:
- 1280x720, 720x1280, 544x960, 960x544 - рекомендуемые разрешения. В остальных могут быть артефакты.
- при малом количестве кадров анимация может работать хуже и с артефактами, рекомендую 25 и 49 кадров (1 и 2 сек)
- img2video пока нет, но разрабы обещают. Есть video2video и IPadapter2video от kijai.
- FLUX dev (bonus) -
1024x1024 20 steps
FLUX - 1.26s/it, 26 s.
FBC - 1.21it/s, 17 s.
FBC + compile+ - 1.20it/s, 17 s.
Прирост скорости во флаксе + waveSpeed составил 35%.
Во флаксе compile+ не работает на 3000 серии с flux-fp8, но работает с bf16, из-за этого прироста скорости не заметно. В hunyuan compile+ работает и дает прирост.