Forwarded from O
Пришел к тому, что читая статьи не сохраняю их копии с выделенным текстом, вместо этого пишу конспекты.
Сначала собираю конспект через копи-паст, потом переформулирую текст более кратко и понятно для себя. Так проще повторять материал, и занимает меньше места. Здесь можно посмотреть что в итоге получается.
Сначала собираю конспект через копи-паст, потом переформулирую текст более кратко и понятно для себя. Так проще повторять материал, и занимает меньше места. Здесь можно посмотреть что в итоге получается.
Forwarded from Quant Valerian
Скучали? 😏
Прочитал по совету Жени Антонова Черную книгу скрама.
В книге всего-то 25 страниц, но очень выпукло подсвечены проблемы скрама. С некоторыми я сталкивался сам и даже вскольз упоминал о них в канале в начале 2023 года. О других я тоже много думал и даже писал ироничный пост. А некоторые для меня оказались новыми, но не менее убедительными.
Традиционно выполню функцию суммаризации нейросетей для вас.
1. Скрам не agile по определению (ведь если что-то изменить в скраме, то это уже не скрам), хотя его маркетинговый успех де-факто установил в сознании среднестатистического айтишника формулу «скрам = agile» 🙈
2. В скраме невозможно планировать скоуп к сроку. Можно только сказать, что к концу следующего спринта будет сделано не более чем X💩
3. Скрам подразумевает кроссфункциональные команды, где каждый может помочь другому, но что-то я давно не видел PM'а, который помогал бы разработчикам писать код👨💻
4. Коллективная (без-)ответственность. Так как индивидуальный перфоманс не замеряется, то нужна сработанная команда, чтобы коллективная ответственность помогала, а не мешала. Это автоматически запрещает нам брать скрам для вновь собранной команды. Тем временем в реальном мире именно скрам — это дефолтный выбор для новичков🦥
5. Не только лишь все продукты можно делать итеративно, без плана, лишь только некоторые можно. Если вам нужен ледокол, то начинать с плота достаточно бессмысленно. Скрам же считает, что вы никогда не знаете, что вам нужно, поэтому мы пытаемся летать в космос на батутах🚀
6. Скрам требует много времени заказчика. Заказчик зачастую этому не рад🤡
7. Скрам требует, чтобы весь окружающий мир подстраивался под него, ведь его самого менять нельзя. Об этом я тоже упоминал https://t.me/quant_valerian/440, что скрам и канбан игнорируют существование смежных команд и оптимизируют локальную команду😎
8. Навязанные консультанты. Ну об этом только ленивый не говорил. Скрам создан для того, чтобы продавать курсы по скраму. И сертификации. И консультации сертифицированных специалистов🤑
9. Скрам так много говорит о том, что не нужно тратить время на планирование, там разберемся. Этим аргументируется и невозможность дать оценку сроков схождения проекта. При этом само устройство скрама подразумевает огромные затраты на планирование и поддержание спринта. У автора получилось 30% рабочего времени команды при недельных спринтах🤪
10. Наименее понятная мне часть. Невозможный продакт оунер. Продукт оунер в скраме должен сочетать в себе аналитика, представителя бизнеса и маркетолога. Таких почти не бывает💪
Практически все эти проблемы решены в tameflow. Разве что кроме коллективной ответственности (об этом tameflow вообще ничего не говорит). Книжку советую к прочтению, это такой классический башорговский юморок с запашком — мне зашло!😁
Прочитал по совету Жени Антонова Черную книгу скрама.
В книге всего-то 25 страниц, но очень выпукло подсвечены проблемы скрама. С некоторыми я сталкивался сам и даже вскольз упоминал о них в канале в начале 2023 года. О других я тоже много думал и даже писал ироничный пост. А некоторые для меня оказались новыми, но не менее убедительными.
Традиционно выполню функцию суммаризации нейросетей для вас.
1. Скрам не agile по определению (ведь если что-то изменить в скраме, то это уже не скрам), хотя его маркетинговый успех де-факто установил в сознании среднестатистического айтишника формулу «скрам = agile» 🙈
2. В скраме невозможно планировать скоуп к сроку. Можно только сказать, что к концу следующего спринта будет сделано не более чем X
3. Скрам подразумевает кроссфункциональные команды, где каждый может помочь другому, но что-то я давно не видел PM'а, который помогал бы разработчикам писать код
4. Коллективная (без-)ответственность. Так как индивидуальный перфоманс не замеряется, то нужна сработанная команда, чтобы коллективная ответственность помогала, а не мешала. Это автоматически запрещает нам брать скрам для вновь собранной команды. Тем временем в реальном мире именно скрам — это дефолтный выбор для новичков
5. Не только лишь все продукты можно делать итеративно, без плана, лишь только некоторые можно. Если вам нужен ледокол, то начинать с плота достаточно бессмысленно. Скрам же считает, что вы никогда не знаете, что вам нужно, поэтому мы пытаемся летать в космос на батутах
6. Скрам требует много времени заказчика. Заказчик зачастую этому не рад
7. Скрам требует, чтобы весь окружающий мир подстраивался под него, ведь его самого менять нельзя. Об этом я тоже упоминал https://t.me/quant_valerian/440, что скрам и канбан игнорируют существование смежных команд и оптимизируют локальную команду
8. Навязанные консультанты. Ну об этом только ленивый не говорил. Скрам создан для того, чтобы продавать курсы по скраму. И сертификации. И консультации сертифицированных специалистов
9. Скрам так много говорит о том, что не нужно тратить время на планирование, там разберемся. Этим аргументируется и невозможность дать оценку сроков схождения проекта. При этом само устройство скрама подразумевает огромные затраты на планирование и поддержание спринта. У автора получилось 30% рабочего времени команды при недельных спринтах
10. Наименее понятная мне часть. Невозможный продакт оунер. Продукт оунер в скраме должен сочетать в себе аналитика, представителя бизнеса и маркетолога. Таких почти не бывает
Практически все эти проблемы решены в tameflow. Разве что кроме коллективной ответственности (об этом tameflow вообще ничего не говорит). Книжку советую к прочтению, это такой классический башорговский юморок с запашком — мне зашло!
Please open Telegram to view this post
VIEW IN TELEGRAM
Iselihovkin
книги
Forwarded from КПД
KIVI: A Tuning-Free Asymmetric 2bit Quantization for KV Cache
[Статья] [Код]
Для того, чтобы работать с большим контекстом в условии ограниченных ресурсов необходимо как-нибудь да сжимать KV-кэши, и квантизация одно их первых, что приходит в голову.
Группа исследователей (с забавным примечанием The order of authors is determined by flipping a coin 🪙) из разных мест на послендем ICML представила статью со звучным названием KIVI (терминал оплаты, фрукт и птица пишутся по-другому).
Метод
Предыдущие методы квантизации кэшей обычно квантизовали кэши и ключи и потокенно, так как статистики (scale и zero) при таком подходе можно пересчитывать на лету. Для 4-битной квантизации такой подход работает хорошо, но при 2-х битных кэшах модель становится полностью негодной.
Дабы эффективно квантизовать кэши, авторы анализируют распределение активаций в KV-кэшах и обнаруживают, что в активациях k-проекций имеют место ярко выраженные выбросы, в то время как в v паттерн хаотический. Перебирая варианты с потокенной и поканальной квантизацией, исследователи приходят к выводу, что ключи лучше всего квантизовать поканально, а values - потокенно.
При поканальной квантизации придется пересчитывать значения всех прошлых кэшей при пересчете диапазона. Потому предлагается хранить неквантизуемый буфер из самых свежим токенов (размера 128) и, как только буфер наполнится, квантизовать данную группу, и начать следующий. Для длинных контекстов накладные расходы от такого буфера небольшие.
Эксперименты
Метод валидируют на бенчах из LM-Eval, LongBench (наборе задач на длинный контекст) и Needle-in-a-Haystack (где нужно достать вытащить нужный факт из длинного промпта) на моделях Llama-2, Mistral.
Наивная квантизация в 2 бита сильно страдает по качеству, а предложенный подход работает с совсем небольшой просадкой. Есть, правда, маленький нюанс, что 2-битная квантизация использует размер группы 32 с fp zero-point, что означает на практике 3 бита 😅. Needle-in-a-Haystack решается почти идеально.
Поддержание неквантизованного буфера свежим токенов важно для лучше качества (свежие токены влияют сильнее, чем далекие, в большинстве задач).
При работе с большими контекстами доминирующим фактором, определяющим скорость работы, при авторегрессивной генерации становится подгрузка кэшей (уже не весов модели). За счет их сжатия удается ускорить генерацию до 3.5 раз.
Вывод
Сжатие кэшей - богоугодное дело. А дабы эффективно квантизовать кэши полезно смотреть на распределение того - что сжимаешь.
[Статья] [Код]
Для того, чтобы работать с большим контекстом в условии ограниченных ресурсов необходимо как-нибудь да сжимать KV-кэши, и квантизация одно их первых, что приходит в голову.
Группа исследователей (с забавным примечанием The order of authors is determined by flipping a coin 🪙) из разных мест на послендем ICML представила статью со звучным названием KIVI (терминал оплаты, фрукт и птица пишутся по-другому).
Метод
Предыдущие методы квантизации кэшей обычно квантизовали кэши и ключи и потокенно, так как статистики (scale и zero) при таком подходе можно пересчитывать на лету. Для 4-битной квантизации такой подход работает хорошо, но при 2-х битных кэшах модель становится полностью негодной.
Дабы эффективно квантизовать кэши, авторы анализируют распределение активаций в KV-кэшах и обнаруживают, что в активациях k-проекций имеют место ярко выраженные выбросы, в то время как в v паттерн хаотический. Перебирая варианты с потокенной и поканальной квантизацией, исследователи приходят к выводу, что ключи лучше всего квантизовать поканально, а values - потокенно.
При поканальной квантизации придется пересчитывать значения всех прошлых кэшей при пересчете диапазона. Потому предлагается хранить неквантизуемый буфер из самых свежим токенов (размера 128) и, как только буфер наполнится, квантизовать данную группу, и начать следующий. Для длинных контекстов накладные расходы от такого буфера небольшие.
Эксперименты
Метод валидируют на бенчах из LM-Eval, LongBench (наборе задач на длинный контекст) и Needle-in-a-Haystack (где нужно достать вытащить нужный факт из длинного промпта) на моделях Llama-2, Mistral.
Наивная квантизация в 2 бита сильно страдает по качеству, а предложенный подход работает с совсем небольшой просадкой. Есть, правда, маленький нюанс, что 2-битная квантизация использует размер группы 32 с fp zero-point, что означает на практике 3 бита 😅. Needle-in-a-Haystack решается почти идеально.
Поддержание неквантизованного буфера свежим токенов важно для лучше качества (свежие токены влияют сильнее, чем далекие, в большинстве задач).
При работе с большими контекстами доминирующим фактором, определяющим скорость работы, при авторегрессивной генерации становится подгрузка кэшей (уже не весов модели). За счет их сжатия удается ускорить генерацию до 3.5 раз.
Вывод
Сжатие кэшей - богоугодное дело. А дабы эффективно квантизовать кэши полезно смотреть на распределение того - что сжимаешь.
Forwarded from эйай ньюз
Mistral обновили Codestral
Новая версия 25.01 значительно умнее и в два раза быстрее, из-за обновлённого токенизатора и улучшенной архитектуры. Окно контекста расширили до 256к токенов. Заявляют первое место на Copilot Arena, но результаты пока что не опубликовали.
С бенчами опять шалят - Qwen 2.5 Coder в сравнении отсутствует, семейство Llama тут представляет не Llama 3.3, а Codellama 70B полуторагодичной давности.
С моделями DeepSeek, на этот раз, всё же сравнивают, но только с моделями меньше 100B параметров, из-за чего сильные MoE модели из сравнения выпадают. А ведь Codestral стоит на уровне скидочных цен DeepSeek V3 - $0.09/$0.30 за вход/выход, не на уровне моделек поменьше. Но у Mistral нету context caching, что сильно повышает цену при реальном использовании модели в кодинге (в Copilot сценариях часто входных токенов 95%+). Ждём независимых бенчей чтобы понять реально соотношение цены и качества.
Весов в открытый доступ не дают, даже по кастрированной лицензии. Попробовать бесплатно можно через плагин continue.dev, он доступен для VS Code и JetBrains.
@ai_newz
Новая версия 25.01 значительно умнее и в два раза быстрее, из-за обновлённого токенизатора и улучшенной архитектуры. Окно контекста расширили до 256к токенов. Заявляют первое место на Copilot Arena, но результаты пока что не опубликовали.
С бенчами опять шалят - Qwen 2.5 Coder в сравнении отсутствует, семейство Llama тут представляет не Llama 3.3, а Codellama 70B полуторагодичной давности.
С моделями DeepSeek, на этот раз, всё же сравнивают, но только с моделями меньше 100B параметров, из-за чего сильные MoE модели из сравнения выпадают. А ведь Codestral стоит на уровне скидочных цен DeepSeek V3 - $0.09/$0.30 за вход/выход, не на уровне моделек поменьше. Но у Mistral нету context caching, что сильно повышает цену при реальном использовании модели в кодинге (в Copilot сценариях часто входных токенов 95%+). Ждём независимых бенчей чтобы понять реально соотношение цены и качества.
Весов в открытый доступ не дают, даже по кастрированной лицензии. Попробовать бесплатно можно через плагин continue.dev, он доступен для VS Code и JetBrains.
@ai_newz
Forwarded from Art, Design & AI (Lena Starkova)
Модель 1.6 получила классные обновления, которые сделают работу с промптами проще и эффективнее:
• Словарь промптов
Теперь доступен для Text-to-Video и Image-to-Video! Рекомендации по движениям камеры, сценам и освещению помогут создавать сложные промпты быстро и интуитивно.
• Управление пресетами
Новый модуль My Presets позволяет сохранять часто используемые комбинации промптов одним нажатием. Больше скорости, меньше рутины!
• Ну и на десерт
Функция Lip Sync добавлена в меню и доступна для всех загруженных видео.
🔗 klingai.com
Арт, дизайн и нейросети
@art_design_ai / #kling@art_design_ai
⚡Бустануть канал - https://t.me/boost/art_design_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Мальцев: Карьера с AI
This media is not supported in your browser
VIEW IN TELEGRAM
Почему одни фильмы и истории становятся легендарными, а другие проваливаются? Всё дело в "Пути Героя" Кэмпбелла
Пишу из Дубай, где активно смотрю кинопремьеры декабря. Честно – многие фильмы не цепляют (и низкие рейтинги на IMDB это подтверждают). Знаменитые режиссёры и актёры, крутая графика – а в середине фильма ловлю себя на мысли, что не понимаю сценарий и мотивацию персонажей. От этого непонимания хочется быстрее свалить с сеанса.
🤔 Я задумался, почему так происходит и есть ли рецепт "легендарного сценария" для рассказа увлекательных историй. В поиске ответов наткнулся на TED-лекцию «What makes a hero?» и прикрепил ее видео к посту. В ней говорится, что все известные мифы и истории на самом деле созданы по одному универсальному фреймворку из книги «Тысячеликий герой» и теории о «Мономифе и Пути Героя» Джо Кэмпбелла.
📝 Что же делает историю легендарной
1️⃣ Персонажи, созданные по архетипам из книги Юнга.
Базовые образы героя и персонажей (Мудрец, Тень, Союзник, Трикстер) вокруг героя, которые с детства живут в подсознании каждого человека. Именно поэтому они так цепляют!
Разберем на примерах:
🪄 «Гарри Поттер»
• Герой: Гарри (обычный мальчик → спаситель мира волшебников и маглов)
• Мудрец: Дамблдор
• Тень: Волан-де-Морт
• Союзники: Рон и Гермиона
• Трикстер: Драко
🗡 «Властелин Колец»
• Герой: Фродо (обычный хоббит → спаситель Средиземья от тьмы)
• Мудрец: Гэндальф
• Тень: Саурон
• Союзники: Сэм
• Трикстер: Голлум
2️⃣ Фреймворк развития Пути Героя.
1. Обычный мир: Герой живет своей обычной жизнью, не осознавая своего предназначения.
2. Зов к приключениям: Происходит необычное, призывая Героя к действию и переменам. Сначала Герой отказывается от зова, его одолевает инстинкт самосохранения или страх поражения перед Тенью (главным злом).
3. Встреча с наставником: Появляется Мудрец, чтобы подготовить Героя к предстоящим испытаниям.
4. Испытания, союзники и враги: Герой сталкивается с трудностями, связанными с Тенью. Находит Союзников, противостоит врагам и Трикстеру (неоднозначному персонажу, который попытается сбить Героя с пути).
5. Финальное испытание: Герой в одиночку сражается с Тенью, используя все силы и полученные знания.
6. Награда: Победив Тень, Герой получает награду — новый опыт, сокровище. Совершает подвиг, важный для всех зрителей и персонажей.
7. Возвращение с эликсиром: Герой возвращается домой преображенным, принося с собой нечто ценное для своего внутреннего и всего внешнего мира.
🎯 Примеры известных фильмов, созданных по фреймворку Пути Героя: Гарри Поттер, Властелин Колец, Звёздные войны, Матрица, Король Лев, Черная Пантера, Начало и другие.
💡Фреймворк "Пути Героя" работает и для создания собственных увлекательных историй
• Сторис в соцсетях: Митрошина часто публикует сторис на основе "Пути Героя". Смотря ее закрепы, подписчики видят, как она — Герой «принимает зов, попадает в трудности, получает помощь, преодолевает себя» и на основе своей истории готова делиться опытом, став Мудрецом. Такой сторителлинг позволяет ей становиться экспертом, вовлекать аудиторию и продавать курсы на миллиард рублей.
• Коммуникации брендов: Nike делает много iconic кампаний, построенных на основе "Пути Героя". Первый шаг в приближении к их уровню - перестать думать что твой продукт и бренд находится в центре вселенной, занять роль Мудреца или Союзника для помощи с испытаниями клиента — Героя. Следующие шаги я описал в моем саммари по книге «Storybrand» из прошлого поста.
• Даже баттл Оксимирона с Гнойным был рассказан по "Пути Героя"😉
✍️ Придумать и рассказать классную историю — это скилл
Чтобы начать его качать, обращайте внимание на то как связаны новогодние истории, фильмы и видео с:
1. Архетипами Юнга. Какой архетип у персонажа, про которого вы только что узнали или говорите сами? Какие его мотивы?
2. Путем Героя. На каком этапе своего пути сейчас герой рассказа или вы сами? Что ждет вас дальше?
👍 - если пост полезен и поможет вам рассказывать увлекательные истории про свою жизнь и ваши бренды
💬 - пишите в комменты свои вопросы, разберем их вместе 🙂
Мальцев | Карьера и Маркетинг с AI
Пишу из Дубай, где активно смотрю кинопремьеры декабря. Честно – многие фильмы не цепляют (и низкие рейтинги на IMDB это подтверждают). Знаменитые режиссёры и актёры, крутая графика – а в середине фильма ловлю себя на мысли, что не понимаю сценарий и мотивацию персонажей. От этого непонимания хочется быстрее свалить с сеанса.
🤔 Я задумался, почему так происходит и есть ли рецепт "легендарного сценария" для рассказа увлекательных историй. В поиске ответов наткнулся на TED-лекцию «What makes a hero?» и прикрепил ее видео к посту. В ней говорится, что все известные мифы и истории на самом деле созданы по одному универсальному фреймворку из книги «Тысячеликий герой» и теории о «Мономифе и Пути Героя» Джо Кэмпбелла.
📝 Что же делает историю легендарной
1️⃣ Персонажи, созданные по архетипам из книги Юнга.
Базовые образы героя и персонажей (Мудрец, Тень, Союзник, Трикстер) вокруг героя, которые с детства живут в подсознании каждого человека. Именно поэтому они так цепляют!
Разберем на примерах:
🪄 «Гарри Поттер»
• Герой: Гарри (обычный мальчик → спаситель мира волшебников и маглов)
• Мудрец: Дамблдор
• Тень: Волан-де-Морт
• Союзники: Рон и Гермиона
• Трикстер: Драко
🗡 «Властелин Колец»
• Герой: Фродо (обычный хоббит → спаситель Средиземья от тьмы)
• Мудрец: Гэндальф
• Тень: Саурон
• Союзники: Сэм
• Трикстер: Голлум
2️⃣ Фреймворк развития Пути Героя.
1. Обычный мир: Герой живет своей обычной жизнью, не осознавая своего предназначения.
2. Зов к приключениям: Происходит необычное, призывая Героя к действию и переменам. Сначала Герой отказывается от зова, его одолевает инстинкт самосохранения или страх поражения перед Тенью (главным злом).
3. Встреча с наставником: Появляется Мудрец, чтобы подготовить Героя к предстоящим испытаниям.
4. Испытания, союзники и враги: Герой сталкивается с трудностями, связанными с Тенью. Находит Союзников, противостоит врагам и Трикстеру (неоднозначному персонажу, который попытается сбить Героя с пути).
5. Финальное испытание: Герой в одиночку сражается с Тенью, используя все силы и полученные знания.
6. Награда: Победив Тень, Герой получает награду — новый опыт, сокровище. Совершает подвиг, важный для всех зрителей и персонажей.
7. Возвращение с эликсиром: Герой возвращается домой преображенным, принося с собой нечто ценное для своего внутреннего и всего внешнего мира.
🎯 Примеры известных фильмов, созданных по фреймворку Пути Героя: Гарри Поттер, Властелин Колец, Звёздные войны, Матрица, Король Лев, Черная Пантера, Начало и другие.
💡Фреймворк "Пути Героя" работает и для создания собственных увлекательных историй
• Сторис в соцсетях: Митрошина часто публикует сторис на основе "Пути Героя". Смотря ее закрепы, подписчики видят, как она — Герой «принимает зов, попадает в трудности, получает помощь, преодолевает себя» и на основе своей истории готова делиться опытом, став Мудрецом. Такой сторителлинг позволяет ей становиться экспертом, вовлекать аудиторию и продавать курсы на миллиард рублей.
• Коммуникации брендов: Nike делает много iconic кампаний, построенных на основе "Пути Героя". Первый шаг в приближении к их уровню - перестать думать что твой продукт и бренд находится в центре вселенной, занять роль Мудреца или Союзника для помощи с испытаниями клиента — Героя. Следующие шаги я описал в моем саммари по книге «Storybrand» из прошлого поста.
• Даже баттл Оксимирона с Гнойным был рассказан по "Пути Героя"😉
✍️ Придумать и рассказать классную историю — это скилл
Чтобы начать его качать, обращайте внимание на то как связаны новогодние истории, фильмы и видео с:
1. Архетипами Юнга. Какой архетип у персонажа, про которого вы только что узнали или говорите сами? Какие его мотивы?
2. Путем Героя. На каком этапе своего пути сейчас герой рассказа или вы сами? Что ждет вас дальше?
👍 - если пост полезен и поможет вам рассказывать увлекательные истории про свою жизнь и ваши бренды
Мальцев | Карьера и Маркетинг с AI
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Мальцев: Карьера с AI
Ребята, хочу поделиться с вами лайфхаком для работы с AI в 2025 году 🏄
С 2017 я интересуюсь темой AI (с того самого момента, когда бот OpenAI эпично уделал Dendi в Dota 2 — кто бы мог подумать, что это только начало! 😅) и постоянно ищу способы, как использовать нейросети для решения своих рабочих задач.
В конце года захотелось структурировать знания в одну статью-методологию и один промпт, поделиться ими с вами. Перед этим я:
• Прошел курсы по YandexGPT, ChatGPT (особенно понравился Reasoning with GPT от OpenAI) и переосмыслил все свои промпты
• Протестировал последние версии ChatGPT, Gemini, Claude, YandexGPT и обсудил свои мысли с Серегой Юдиным
🎯 Результат: создал универсальный шаблон промпта, который хорошо работает с 80% моих задач в GPT (а ставлю я их по паре штук каждый день). Сохраняйте себе в избранное универсальный шаблон для постановки сложной задачи для GPT в 2025.
Контекст: [Опишите ситуацию для постановки задачи, проблему, цель, целевую аудиторию для кого делаете задачу...]
Роль: Представь что ты [Кто?]. Ты обладаешь глубоким пониманием [ключевых навыков/знаний...] и имеешь опыт в [область, связанная с задачей...]
Задача: [Что делать? Сформулируйте, что нужно сделать. Используйте глаголы действия и укажите, что является конечным результатом...].
Перед ответом на задачу используй логический подход для выполнения задачи и обоснования своих решений.
Подумай, какие шаги или подходы будут наиболее эффективны для выполнения задачи, и приведи аргументы, почему.
Формат: [В каком виде? Опишите желаемый формат результата. Укажите тип, структуру, элементы...].
Укажи несколько примеров по содержанию и оформлению. Объясни, почему именно предложенное решение будет наиболее эффективным.
Объем: [Сколько? Укажите желаемый объем. Используйте измеримые единицы символов, слов, страниц, примеров, пунктов...]
Стиль: [Как? Определите стиль, укажите тональность, настроение, допустимые языковые средства...]. Ответ должен быть [ключевые особенности стиля...]
Критерии качества: Каждое решение должно быть логически обосновано и подкреплено аргументами. [Что еще важно? Перечислите критерии...]
Приоритеты: [Что в фокусе? Расставьте приоритеты для критериев качества. Приоритет 1 - ... Приоритет 2 - ...]
Дополнительная информация: При разработке ответа используй логику, дедукцию и аргументацию. [Что еще важно для решения задачи? Добавьте любую релевантную информацию]
💡 Шаблон уже включает фразы для активации Reasoning и был проверен на ChatGPT, YandexGPT, Gemini, Claude. Например, с его помощью мы создали один из самых конверсионных лендингов для "Нейроредактора" в Яндекс Браузере.
🔍 Подробный разбор трендов AI на 2025, все фишки промпта и реальные кейсы использования — в статье на vc.ru:
• Как один промпт может заменить десятки шаблонов для ChatGPT, YandexGPT и других нейросетей в 2025?
• Как использовать Reasoning, чтобы нейросеть думала как человек?
• Метапромптинг — новый «чит-код» для работы с ИИ или все еще сырой метод для ленивых?
💭 Мечтаю, что шаблон промпта и информация из статьи помогут всем нам выжимать из GPT максимум для своих задач, а кому-то наконец-то преодолеть блок «это всё не для меня, действую по-старинке».
👍 - если пост полезен и поможет вам в работе с GPT в 2025
Мальцев | Карьера и Маркетинг с AI
Please open Telegram to view this post
VIEW IN TELEGRAM
vc.ru
Универсальный промпт для нейросети: как выжать максимум из ChatGPT, YandexGPT, Gemini, DeepSeek в 2025
Я отвечаю за маркетинг Яндекс Браузера (ex CMO Яндекс Путешествия, Playrix, консультировал League of Legends, Tinkoff, Sber, VK). Буду делиться опытом работы с нейросетями в моей жизни обычного сотрудника, который не сильно разбирается в коде или продвинутом…
Forwarded from Мальцев: Карьера с AI
Ребята, хочу рассказать как за новогодние я хакнул свое обучение. С Gemini (или СhatGPT) и NotebookLM я теперь читаю сотню Telegram-каналов за 2 часа в неделю и держу под рукой структурированные знания, которые постоянно обновляются.
Делюсь с вами лайфхаком по бусту чтения и запоминания тысяч постов из каналов, книг и курсов в 2025 🏄
Как мы с GPT читаем и запоминаем тысячи ранее опубликованных постов из Telegram-каналов
Фишки для буста моего обучения с NotebookLM
Как мы с GPT еженедельно читаем и запоминаем сотни новых постов из Telegram-каналов
🔍 Подробный разбор и примеры для каждого упомянутого мной выше пункта — в моей статье на vc.ru.
💭 Уметь постоянно учиться — это отдельный скилл, с которым связан потенциал для развития каждого из нас. А этот потенциал всегда рассматривается при любых кадровых решениях и часто влияет на финальный выбор даже директоров крупных компаний.
Надеюсь, что мой пост поможет вам забустить скилы обучения. А 2025 будет для вас топовым, в том числе потому, что вы сможете еще быстрее прокачивать знания и навыки.
❤️ и 👍 - если пост полезен и вам интересно посмотреть все промпты, примеры по теме чтения и обучения с GPT
Мальцев: Карьера. Маркетинг. AI.
Please open Telegram to view this post
VIEW IN TELEGRAM
vc.ru
Как с помощью GPT я читаю и запоминаю посты из сотни Telegram каналов и не схожу с ума
Я отвечаю за маркетинг Яндекс Браузера (ex CMO Яндекс Путешествия, Playrix, eBay и консультант League of Legends, Tinkoff, Sber, VK). Подпишитесь на мой telegram-канал «Мальцев: Карьера. Маркетинг. AI», где я делюсь своим опытом по применению нейросетей для…
Forwarded from adapt compete evolve or die
Закончилось соревнование Jane Street Real-Time Market Data Forecasting где надо было предсказывать не пойми что на не пойми каких фичах 🤷 Однако, какой-то гений из MIT отреверсинжинирил, что это не совсем не пойми чо, а простое скользящее среднее 20 подряд не пойми чего. Техника, которой он это сделал, интересная, мне понравилось. Никак мне не помогло, хотя я пару дней очень пытался из этого что-то выжать.
В соревновании был специфический для временных рядов способ принимать ответы - признаки, соответствующие последовательным моментам времени давались друг за другом и тебе не давали следующую порцию, пока не дал ответ к предыдущей. Временное ограничение - 1 минута. Но суммарный лимит 9ч, что приводит к тому, что надо давать ответы в среднем за 0.2сек. Раз в 968 шагов, что соответствует одному торговому дню, давали ответы за весь предыдущий день. Что давало интересные возможности, о которых ниже.
В последний день злодеи выкинули меня из золота паблика, хотя я тоже сделал свой лучший сабмит, исправив ошибки, как водится. Ну ничего, прайват будет настигать нас инкрементальными обновлениями аж до июля.
Я не придумал ни одной работающей идеи, но вот что мне помогло финишировать в топ-20:
1) Online learning. Нейронки отлично учатся на новых данных, самый лучший сетап - просто скормить им день как батч с низким lr. Деревья неожиданно тоже учатся и в итоговый ансамбль вошел lightgbm, для которого использовал метод refit для обновления. В среднем онлайн обучение давало маленький, но довольно надежный бонус к скору. Учится быстро (около 3 секунд суммарно на все мои модели раз за день)
2) Online ансамбль. Ну а почему бы и нет, раз уж мы модели можем дообучать, то и однослойный mlp с весами моделей в ансамбле тоже можем. Не смотря на метрику соревнования (weighted R2 ~ MSE) лучшим лоссом для ансамбля у меня был MAE.
3) TabM! Открытие ушедшего года, супер-модель, которая без всяких хитрых эмбеддингов, хотя она умеет и это, бьет на всех моих около-табличных бенчмарках все остальное, а кое-где и бусты. Без всяких наворотов, соло-модель на дефолтных фичах с онлайн обучением (и даже без) обгоняло лучший публичный ансамбль. Удивительно! Единственное что я сделал - странный лосс и отказ от использования категориальных фичей (с низкой кардинальностью). Использовал их как числа, отнормализовав в [0,1].
4) SWA спасение от стохастики в выборе гиперпараметра - сколько эпох учить. Вытягивает максимум за заданное число эпох
5) Валидация. Последние 120 дней, размером как паблик. Ну такое. Чем ближе к паблику, тем лучше бьются числа, но корреляция слабая. Однако! Лучшие гиперпараметры на валидации как-будто воспроизводят и лучший паблик. Использовал количество эпох для обучения как гиперпараметр и учил на полном датасете (включая бывшую валидацию)
6) Трансформер. Послабее чем TabM, но забустил скор в ансамбле. Нам дан не один ряд, а много рядов, соответствующих каким-то торговым тикерам. Крипта, фьючерсы или стоки - не так важно. Используем кросс-аттеншн чтобы спроецировать фичи с учетом других тикеров и на получившихся фичах гоняем RNN по времени. Трансформер по времени очень жруч по ресурсам, я даже не смог его довести до сабмита, а RNN позволяет сохранять стейт и применяться только к текущей порции данных. Возможно, тут я и проиграл и трансформер по времени был ключем для победы.
7) Хитрый лосс. MSE почему-то не коррелировал особо с R2. а вот MSE / var(y) коррелировал. Почти все модели обучены с ним.
8 ) Чего-то по мелочи, одна из моделей предсказывает вместо таргета целый ряд, на который сообразно реверс-инжинирингу накладываем лоссы из известных SMA. Не зашло, но чуть-чуть забустило ансамбль.
Смотрю на возможный шейкап позитивно, модель 6 обладает некоей сезонностью и паблик для нее плохое время, а потом (приват) должно быть хорошим 😂 Надеюсь, онлайн ансамбль вытянет. Паблик был намного стабильнее моей валидации, так что большого шейкапа не жду, буду удивлен, если он случится.
В соревновании был специфический для временных рядов способ принимать ответы - признаки, соответствующие последовательным моментам времени давались друг за другом и тебе не давали следующую порцию, пока не дал ответ к предыдущей. Временное ограничение - 1 минута. Но суммарный лимит 9ч, что приводит к тому, что надо давать ответы в среднем за 0.2сек. Раз в 968 шагов, что соответствует одному торговому дню, давали ответы за весь предыдущий день. Что давало интересные возможности, о которых ниже.
В последний день злодеи выкинули меня из золота паблика, хотя я тоже сделал свой лучший сабмит, исправив ошибки, как водится. Ну ничего, прайват будет настигать нас инкрементальными обновлениями аж до июля.
Я не придумал ни одной работающей идеи, но вот что мне помогло финишировать в топ-20:
1) Online learning. Нейронки отлично учатся на новых данных, самый лучший сетап - просто скормить им день как батч с низким lr. Деревья неожиданно тоже учатся и в итоговый ансамбль вошел lightgbm, для которого использовал метод refit для обновления. В среднем онлайн обучение давало маленький, но довольно надежный бонус к скору. Учится быстро (около 3 секунд суммарно на все мои модели раз за день)
2) Online ансамбль. Ну а почему бы и нет, раз уж мы модели можем дообучать, то и однослойный mlp с весами моделей в ансамбле тоже можем. Не смотря на метрику соревнования (weighted R2 ~ MSE) лучшим лоссом для ансамбля у меня был MAE.
3) TabM! Открытие ушедшего года, супер-модель, которая без всяких хитрых эмбеддингов, хотя она умеет и это, бьет на всех моих около-табличных бенчмарках все остальное, а кое-где и бусты. Без всяких наворотов, соло-модель на дефолтных фичах с онлайн обучением (и даже без) обгоняло лучший публичный ансамбль. Удивительно! Единственное что я сделал - странный лосс и отказ от использования категориальных фичей (с низкой кардинальностью). Использовал их как числа, отнормализовав в [0,1].
4) SWA спасение от стохастики в выборе гиперпараметра - сколько эпох учить. Вытягивает максимум за заданное число эпох
5) Валидация. Последние 120 дней, размером как паблик. Ну такое. Чем ближе к паблику, тем лучше бьются числа, но корреляция слабая. Однако! Лучшие гиперпараметры на валидации как-будто воспроизводят и лучший паблик. Использовал количество эпох для обучения как гиперпараметр и учил на полном датасете (включая бывшую валидацию)
6) Трансформер. Послабее чем TabM, но забустил скор в ансамбле. Нам дан не один ряд, а много рядов, соответствующих каким-то торговым тикерам. Крипта, фьючерсы или стоки - не так важно. Используем кросс-аттеншн чтобы спроецировать фичи с учетом других тикеров и на получившихся фичах гоняем RNN по времени. Трансформер по времени очень жруч по ресурсам, я даже не смог его довести до сабмита, а RNN позволяет сохранять стейт и применяться только к текущей порции данных. Возможно, тут я и проиграл и трансформер по времени был ключем для победы.
7) Хитрый лосс. MSE почему-то не коррелировал особо с R2. а вот MSE / var(y) коррелировал. Почти все модели обучены с ним.
8 ) Чего-то по мелочи, одна из моделей предсказывает вместо таргета целый ряд, на который сообразно реверс-инжинирингу накладываем лоссы из известных SMA. Не зашло, но чуть-чуть забустило ансамбль.
Смотрю на возможный шейкап позитивно, модель 6 обладает некоей сезонностью и паблик для нее плохое время, а потом (приват) должно быть хорошим 😂 Надеюсь, онлайн ансамбль вытянет. Паблик был намного стабильнее моей валидации, так что большого шейкапа не жду, буду удивлен, если он случится.