Интересное что-то
517 subscribers
2.72K photos
253 videos
139 files
4.52K links
Материалы и мысли, понадерганные отовсюду
Блог: https://t.me/asisakov_channel
Чат: https://t.me/youknowds_chat
Download Telegram
Forwarded from Fless (Victor Rogulenko @flesspro)
В продолжение рубрики #casestudies расскажу о структурировании подхода к бренд-маркетингу.

(Бренд-маркетинг -- продвижение компании на широкой аудитории без немедленной конверсии в продажу. Пример -- реклама Кока-колы по ТВ)

Приходит один известный бренд и говорит: Слушай, помоги нам разобраться с бренд-макретингом.
- Стратегию написали.
- Позиционирование бренда сформулировано.
- С performance маркетингом всё ок.
- А вот с бренд-маркетингом до сей поры работали оппортунистически, выбирая проекты по бинарной оценке "круто или зашквар". Теперь же хотим вложить Х00М руб., и так дело не пойдёт.

Вопросы:
- Как должен выглядеть механизм выбора проектов?
- Как оценивать эффективность?
- Какую команду под это направление нанимать?

У меня нет готовых ответов на эти вопросы. Но, как всегда, у меня есть готовые структурированные вопросы 😁 для систематического поиска ответов на эти исходные вопросы. Вот так они выглядят:

(Ради тренировки попробуйте сами набросать структуру вопросов или попросите ЧатГПТ, а потом сравните с моим подходом)

Часть 1. Что мы хотим сообщить?
- Цели маркетинговой коммуникации компании и её связь со стратегией
- Ключевые характеристики компании на основе позиционирования бренда
- Вытекающие из них принципы консистентного развития бренда

Часть 2. Кому и где мы хотим это сообщить?
- Что мы знаем о нашей аудитории: вспомним имеющиеся наработки
- Где можно до неё достучаться, а куда – не стоит соваться?
- Уточнение принципов развития бренда на основе знаний об аудитории

Часть 3. Как оценить отдельные инициативы до их реализации?
- Как можно типизировать инициативы?
- Какие варианты оценки инициатив существуют? В чём их плюсы и минусы?
- Схема принятия решений по инициативам в рамках целей
- Тест-драйв схемы на прошлых и потенциальных инициативах

Часть 4. Как оценить работу пост-фактум?
- Какие варианты оценки эффективности бренд-маркетинга существуют?
- Выбор подходящего набор инструментов оценки эффективности
- Как реализовать эту оценку на практике?

Часть 5. Дальнейшие шаги по бренд-маркетингу?
- Список будущих инициатив (как внешних, так и внутренних)
- Зоны ответственности (для дальнейшей формулировки ролей в команде)

Результат поиска ответов на эти вопросы, вероятно, вы скоро увидите вокруг вас. Где именно, раскрыть не могу.

✈️Метод McKinsey на примерах: @flesspro
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from GoPractice!
Как пройти путь от РМ до СРО. Этапы развития и практические шаги

Путь к продуктовому лидерству совсем не похож на A → B. Он сложнее и куда извилистее.

Работаете в стартапе или корпорации? Отвечаете за фичу или целый продукт? Склонны фокусироваться на персональном вкладе в проект или стремитесь управлять командой? Эти вопросы — и множество других — скрывают за собой разветвления, которые делают каждый путь к топовой продуктовой позиции не слишком похожим на другие.

Но все же этой теме можно придать системный и структурный вид. Именно поэтому мы попросили Геворга Казаряна, Group Product Manager в Adobe, поделиться своим опытом прохождения пути к продуктовому лидерству.

🔗 https://gopractice.ru/skills/from-pm-to-cpo/

Как определять возможности роста своего продукта, вы узнаете в нашем «Симуляторе управления ростом продукта».

В нем вы получите знания и навыки, необходимые для управляемого роста продуктов, что также поможет вам сделать следующий шаг в карьере.
Forwarded from Knowledge Accumulator
Direct Preference Optimization: Your Language Model is Secretly a Reward Model [2023] - продолжаем LLM-ликбез

В прошлый раз мы разбирали стандартный RLHF, теперь давайте глянем на самого популярного из конкурентов и наследников, DPO. Авторы статьи говорят про RLHF следующее:

1) Reward model у нас не особо круто работает, особенно вне data distribution, поэтому полноценный её максимизатор будет плохим.
2) Существует ещё и проблема разнообразия, которого при идеальной максимизации не будет.
3) Наши RL методы сами по себе неидеальны и дороги в вычислении и реализации/отладке.

Вместо этого они хотят сформулировать задачу для обучения более простым образом. Давайте посмотрим, что из этого вышло.

Я не погружался в доказательства вывода, изложу своё понимание результата. Авторы замечают, что двухшаговая процедура из обучения Reward Model и затем RL можно переформулировать как одношаговую процедуру обучения на задачу с одной функцией ошибки и без дополнительной Reward Model.

Почему это возможно? Во-первых, в отличие от обычного RL, никаких настоящих наград не существует, а также нет никакого онлайн-взаимодействия со средой. У нас есть только зафиксированный датасет из троек [запрос ; хороший ответ ; плохой ответ].

На таких данных задачу можно формулировать по-разному, но в сущности они будут оптимизировать одно и то же - приближать модель к генерации хороших ответов, отдалять от генерации плохих ответов, при этом накладывая регуляризацию, чтобы модель далеко не убегала от инициализации. Одну из реализаций такой функции ошибки и предложили авторы статьи.

Практического опыта у меня нет, но в статье DPO вроде бы обходит RLHF на задачах. Чуваки в статье про Llama3 пишут, что используют DPO, так что, наверное, метод действительно лучше с учётом простоты реализации.

Замечу, что метод не решает обозначенные мною проблемы в посте про RLHF. Они вытекают из самих данных с человеческой разметкой, которые, во-первых, зафиксированы, а значит, не происходит GAN-подобного обучения, в котором данные пытаются "атаковать" модель в её слабые места и тем самым позволяя ей улучшаться, а, во-вторых, недостаточно велики и разнообразны, чтобы для решения поставленной задачи нужно было обучаться логическому размышлению и построению качественной картины мира.

Наверняка для RLHF/DPO придумали множество модификаций (в том числе всякие конструкции поверх LLM типа CoT), которые дают более крутой результат, но с таким соотношением пространства параметров и объёма данных решить задачу по-нормальному пока что вряд ли получится.

@knowledge_accumulator
Forwarded from эйай ньюз
🔥Molmo: Outperforming Proprietary Multimodal Language Models

Приношу вам самый сок. Кажется, это самый лучший доклад за сегодня.

За два часа до релиза Llama 3.2 челы выложили семейство открытых моделей Molmo (и нет, это не совпадение):
- 1B
- 7B
- 72B

По качеству на визуальных задачах Molmo выдаёт +- перформанс как Llama 3.2: где-то лучше, где-то хуже, и приближается к GPT-4o.

- Но, пре-трейн модель они делали всего на 700k размеченных парах картинка-текст (PixMo-Cap). В то время как Llama тренили на 6 млрд!
- Использовали в 9000 раз меньше данных, но гораздо более высокого качества.
- Люди не любят печатать, люди любят говорить. Поэтому разметчиков просили не печатать описание картинки, а описывать её ГОЛОСОМ 60-90 секунд. Далее запись автоматически переводили в текст. Это гораздо эффективнее, проще и помогает быстро собрать очень длинные и детальные описания картинок.
- Дополнительно разметчиков просили тыкать точками на объекты, про которые они говорят. Это помогло научить модель связывать пиксели с текстом, выдавая точки на картинке, когда она описывает какой-то объект.

Все это очень сильно подняло качество модели. Это прям крутые идеи.

По архитектуре ничего необычного – transformer с late fusion. То есть токены картинок пропускаются через обучаемый коннектор, а затем кормятся в LLM.

Трейн в два стейджа, ничего не замораживая:
(1) multimodal pre-training для генерации описаний на новом датасете – 700k картинок; (2) supervised fine-tuning на instruction-датасете, который они тоже собрали сами (там и точки на картинках, и документы, прочие задачи) – тут около 1.9 млн картинок (возможно, пересекается с претрейн-датасетом).

Трейн и эвал код и датасет (PixMo) выложат в течение 2 месяцев – я им верю!

Блогпост про модели
Arxiv

@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Evgeny Ivanov
Вводный: https://www.amazon.com/gp/product/1108724264/
Чуть больше углубления в статистику: https://alexdeng.github.io/causal/
UPD. А в этой главе crash course по вероятности и регрессиям: https://mixtape.scunning.com/02-probability_and_regression
🔍 Causal Inference (ч. 1)

Этот пост нужен для того, чтобы базово вникнуть для чего используется

Итак, Causal Inference - это процесс поиска причинно-следственных связей. Он позволяет нам понять, насколько X влияет на Y. В статье от X5 объясняются основные техники, позволяющие оценить эффект. Как правило, они могут основываться и на простых методах по типу линейной регрессии. Вообще практически все в нашем мире можно объяснить с помощью линейной регрессии (true fact).

Зачем нам это может нужно, если есть A/B тесты?

1) Хочется оценить эффект от фичи, которая работает длительное время. Например, нужно оценить эффект от раскатки нового варианта онбординга на пользователей с момента запуска.

2) Мы не контролируем формирование групп. Это может быть применимо к оффлайн-экспериментам.

3) Не можем провести эксперимент по различным причинам. Например, по техническим или этическим, когда тест нужно держать очень долго

🤗 Самое важное, что нужно запомнить - это то, что мы пытаемся в большинстве случаев понять, как себя будет вести определенный treatment после вмешательства (intervention). Некоторые методы подразумевают построение временных рядов (байес и не только), прогнозы и на основе этого определение эффекта, а где-то достаточно посмотреть на то, как вела себя метрика до и как ведет она себя после вмешательства.

🆎 Представляем, что мы хотели провести A/B тест, но по какой-то из причин, этого не сделали. Помните, в чем основная задача? Это определить будет ли значимым эффект при рандомном семплировании определенных групп. Проводя эксперимент в классическом понимании, мы имеем тест, контроль (на кого-то раскатили новый функционал, на кого-то нет), мы применяем. Далее, ссылаясь на то, что наблюдения независимые (или зависимые и мы применяем поправки), сравниваем группы, получаем эффект

В задачах Causal Inference может быть несколько вариантов решения задач.

1. Определить то, как ведет себя метрика на препериоде и оценить то, как после запуска воздействия поменялось поведение метрики (по сравнению с прогнозом). Например, Diff-n-diff или Causal Impact (Counterfactuals analysis)

2. В задачах, где у нас нет контроля, сопоставить пользователей по похожести и оценивать эффект так, как будто мы проводим тест. PSM, Instrumental variables и различные вариации (Квази-эксперименты)

Ставьте реакции, пишите комментарии. В следующих постах я опишу то, какие методы бывают более подробно и разберем более подробно то, как они работают.
Please open Telegram to view this post
VIEW IN TELEGRAM