А еще #ChatGPT это новый способ потреблять контент. Попросил написать самари и главные идеи из Understanding Michael Porter, а потом применить модель 5 сил Портера к Юду, и тут у меня случился инфаркт, ибо сетка с этим успешно справилась
👍6❤2🔥2🤯2
Сэм Альтман (CEO OpenAI) пишет, что DAU #ChatGPT уже 1 млн пользователей (за 6 дней!) 🤯
По поводу этого меня зацепила заметка Пола Грэма про то, что самое важное это не то, как быстро набралась такая активность, а то, что это аудитория, если говорить терминами Мура из Crossing The Chasm, уже далеко не innovators, восторгающиеся любой новинкой. Что же будет дальше? Млрд DAU?
По поводу этого меня зацепила заметка Пола Грэма про то, что самое важное это не то, как быстро набралась такая активность, а то, что это аудитория, если говорить терминами Мура из Crossing The Chasm, уже далеко не innovators, восторгающиеся любой новинкой. Что же будет дальше? Млрд DAU?
❤1👍1
Устали от еженедельных технологических прорывов в ML? Вот вам новость тогда: сегодня министерство энергетики США должно объявить, что смогло произвести реакцию термоядерного синтеза, которая дает энергии больше, чем было на нее потрачено.
https://www.washingtonpost.com/business/2022/12/11/fusion-nuclear-energy-breakthrough/
https://www.washingtonpost.com/business/2022/12/11/fusion-nuclear-energy-breakthrough/
🔥6😱3❤1👍1
Если бы мне еще несколько месяцев назад сказали, что Bing будет дизраптить Google с помощью чатбота, то я вызвал бы этому человеку скорую.
😁21💯5👍3❤1
Если вдруг кто пропустил крупнейший банковский кризис со времен ипотечного в 2008, то здесь кратко описаны основные детали.
Удивляют следующие вещи:
1. Многие компании и фонды держали ВСЕ свои деньги в SVB. Как сказал один мой знакомый, «диверсификация она для старпёров». Хотя, в целом, понять некоторых можно, ибо, как говорят, SVB часто был единственным банком для стартапов, в котором можно было получить обслуживание или займ, либо условия от банка были более лучшими, а финансовый контроль сильно менее строгим, чем в традиционных банках.
2. SVB инвестировал почти половину своего кеша в ипотечные облигации на фоне слухов и фактов выкручивания ставки ФРС (хотя, вот говорят, что на тот момент консенсус прогноз был 1-2%). Как я понял, большинство было с долгосрочным погашением. То есть портфель не был нормально рассчитан на обеспечение большого количества депозитов в моменте. И это после 2008 года.
3. Клиентский портфель банка почти полностью состоял из фондов и стартапов в долине, которые адски подверженны панике. И самое забавное то, что панику развели сами фонды, которые по сути и убили свой банк.
4. Ликвидность «самого надежного» стейблкоина USDC в большом размере обеспечивалась кэшом на счетах в SVB. Тушите свет.
Как результат, огромное количество компаний в долине на грани катастрофы, так как платить зп и по счетам нечем. Фонды им помочь не могут, так как у самих деньги застряли в SVB, а краткосрочный займ взять в другом банке не вариант, так как им его и до этого не одобряли. Круг замкнулся.
Удивляют следующие вещи:
1. Многие компании и фонды держали ВСЕ свои деньги в SVB. Как сказал один мой знакомый, «диверсификация она для старпёров». Хотя, в целом, понять некоторых можно, ибо, как говорят, SVB часто был единственным банком для стартапов, в котором можно было получить обслуживание или займ, либо условия от банка были более лучшими, а финансовый контроль сильно менее строгим, чем в традиционных банках.
2. SVB инвестировал почти половину своего кеша в ипотечные облигации на фоне слухов и фактов выкручивания ставки ФРС (хотя, вот говорят, что на тот момент консенсус прогноз был 1-2%). Как я понял, большинство было с долгосрочным погашением. То есть портфель не был нормально рассчитан на обеспечение большого количества депозитов в моменте. И это после 2008 года.
3. Клиентский портфель банка почти полностью состоял из фондов и стартапов в долине, которые адски подверженны панике. И самое забавное то, что панику развели сами фонды, которые по сути и убили свой банк.
4. Ликвидность «самого надежного» стейблкоина USDC в большом размере обеспечивалась кэшом на счетах в SVB. Тушите свет.
Как результат, огромное количество компаний в долине на грани катастрофы, так как платить зп и по счетам нечем. Фонды им помочь не могут, так как у самих деньги застряли в SVB, а краткосрочный займ взять в другом банке не вариант, так как им его и до этого не одобряли. Круг замкнулся.
Telegram
.и в продакшен
Прямо сейчас в Долине терпит крах Silicon Valley Bank.
Что случилось: всю неделю происходил нарастающий по экспоненте набег вкладчиков, позавчера акции банка рухнули на 65%, и вот сегодня банк перешел под контроль FDIC - американского "агентства по страхованию…
Что случилось: всю неделю происходил нарастающий по экспоненте набег вкладчиков, позавчера акции банка рухнули на 65%, и вот сегодня банк перешел под контроль FDIC - американского "агентства по страхованию…
😱12👍8😁3😢3❤2
Похоже, в кино будет революция с помощью AI.
Стартап Wonder Dynamics, в который кучу бабла влил сам Спилберг, делает редактор Wonder Studio. Можно будет все то, что делают целые студии и на что требуется дорогое оборудование, делать просто в редакторе.
https://vimeo.com/805754885
Стартап Wonder Dynamics, в который кучу бабла влил сам Спилберг, делает редактор Wonder Studio. Можно будет все то, что делают целые студии и на что требуется дорогое оборудование, делать просто в редакторе.
https://vimeo.com/805754885
👍7🤔1
Вчера OpenAI зарелизила свою новую LLM GPT-4 https://openai.com/research/gpt-4
Можно записаться в waitlist для API, но она уже доступна подписчикам ChatGPT Plus в самом ChatGPT.
Я успел поиграться с ней пару часов, и из первого, что бросается в глаза — на русском в этот раз работает не хуже английского. Теперь можно полноценно использовать для ведения канала😂
Можно записаться в waitlist для API, но она уже доступна подписчикам ChatGPT Plus в самом ChatGPT.
Я успел поиграться с ней пару часов, и из первого, что бросается в глаза — на русском в этот раз работает не хуже английского. Теперь можно полноценно использовать для ведения канала
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9👍2
Еще и новую Midjorney подвезли (сетка для генерации изображения по текстовому описанию).
В этом твиттер треде можно глянуть на разницу между v4 и v5. Говорят, что теперь у людей, наконец, 5 пальцев.
https://twitter.com/nickfloats/status/1636116959267004416?s=46&t=I6EHIJSkJGBVFq_MSZWntg
Выглядит😘
В этом твиттер треде можно глянуть на разницу между v4 и v5. Говорят, что теперь у людей, наконец, 5 пальцев.
https://twitter.com/nickfloats/status/1636116959267004416?s=46&t=I6EHIJSkJGBVFq_MSZWntg
Выглядит
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍1
Недавно на Verge вышла статья про Google Bard — аналог чат-бота Bing на основе GPT.
Судя по всему, Bard менее крутой, чем Bing, но несмотря на это, вот вам пару примеров величия Bard
Судя по всему, Bard менее крутой, чем Bing, но несмотря на это, вот вам пару примеров величия Bard
😁9
Я думаю, что все уже видели новость о том, что OpenAI запускают платформу для плагинов к ChatGPT, чтобы чатбот мог искать в интернете, бронировать рестораны или билеты и т.д. Поражает не это, а то, что для создания своего плагина нужно просто написать манифест к API на естественном языке, а модель сама разберется как авторизоваться, сформировать запрос, обработать ответ и прочее 🤯
https://platform.openai.com/docs/plugins/introduction
https://platform.openai.com/docs/plugins/introduction
Openai
OpenAI Platform
Explore developer resources, tutorials, API docs, and dynamic examples to get the most out of OpenAI's platform.
🤯8👍3❤1
Глянул "Тетрис". Никогда бы не подумал, что фильм про Тетрис сможет держать меня 2 часа в напряжении и делать это так красиво с визуальной точки зрения. Многие жалуются на клюкву, но, как по мне, она абсолютно органичная и используется как инструмент передачи нарратива и настроения, как в том же "Чернобыле".
Вообще, мне нравится, как на рынок стриминга зашел Apple. Большая часть контента на очень высоком уровне, как минимум визуально. "Foundation" разочаровал, конечно, но за "Теда Лассо" и "Разделение" Apple точно гигантский респект и лимит доверия, как минимум на очередную годовую подписку. Еще радует, что каждый сериал и фильм это 4к с Dolby Vision и Dolby Atmos, которые грамотно используются.
Вообще, мне нравится, как на рынок стриминга зашел Apple. Большая часть контента на очень высоком уровне, как минимум визуально. "Foundation" разочаровал, конечно, но за "Теда Лассо" и "Разделение" Apple точно гигантский респект и лимит доверия, как минимум на очередную годовую подписку. Еще радует, что каждый сериал и фильм это 4к с Dolby Vision и Dolby Atmos, которые грамотно используются.
👍8
Мои кореша (читайте это голосом Дудя) из GoPractice наконец-то выпустили новый симулятор - "Симулятор управления ML/AI-проектами"!
В симуляторе вы станете главным героем увлекательной истории, где будете работать над тремя проектами с машинным обучением. Все нацелено на то, чтобы помочь вам на практике освоить скилы управления проектами с машинным обучением, даже если у вас нет навыков программирования или глубокого знания математики. Если вы давно хотели попробовать свои силы в машинном обучении, то данный симулятор - идеальный способ для старта.
Мне очень нравится контент и продукты, которые выпускает команда GoPractice. Всегда высокий уровень и качество. И этот курс не исключение: не просто собранный на коленке онлайн-курс по машинному обучению, а продукт, который разрабатывался более трех лет!
Давно ждал появления симулятора, так как подобный формат - это лучший способ, на мой взгляд, получить знания и практику применения ML теории, решая реальные кейсы, а не слушая бесконечные лекции и решая тесты после них.
Присоединиться можно по ссылке https://gopractice.ru/course/ml/.
В симуляторе вы станете главным героем увлекательной истории, где будете работать над тремя проектами с машинным обучением. Все нацелено на то, чтобы помочь вам на практике освоить скилы управления проектами с машинным обучением, даже если у вас нет навыков программирования или глубокого знания математики. Если вы давно хотели попробовать свои силы в машинном обучении, то данный симулятор - идеальный способ для старта.
Мне очень нравится контент и продукты, которые выпускает команда GoPractice. Всегда высокий уровень и качество. И этот курс не исключение: не просто собранный на коленке онлайн-курс по машинному обучению, а продукт, который разрабатывался более трех лет!
Давно ждал появления симулятора, так как подобный формат - это лучший способ, на мой взгляд, получить знания и практику применения ML теории, решая реальные кейсы, а не слушая бесконечные лекции и решая тесты после них.
Присоединиться можно по ссылке https://gopractice.ru/course/ml/.
gopractice.ru
ᐈ Курс "AI/ML-симулятор для продакт-менеджеров" - GoPractice
Симулятор управления ML (Machine Learning)/AI (Artificial intelligence)-проектами. Вы научитесь видеть возможности применения машинного обучения в вашем бизнесе
🔥11👍1
Как легко испортить продукт? Сказать, что продакт отвечает за метрику. К примеру, за churn rate в подписочном сервисе. Через пару недель экран отмены подписки превратится в лабиринт минотавра, где кнопка отписки появится только, если принести жертву богу Ра.
😁23💯3
Про оценку рынка
Обратил внимание на то, что во многих статьях и материалах присутствует дихотомия: рынок оценивают либо сверху, либо снизу. На самом деле, важно проводить оценку рынка с обеих сторон. Оценка снизу помогает определить нижнюю границу возможностей, в то время как оценка сверху позволяет понять не столько потенциал, сколько потолок. В противном случае, если оценивать только снизу, мы можем столкнуться с ситуацией, когда модель роста показывает количество пользователей, превышающую население страны присутствия продукта. Если оценивать только сверху, то легко можно SOM (Serviceable Obtainable Market) или SAM (Serviceable Available Market) приравнять к TAM (Total Addressable Market) или даже PAM (Potential Available Market) и переоценить потенциал продукта.
Обратил внимание на то, что во многих статьях и материалах присутствует дихотомия: рынок оценивают либо сверху, либо снизу. На самом деле, важно проводить оценку рынка с обеих сторон. Оценка снизу помогает определить нижнюю границу возможностей, в то время как оценка сверху позволяет понять не столько потенциал, сколько потолок. В противном случае, если оценивать только снизу, мы можем столкнуться с ситуацией, когда модель роста показывает количество пользователей, превышающую население страны присутствия продукта. Если оценивать только сверху, то легко можно SOM (Serviceable Obtainable Market) или SAM (Serviceable Available Market) приравнять к TAM (Total Addressable Market) или даже PAM (Potential Available Market) и переоценить потенциал продукта.
👍3
Сегодня расскажу, как в YouDo работаем с гипотезами.
Как я уже говорил ранее, фундаментальной основой для гипотезы является феномен (наблюдение, событие, явление и т.д.), который мы пытаемся объяснить. Пайплайн гипотезы выглядит следующим образом: феномен → мы строим предположение, которое его объясняет и эксплуатирует → эксперимент, проверяющий предположение → знания → возвращаемся в начало цикла.
Мы разделили гипотезы на два типа:
- Гипотеза о новой возможности для пользователя.
- Гипотеза об изменении в существующей возможности.
Начнем для начала с первого типа. Фундаментом данного типа гипотез являются наблюдения, которые говорят о том, что у людей есть мотивация и потребность в возможности, которую мы не удовлетворяем. В качестве наблюдений выступают количественные и/или качественные данные. Из этих данных мы вытаскиваем инсайты и описываем их в виде Job Story (контекст, мотивация, ауткам). То есть мы описываем в какой ситуации какую мотивацию испытывает пользователь и какой ауткам он ожидает.
Далее мы можем, к примеру, используя Triple Strike Canvas от Димы Капаева, описать свою идею:
1. Формируем идею о возможности, как удовлетворить мотивацию пользователя, дав ему возможность для этого.
2. Как сообщить пользователю о новой возможности.
3. В какой момент времени, в каком месте и каким пользователям мы будем сообщать о новой возможности?
Имеем “наблюдение → инсайты → идея”. Осталось придумать, как мы проверим это. В итоге, шаблон качественного описания гипотезы звучит как на картинке. Чуть подробнее про каждый пункт в следующем посте.
Как я уже говорил ранее, фундаментальной основой для гипотезы является феномен (наблюдение, событие, явление и т.д.), который мы пытаемся объяснить. Пайплайн гипотезы выглядит следующим образом: феномен → мы строим предположение, которое его объясняет и эксплуатирует → эксперимент, проверяющий предположение → знания → возвращаемся в начало цикла.
Мы разделили гипотезы на два типа:
- Гипотеза о новой возможности для пользователя.
- Гипотеза об изменении в существующей возможности.
Начнем для начала с первого типа. Фундаментом данного типа гипотез являются наблюдения, которые говорят о том, что у людей есть мотивация и потребность в возможности, которую мы не удовлетворяем. В качестве наблюдений выступают количественные и/или качественные данные. Из этих данных мы вытаскиваем инсайты и описываем их в виде Job Story (контекст, мотивация, ауткам). То есть мы описываем в какой ситуации какую мотивацию испытывает пользователь и какой ауткам он ожидает.
Далее мы можем, к примеру, используя Triple Strike Canvas от Димы Капаева, описать свою идею:
1. Формируем идею о возможности, как удовлетворить мотивацию пользователя, дав ему возможность для этого.
2. Как сообщить пользователю о новой возможности.
3. В какой момент времени, в каком месте и каким пользователям мы будем сообщать о новой возможности?
Имеем “наблюдение → инсайты → идея”. Осталось придумать, как мы проверим это. В итоге, шаблон качественного описания гипотезы звучит как на картинке. Чуть подробнее про каждый пункт в следующем посте.
👍7
Hypothesis Framework. Часть 2
Давайте рассмотрим детальнее каждый пункт из предыдущего поста:
- Предпосылки: данные (количественные и/или качественные) и инсайты из них. То, на основе чего базируется наше предположение, которое мы хотим проверить.
- Возможность: какую возможность мы предоставляем пользователю?
- Пользовательский сегмент: в какой ситуации оказались пользователи? Где и как нам их найти?
- Ауткам: что получит пользователь благодаря этой возможности?
- Мотивация: почему эта возможность полезна для пользователя? Какую проблему она позволяет решить?
- Сообщение: как мы сообщим пользователю, что он получил эту возможность? Что мы ему скажем, чтобы он ей воспользовался? Важно продумывать канал коммуникации заранее, чтобы не придумать классную фичу, которой никто не воспользуется, потому что мы не подумали о способе ее дистрибьюции.
- Эффект: какой эффект мы ожидаем увидеть, после того, как дадим пользователю эту возможность? Качественное описание того, какой результат мы хотим получить.
- Метрики: с помощью каких метрик мы можем измерить, что мы получили ожидаемый эффект? Как они должны измениться: увеличиться или уменьшиться? Список метрик состоит из следующих типов:
- Ключевые — метрики, по которым принимаем решение в эксперименте. Обычно, это 1-3 разнородных метрики, если больше, то рискуем увеличить ошибку первого рода из-за множественного сравнения.
- Guardrails — контр-метрики, которые не должны пострадать и ухудшиться.
- Discovery — дополнительные метрики для анализа, которые могут не влиять на ключевое решение, но они нужны, чтобы получить больше знаний. Мы их, обычно, не указываем, так как это список из нескольких десятков метрик и они, все равно, автоматически считаются в нашей системе экспериментов.
- Риски: какие риски ставят под угрозу данную гипотезу? Как мы их можем проверить? По сути, это список рисков, которые проверяются через RAT.
В следующих постах расскажу про второй тип гипотез, рассмотрим примеры и как данный фреймворк встроен в общий фреймворк по работе со стратегей.
Давайте рассмотрим детальнее каждый пункт из предыдущего поста:
- Предпосылки: данные (количественные и/или качественные) и инсайты из них. То, на основе чего базируется наше предположение, которое мы хотим проверить.
- Возможность: какую возможность мы предоставляем пользователю?
- Пользовательский сегмент: в какой ситуации оказались пользователи? Где и как нам их найти?
- Ауткам: что получит пользователь благодаря этой возможности?
- Мотивация: почему эта возможность полезна для пользователя? Какую проблему она позволяет решить?
- Сообщение: как мы сообщим пользователю, что он получил эту возможность? Что мы ему скажем, чтобы он ей воспользовался? Важно продумывать канал коммуникации заранее, чтобы не придумать классную фичу, которой никто не воспользуется, потому что мы не подумали о способе ее дистрибьюции.
- Эффект: какой эффект мы ожидаем увидеть, после того, как дадим пользователю эту возможность? Качественное описание того, какой результат мы хотим получить.
- Метрики: с помощью каких метрик мы можем измерить, что мы получили ожидаемый эффект? Как они должны измениться: увеличиться или уменьшиться? Список метрик состоит из следующих типов:
- Ключевые — метрики, по которым принимаем решение в эксперименте. Обычно, это 1-3 разнородных метрики, если больше, то рискуем увеличить ошибку первого рода из-за множественного сравнения.
- Guardrails — контр-метрики, которые не должны пострадать и ухудшиться.
- Discovery — дополнительные метрики для анализа, которые могут не влиять на ключевое решение, но они нужны, чтобы получить больше знаний. Мы их, обычно, не указываем, так как это список из нескольких десятков метрик и они, все равно, автоматически считаются в нашей системе экспериментов.
- Риски: какие риски ставят под угрозу данную гипотезу? Как мы их можем проверить? По сути, это список рисков, которые проверяются через RAT.
В следующих постах расскажу про второй тип гипотез, рассмотрим примеры и как данный фреймворк встроен в общий фреймворк по работе со стратегей.
👍4❤1
В сеть утек внутренний документ Google, в котором говорится, что Open Source LLM модели превзойдут LLM Google и OpenAI. Moat, созданный за счет технологического доминирования корпораций, скоро исчезнет.
Удивительно, что разрыв сокращается так быстро, но сам процесс не удивителен, так как владение уникальной технологией является частным случаем "Cornered Resource" — одной из стратегических сил защиты и обособления на конкурентном поле, которая рассматривается в книге "7 Powers". За счет владения ограниченным ресурсом (технология, команда, патент и прочее) компания может выгодно обособляться и защищаться от конкурентов, но данная сила не является долгосрочным методом защиты и действует только на старте, так как рано или поздно ваш уникальный ресурс конкуренты повторят и нивелируют его силу. Далее на этапе активного роста нужно обрастать как минимум одной из 3 сил: network effects, scale economies или switching cost.
По сути, OpenAI может сделать это следующим образом:
• за счет масштаба более низкая себестоимость на обучение и разработку в пересчете на пользователя/запрос.
• сетевые эффекты на основе данных (частный случай network effects) позволяют генерировать более качественный датасет, утилизировать преимущество в виде RLHF и создавать тем самым более высокий уровень добавленной ценности за счет более лучшего качества модели.
• В случае SaaS типа Copilot, корпорации начнут использовать инструмент и из-за Switching Cost уже не смогут отказаться от него.
• В будущем инвестиции в разработку позволят иметь более низкую себестоимость инференса, что позволит обуздать другую силу — «Process Power».
В какой-то момент, я думаю, что весь AI на основе LLM за счет Open Source превратится в комодити, и сами модели не будут продуктом и основой бизнеса. Все эти LLM будут лишь функциями в продуктах, которые позволяют им генерировать больший уровень добавленной ценности в решении задач пользователя: писать документы, голосовой ассистент в iOS или Android, поиск информации, обучать новым знаниям и т.д. А OpenAI и прочие будут исследовать новые горизонты в поисках очередного технологического прорыва. В итоге, основной фокус будет смещаться на создание продуктов и сервисов, которые эффективно интегрируют эти модели и обеспечивают наилучший пользовательский опыт, а также на поиск новых областей применения AI.
Удивительно, что разрыв сокращается так быстро, но сам процесс не удивителен, так как владение уникальной технологией является частным случаем "Cornered Resource" — одной из стратегических сил защиты и обособления на конкурентном поле, которая рассматривается в книге "7 Powers". За счет владения ограниченным ресурсом (технология, команда, патент и прочее) компания может выгодно обособляться и защищаться от конкурентов, но данная сила не является долгосрочным методом защиты и действует только на старте, так как рано или поздно ваш уникальный ресурс конкуренты повторят и нивелируют его силу. Далее на этапе активного роста нужно обрастать как минимум одной из 3 сил: network effects, scale economies или switching cost.
По сути, OpenAI может сделать это следующим образом:
• за счет масштаба более низкая себестоимость на обучение и разработку в пересчете на пользователя/запрос.
• сетевые эффекты на основе данных (частный случай network effects) позволяют генерировать более качественный датасет, утилизировать преимущество в виде RLHF и создавать тем самым более высокий уровень добавленной ценности за счет более лучшего качества модели.
• В случае SaaS типа Copilot, корпорации начнут использовать инструмент и из-за Switching Cost уже не смогут отказаться от него.
• В будущем инвестиции в разработку позволят иметь более низкую себестоимость инференса, что позволит обуздать другую силу — «Process Power».
В какой-то момент, я думаю, что весь AI на основе LLM за счет Open Source превратится в комодити, и сами модели не будут продуктом и основой бизнеса. Все эти LLM будут лишь функциями в продуктах, которые позволяют им генерировать больший уровень добавленной ценности в решении задач пользователя: писать документы, голосовой ассистент в iOS или Android, поиск информации, обучать новым знаниям и т.д. А OpenAI и прочие будут исследовать новые горизонты в поисках очередного технологического прорыва. В итоге, основной фокус будет смещаться на создание продуктов и сервисов, которые эффективно интегрируют эти модели и обеспечивают наилучший пользовательский опыт, а также на поиск новых областей применения AI.
SemiAnalysis
Google “We Have No Moat, And Neither Does OpenAI”
Leaked Internal Google Document Claims Open Source AI Will Outcompete Google and OpenAI The text below is a very recent leaked document, which was shared by an anonymous individual on a public Disc…
👍14🔥5👏4🤔1
Hypothesis Framework. Часть 3.
Продолжаем серию постов про работу с гипотезами.
Как поступать, если не хотим давать пользователю новую возможность, а хотим оптимизировать существующую? Все еще проще, но давайте на примере.
Представим, что мы хотели увеличить количество исполнителей на YouDo, копались в модели роста, воронках и на данных увидели, что ключевой ботлнек в увеличении количества исполнителей — этап прохождения верификации (по сути процесс, когда пользователь создает профиль исполнителя и заполняет анкету и прочие данные).
Количественные данные дали нам ответ на вопросы "где?" и "сколько?", но нам нужен ответ на вопрос "почему?". Для этого мы пообщались с пользователями, которые недавно заходили на форму, но не закончили, узнали у них, что им помешало, и большинство сказало, что очень сложно, неудобно, они не понимали, как ее заполнить, форма им постоянно говорила, что не заполнены все необходимые поля, но пользователь не понимал, какие именно. Далее мы провели юзабилити-тестирование формы, верифицировали фидбек пользователей, обнаружили новые сложности в UI. Итог: мы имеем количественные и качественные данные, инсайты из них.
Ключевые инсайты: форма одностраничная, не вмещается на весь экран, люди не понимают, что нужно скроллить, не понимают, сколько еще осталось заполнять, нет пояснений к полям, что мешает понять, что пользователю требуется написать.
Теперь мы выдвигаем предположение, что если сделаем форму пошаговой, с прогресс-баром, онбордингом и качественными описаниями полей, то пройти верификацию будет проще. Итог: данные → инсайты → предположение.
Осталось придумать, как провести эксперимент и проверить наше предположение, а эта секция одинаковая для обоих типов гипотез.
Продолжаем серию постов про работу с гипотезами.
Как поступать, если не хотим давать пользователю новую возможность, а хотим оптимизировать существующую? Все еще проще, но давайте на примере.
Представим, что мы хотели увеличить количество исполнителей на YouDo, копались в модели роста, воронках и на данных увидели, что ключевой ботлнек в увеличении количества исполнителей — этап прохождения верификации (по сути процесс, когда пользователь создает профиль исполнителя и заполняет анкету и прочие данные).
Количественные данные дали нам ответ на вопросы "где?" и "сколько?", но нам нужен ответ на вопрос "почему?". Для этого мы пообщались с пользователями, которые недавно заходили на форму, но не закончили, узнали у них, что им помешало, и большинство сказало, что очень сложно, неудобно, они не понимали, как ее заполнить, форма им постоянно говорила, что не заполнены все необходимые поля, но пользователь не понимал, какие именно. Далее мы провели юзабилити-тестирование формы, верифицировали фидбек пользователей, обнаружили новые сложности в UI. Итог: мы имеем количественные и качественные данные, инсайты из них.
Ключевые инсайты: форма одностраничная, не вмещается на весь экран, люди не понимают, что нужно скроллить, не понимают, сколько еще осталось заполнять, нет пояснений к полям, что мешает понять, что пользователю требуется написать.
Теперь мы выдвигаем предположение, что если сделаем форму пошаговой, с прогресс-баром, онбордингом и качественными описаниями полей, то пройти верификацию будет проще. Итог: данные → инсайты → предположение.
Осталось придумать, как провести эксперимент и проверить наше предположение, а эта секция одинаковая для обоих типов гипотез.
👍4❤1
По интернету распространяется, как раковая опухоль, история про то, как Amazon Prime переписал себя с микросервисов на монолит и сэкономил 90% расходов и улучшил масштабирование. Об этом уже написали сотню твитов, подкастов и активный борец за права монолитов и автор Ruby on Rails David Heinemeier Hansson накинул кликбейтно на вентилятор.
Если прочитать оригинал статьи в тех блоге Amazon Prime дальше заголовка, то становится понятно, что никакого переписывания c микросервисов на монолит там не было. Amazon Prime как состоял из кучи сервисов, так и состоит, а по факту чуваки взяли конкретный сервис мониторинга качества стримов, который выполняет одну конкуретную задачу (то есть уже bounded context), сначала сделали его из кучи мелких лямбда функций, которые гоняют стейт в виде файлов туда сюда с s3 и по сети, а потом переписали это в один сервис с несколькими функциями, которые уже гоняют ссылку на объект в памяти. Удивляться снижению оверхеда в этом кейсе не стоит.
Следующим этапом в споре «монолит vs микросервисы» любители монолитов напишут на каждую инструкцию процессора по отдельному сервису, а потом объединят все это в один сервис на 20 строк кода и будут заявлять о превосходстве монолитов.
Если прочитать оригинал статьи в тех блоге Amazon Prime дальше заголовка, то становится понятно, что никакого переписывания c микросервисов на монолит там не было. Amazon Prime как состоял из кучи сервисов, так и состоит, а по факту чуваки взяли конкретный сервис мониторинга качества стримов, который выполняет одну конкуретную задачу (то есть уже bounded context), сначала сделали его из кучи мелких лямбда функций, которые гоняют стейт в виде файлов туда сюда с s3 и по сети, а потом переписали это в один сервис с несколькими функциями, которые уже гоняют ссылку на объект в памяти. Удивляться снижению оверхеда в этом кейсе не стоит.
Следующим этапом в споре «монолит vs микросервисы» любители монолитов напишут на каждую инструкцию процессора по отдельному сервису, а потом объединят все это в один сервис на 20 строк кода и будут заявлять о превосходстве монолитов.
Linkedin
Even Amazon can't make sense of serverless or microservices | David Heinemeier Hansson | 1,856 comments
The Prime Video team at Amazon has published a rather remarkable case study on their decision to dump their serverless, microservices architecture and replace it with a monolith instead. This move saved them a staggering 90%(!!) on operating costs, and simplified…
😁7👍4❤1🤯1