В текущей сайд-проектной мясорубке график выпусков мини-дайджеста слетел под откос. Но выпущу подборку про пользовательские исследования даже в частичном виде:
1. Lucid: Методы интервью с пользователями, в которых они делают что-то с сырыми концептами интерфейса. Это позволяет собрать проблемы на ранней стадии.
2. Jake Burghardt: Рекомендует ориентироваться на цитирование инсайтов из базы знаний. Причём в идеале — не просто ссылки, а практическое использование в продуктовых запусках.
3. Контур: Советы по составлению анкеты для опроса. Часть 2.
4. Trina Moore Pervall: Какие предубеждения и искажения могут возникать у продуктовой команды, которая пытается делать инклюзивный дизайн и проводить исследования на тему.
5. Anusha Pichumani: Когнитивные искажения, которые могут вести пользовательские исследования по неверному пути. Она даёт советы, как избежать их.
6. Joey Lacus: Как работает новая инициатива Shopify «все дизайнеры интерфейсов умеют проводить простые пользовательские исследования». Это краткая памятка для проверки простых сценариев использования.
7. User Interviews: Базовая памятка по проведению опросов.
8. Steve Bromley: Советы по количеству респондентов для игровых тестов на разных этапах работы над игрой. В целом не сильно отличается от общих практик пользовательских исследований, но со своими нюансами.
9. Kelsey Foster: Несколько реальных и потенциальных способов анализа данных пользовательских исследований с помощью алгоритмической обработки.
Это был выпуск №42, но обошлось без банальных шуток.
#research
1. Lucid: Методы интервью с пользователями, в которых они делают что-то с сырыми концептами интерфейса. Это позволяет собрать проблемы на ранней стадии.
2. Jake Burghardt: Рекомендует ориентироваться на цитирование инсайтов из базы знаний. Причём в идеале — не просто ссылки, а практическое использование в продуктовых запусках.
3. Контур: Советы по составлению анкеты для опроса. Часть 2.
4. Trina Moore Pervall: Какие предубеждения и искажения могут возникать у продуктовой команды, которая пытается делать инклюзивный дизайн и проводить исследования на тему.
5. Anusha Pichumani: Когнитивные искажения, которые могут вести пользовательские исследования по неверному пути. Она даёт советы, как избежать их.
6. Joey Lacus: Как работает новая инициатива Shopify «все дизайнеры интерфейсов умеют проводить простые пользовательские исследования». Это краткая памятка для проверки простых сценариев использования.
7. User Interviews: Базовая памятка по проведению опросов.
8. Steve Bromley: Советы по количеству респондентов для игровых тестов на разных этапах работы над игрой. В целом не сильно отличается от общих практик пользовательских исследований, но со своими нюансами.
9. Kelsey Foster: Несколько реальных и потенциальных способов анализа данных пользовательских исследований с помощью алгоритмической обработки.
Это был выпуск №42, но обошлось без банальных шуток.
#research
Medium
Run activity based interviews to maximize your time with users
By Isabel Boettcher, UX Researcher at Lucid Software
Свежая прорва ссылок о пользовательских исследованиях. И это я ещё не всё непрочитанное разобрал:
1. Jeff Sauro и Jim Lewis: Дополнение к памятке по методам — как выбирать их для конкретного этапа проекта.
2. Список международных конференций в 2023 году.
3. Emily DiLeo: Минимальная таксономия для базы знаний и инсайтов. Это 11 полей, которые точно нужны на старте.
4. NN/g: Структурированная подборка своих статей о методе персонажей.
5. User Interviews: Свежий анализ суммы вознаграждения респондентам. Разбивка по методам, длительности и другим параметрам исследования. Интервью с Nick Baum из сервиса Tremendous, который помогает выплачивать вознаграждение респондентам.
6. Jeff Sauro и Jim Lewis: Какая часть респондентов готова рассуждать вслух во время сессии. Они взяли данные по США и Великобритании.
7. User Interviews: Подходы к анализу конкурентов с точки зрения UX в целом, рынка и конкретно пользовательских исследований.
8. Jeff Sauro и Jim Lewis: Влияет ли качество интерфейса на частоту и объём покупок в интернет-магазинах продуктов?. Они провели длительное пользовательское исследование и нашли кое-какие взаимосвязи.
9. Casey Gollan: Рассуждения на тему обмена данными между инструментами для хранения базы знаний и инсайтов. Почему сейчас они далеки от этого и что должно появиться.
10. Lindsey M. West Wallace: Считает, что жёсткое разделение между генеративными и оценочными исследованиями не очень правильно. Она старается добавить генеративные вопросы в оценочные проекты, чтобы при каждом общении с пользователями собирать знания о потребностях. Местами она заходит слишком далеко, отменяя быстрые итеративные тесты, но в целом мысль здравая.
11. Rolf Molich, Bernard Rummel и Susanne Waßerroth: Изучили записи сотни юзабилити-тестов, которые проводили кандидаты на профессиональную сертификацию CPUX-UT. Они выписали типичные ошибки — в целом они совпадают с известными списками проблем процесса.
12. Интервью с Kirk Rodgers, директором пользовательских исследований в Bungie. Как развиваться и куда расти исследователю в играх.
13. NN/g: Советы по анализу путей пользователей в интерфейсе. Как находить проблемные места.
14. NN/g: Типичные проблемы при проведении этнографических исследований.
15. Noah Ward: Исследование навигации по больнице, в котором использовали очки для eye tracking.
16. User Interviews: Сравнение сервисов для проведения опросов.
17. NN/g: Советы по проведению удалённых этнографических исследований. Хотя это может прозвучать оксюмороном (они изначально задуманы на месте работы пользователя), но из-за пандемии других вариантов не было.
18. User Interviews: Памятка по поиску респондентов.
19. Steve Bromley: Типичные вопросы на собеседовании на роль пользовательского исследователя в играх.
#research
1. Jeff Sauro и Jim Lewis: Дополнение к памятке по методам — как выбирать их для конкретного этапа проекта.
2. Список международных конференций в 2023 году.
3. Emily DiLeo: Минимальная таксономия для базы знаний и инсайтов. Это 11 полей, которые точно нужны на старте.
4. NN/g: Структурированная подборка своих статей о методе персонажей.
5. User Interviews: Свежий анализ суммы вознаграждения респондентам. Разбивка по методам, длительности и другим параметрам исследования. Интервью с Nick Baum из сервиса Tremendous, который помогает выплачивать вознаграждение респондентам.
6. Jeff Sauro и Jim Lewis: Какая часть респондентов готова рассуждать вслух во время сессии. Они взяли данные по США и Великобритании.
7. User Interviews: Подходы к анализу конкурентов с точки зрения UX в целом, рынка и конкретно пользовательских исследований.
8. Jeff Sauro и Jim Lewis: Влияет ли качество интерфейса на частоту и объём покупок в интернет-магазинах продуктов?. Они провели длительное пользовательское исследование и нашли кое-какие взаимосвязи.
9. Casey Gollan: Рассуждения на тему обмена данными между инструментами для хранения базы знаний и инсайтов. Почему сейчас они далеки от этого и что должно появиться.
10. Lindsey M. West Wallace: Считает, что жёсткое разделение между генеративными и оценочными исследованиями не очень правильно. Она старается добавить генеративные вопросы в оценочные проекты, чтобы при каждом общении с пользователями собирать знания о потребностях. Местами она заходит слишком далеко, отменяя быстрые итеративные тесты, но в целом мысль здравая.
11. Rolf Molich, Bernard Rummel и Susanne Waßerroth: Изучили записи сотни юзабилити-тестов, которые проводили кандидаты на профессиональную сертификацию CPUX-UT. Они выписали типичные ошибки — в целом они совпадают с известными списками проблем процесса.
12. Интервью с Kirk Rodgers, директором пользовательских исследований в Bungie. Как развиваться и куда расти исследователю в играх.
13. NN/g: Советы по анализу путей пользователей в интерфейсе. Как находить проблемные места.
14. NN/g: Типичные проблемы при проведении этнографических исследований.
15. Noah Ward: Исследование навигации по больнице, в котором использовали очки для eye tracking.
16. User Interviews: Сравнение сервисов для проведения опросов.
17. NN/g: Советы по проведению удалённых этнографических исследований. Хотя это может прозвучать оксюмороном (они изначально задуманы на месте работы пользователя), но из-за пандемии других вариантов не было.
18. User Interviews: Памятка по поиску респондентов.
19. Steve Bromley: Типичные вопросы на собеседовании на роль пользовательского исследователя в играх.
#research
Measuringu
Four Ways to Pick the Right UX Method – MeasuringU
Собралась большая пробка из выпусков мини-дайджеста, которую надо будет разобрать в ближайший месяц. Так что подборки будут длииииииииинными, как некоторые проекты по пользовательским исследованиям:
1. Tomer Sharon: Платиновая памятка по запуску современного процесса пользовательских исследований в компании. Точнее, это его видение как должно быть, но оно очень здравое и выверенное его гигантским опытом.
2. Momentive: Как команда регулярно замеряет пользу от своей работы. Шаблон опросника.
3. Auth0: Примеры автоматизации процесса планирования и проведения исследований. И ещё одна статья на тему от NN/g.
4. NN/g: Как повысить вовлечённость респондентов в дневниковые исследования. Многие не осознают, сколько времени они требуют и отваливаются на разных этапах.
5. Контур: Настройка каналов сбора обратной связи. Через какие способы они прошли и что сработало лучше всего.
6. NN/g: Какие методы помогают измерить delight.
7. Steve Bromley: Сравнение сервисов для проведения игровых тестов.
8. Jim Lewis и Jeff Sauro: Разобрали ранние публикации на тему того, влияет ли метод рассуждения респондентом вслух на результаты исследования. Спойлер: там разнобой выводов.
Они также проверили, насколько метод рассуждения респондентом вслух увеличивает время выполнения задания в удалённом немодерируемом исследовании. В целом увеличивает, хотя ещё и повышает успешность прохождения сценариев.
9. NN/g: Особенности использования демографической информации при проведении исследований. Как аккуратно собирать её и нужна ли она вообще.
10. Buzzfeed: Процесс проведения исследований.
11. NN/g: Особенности и вариации метода «волшебник страны Оз».
11. Avrio: Сервис для ведения базы знаний и инсайтов.
13. User Interviews (поиск респондентов и управление ими): Получили $27,5 млн инвестиций. Интересно, что такие деньги теперь крутятся и в пользовательских исследованиях.
#research
1. Tomer Sharon: Платиновая памятка по запуску современного процесса пользовательских исследований в компании. Точнее, это его видение как должно быть, но оно очень здравое и выверенное его гигантским опытом.
2. Momentive: Как команда регулярно замеряет пользу от своей работы. Шаблон опросника.
3. Auth0: Примеры автоматизации процесса планирования и проведения исследований. И ещё одна статья на тему от NN/g.
4. NN/g: Как повысить вовлечённость респондентов в дневниковые исследования. Многие не осознают, сколько времени они требуют и отваливаются на разных этапах.
5. Контур: Настройка каналов сбора обратной связи. Через какие способы они прошли и что сработало лучше всего.
6. NN/g: Какие методы помогают измерить delight.
7. Steve Bromley: Сравнение сервисов для проведения игровых тестов.
8. Jim Lewis и Jeff Sauro: Разобрали ранние публикации на тему того, влияет ли метод рассуждения респондентом вслух на результаты исследования. Спойлер: там разнобой выводов.
Они также проверили, насколько метод рассуждения респондентом вслух увеличивает время выполнения задания в удалённом немодерируемом исследовании. В целом увеличивает, хотя ещё и повышает успешность прохождения сценариев.
9. NN/g: Особенности использования демографической информации при проведении исследований. Как аккуратно собирать её и нужна ли она вообще.
10. Buzzfeed: Процесс проведения исследований.
11. NN/g: Особенности и вариации метода «волшебник страны Оз».
11. Avrio: Сервис для ведения базы знаний и инсайтов.
13. User Interviews (поиск респондентов и управление ими): Получили $27,5 млн инвестиций. Интересно, что такие деньги теперь крутятся и в пользовательских исследованиях.
#research
Medium
Eat your broccoli 🥦🥦🥦
Research leads, this is a templated document you can use in your company when trying to reach to an agreement about strategy and budget.
Только успел выпустить мини-дайджест про пользовательские исследования, как опять налилось:
1. Maze и Atlassian: Опрос 600 дизайнеров, исследователей и менеджеров продуктов о том, на каких этапах работы над продуктом они проводят исследования. И в целом про развитие экспертизы в компаниях.
2. Jim Kalbach и Elaine Matthias: Вторая версия их шаблона JTBD Canvas (как работать с ним).
3. Контур: Памятка по формулировке гипотез для юзабилити-тестирования. Как правильно описывать их, чтобы получить хорошие ответы.
3. User Interviews: Памятка по написанию хорошего письма-приглашения. Бонусом идут шаблоны-примеры.
В дополнение — советы Контура по отправке таких писем.
4. Контур: Способы донести знания про пользователя для продуктовых команд.
И ещё одна статья на тему от Atlassian. Они советуют экспериментировать с подходами и вовлекать участников разными способами.
5. User Interviews: Большая коллекция шаблонов для разных методов и задач исследований.
6. Condens: Советы по автоматизации процесса исследований. Что можно, а что стоит и дальше делать вручную.
7. Контур: Памятка по составлению сценария исследования.
8. Steve Bromley: Обзор процесса исследований при работе над новой игрой.
9. IBM: Советы по первым шагам внедрения ResearchOps в компании. Больше пересказ известного фреймворка, но есть и личный опыт.
10. Dovetail: Создатели сервиса ведения базы знаний и инсайтов описывают свою роль на рынке сопутствующих инструментов.
11. Mary Zide и Sarah Zimmers: Как применили метод «списка главных задач пользователей» в контексте стартапа.
12. Свежее от Jeff Sauro и Jim Lewis:
— Продолжают серию экспериментов, чтобы замерить влияние метода рассуждения респондентом вслух на результаты удалённого немодерируемого пользовательского исследования — на этот раз про влияние на метрики исследования. Спойлер: отклонения есть, хотя и не критичные.
— Обновили своё сравнительное исследование сайтов мобильных операторов. Как пользователи оценивают их по метрикам SUPR-Q, NPS и UX-Lite.
— Изучили, насколько картинки помогают пользователям в проведении карточной сортировки. Вариант только с картинками сильно роняет завершение задания.
— Ищут способ оценить техническую грамотность пользователей, что влияет на их работу с интерфейсом.
13. Martin Schrepp, Jessica Kollmorgen и Jörg Thomaschewski: Сравнили три разных стандартизированных опросника (SUS, UMUX-LITE и UEQ-S) на примере оценки нескольких популярных продуктов.
#research
1. Maze и Atlassian: Опрос 600 дизайнеров, исследователей и менеджеров продуктов о том, на каких этапах работы над продуктом они проводят исследования. И в целом про развитие экспертизы в компаниях.
2. Jim Kalbach и Elaine Matthias: Вторая версия их шаблона JTBD Canvas (как работать с ним).
3. Контур: Памятка по формулировке гипотез для юзабилити-тестирования. Как правильно описывать их, чтобы получить хорошие ответы.
3. User Interviews: Памятка по написанию хорошего письма-приглашения. Бонусом идут шаблоны-примеры.
В дополнение — советы Контура по отправке таких писем.
4. Контур: Способы донести знания про пользователя для продуктовых команд.
И ещё одна статья на тему от Atlassian. Они советуют экспериментировать с подходами и вовлекать участников разными способами.
5. User Interviews: Большая коллекция шаблонов для разных методов и задач исследований.
6. Condens: Советы по автоматизации процесса исследований. Что можно, а что стоит и дальше делать вручную.
7. Контур: Памятка по составлению сценария исследования.
8. Steve Bromley: Обзор процесса исследований при работе над новой игрой.
9. IBM: Советы по первым шагам внедрения ResearchOps в компании. Больше пересказ известного фреймворка, но есть и личный опыт.
10. Dovetail: Создатели сервиса ведения базы знаний и инсайтов описывают свою роль на рынке сопутствующих инструментов.
11. Mary Zide и Sarah Zimmers: Как применили метод «списка главных задач пользователей» в контексте стартапа.
12. Свежее от Jeff Sauro и Jim Lewis:
— Продолжают серию экспериментов, чтобы замерить влияние метода рассуждения респондентом вслух на результаты удалённого немодерируемого пользовательского исследования — на этот раз про влияние на метрики исследования. Спойлер: отклонения есть, хотя и не критичные.
— Обновили своё сравнительное исследование сайтов мобильных операторов. Как пользователи оценивают их по метрикам SUPR-Q, NPS и UX-Lite.
— Изучили, насколько картинки помогают пользователям в проведении карточной сортировки. Вариант только с картинками сильно роняет завершение задания.
— Ищут способ оценить техническую грамотность пользователей, что влияет на их работу с интерфейсом.
13. Martin Schrepp, Jessica Kollmorgen и Jörg Thomaschewski: Сравнили три разных стандартизированных опросника (SUS, UMUX-LITE и UEQ-S) на примере оценки нескольких популярных продуктов.
#research
Maze
Continuous Research Trends Report 2023 | Maze
With data from 600+ product professionals, this report explores how product teams use continuous discovery and research to inform decision-making. Discover the research trends that will shape the industry in 2023 and beyond.
Кажется, я забыл включить в недавнюю мини-подборку о пользовательских исследованиях вот эти штуки:
1. Atlassian: Плюсы и минусы централизованного и погружённого формата для исследователей.
2. NN/g: Ограничения метода опросов и советы по минимизации проблем.
3. User Interviews: Делят методы на 4 ситуации, в которых они могут помочь продуктовой команде: видение, стратегия, поиск продуктового решения и его оценка.
4. User Interviews: Метод анти-персонажей. Это те, кто может использовать продукт в злонамеренных целях.
5. NN/g: Поиск времени на разведочные исследования в гибкой разработке.
6. NN/g: Структурированная подборка своих статей об омниканальности пользовательского опыта.
7. User Interviews: Памятка по выбору инструмента. Они, конечно, много говорят о своём продукте User Interviews, но сами критерии и подход универсальны.
8. NN/g: Как использовать карты эмпатии для планирования исследований, во время их проведения и для записи результатов.
9. User Interviews: Продуктивное взаимодействие исследователей и команды поддержки.
#research
1. Atlassian: Плюсы и минусы централизованного и погружённого формата для исследователей.
2. NN/g: Ограничения метода опросов и советы по минимизации проблем.
3. User Interviews: Делят методы на 4 ситуации, в которых они могут помочь продуктовой команде: видение, стратегия, поиск продуктового решения и его оценка.
4. User Interviews: Метод анти-персонажей. Это те, кто может использовать продукт в злонамеренных целях.
5. NN/g: Поиск времени на разведочные исследования в гибкой разработке.
6. NN/g: Структурированная подборка своих статей об омниканальности пользовательского опыта.
7. User Interviews: Памятка по выбору инструмента. Они, конечно, много говорят о своём продукте User Interviews, но сами критерии и подход универсальны.
8. NN/g: Как использовать карты эмпатии для планирования исследований, во время их проведения и для записи результатов.
9. User Interviews: Продуктивное взаимодействие исследователей и команды поддержки.
#research
Medium
Yes, you should embed UX researchers into your design teams. Here’s why…
Researchers. What are they? What do they do? How many sides do they have?
Традиционно насыщенная информационным мяском мини-подборка о пользовательских исследованиях:
1. Сообщество ResearchOps: Каталог инструментов для всех видов и задач исследований. Они также провели опрос про их популярность. Как его делали.
2. Jake Burghardt: Фешенебельный фреймворк помогает оценить текущее влияние исследований в компании на продуктовую работу на разных этапах. Он показывает текущую ситуацию и помогает выбрать следующие шаги в повышении влияния.
3. Jeff Sauro, Christopher Roberts, Kelly Palmer и Jim Lewis: Советы по организации постоянно идущих пользовательских исследований (rolling research). Эта концепция пришла из Lean UX.
4. NN/g: Удачные и плохие примеры запроса обратной связи в интерфейсе. В какой момент показывать их и как делать короткими.
5. User Interviews: Шаблоны и методы для ведения заметок по ходу исследования. Она также тезисно описала лучшие практики. Бонус: шаблоны для проведения исследований в целом, а также персонажей, Jobs to Be Done и других ментальных моделей.
6. Connor Joyce: Роль и задачи специалиста по поведенческой науке.
7. User Interviews: Когнитивные искажения исследователей. Как бороться с ними и вообще замечать на ранней стадии.
8. Emily DiLeo: Описание отчётов и других документов о прошедших исследованиях в базе знаний и инсайтов.
9. NN/g: Разница между данными, выводами и инсайтами из качественных и количественных исследований.
10. Condens: Особенности подхода к демократизации исследований.
11. Indeed: Встречи по генерации идей, которые проходят после проведения исследований.
12. NN/g: Этические дилеммы, которые возникают в процессе исследований.
13. User Interviews: Исследования в классическом офлайновом формате постепенно возвращаются после пандемии. Памятка по обеспечению безопасности для них.
#research
1. Сообщество ResearchOps: Каталог инструментов для всех видов и задач исследований. Они также провели опрос про их популярность. Как его делали.
2. Jake Burghardt: Фешенебельный фреймворк помогает оценить текущее влияние исследований в компании на продуктовую работу на разных этапах. Он показывает текущую ситуацию и помогает выбрать следующие шаги в повышении влияния.
3. Jeff Sauro, Christopher Roberts, Kelly Palmer и Jim Lewis: Советы по организации постоянно идущих пользовательских исследований (rolling research). Эта концепция пришла из Lean UX.
4. NN/g: Удачные и плохие примеры запроса обратной связи в интерфейсе. В какой момент показывать их и как делать короткими.
5. User Interviews: Шаблоны и методы для ведения заметок по ходу исследования. Она также тезисно описала лучшие практики. Бонус: шаблоны для проведения исследований в целом, а также персонажей, Jobs to Be Done и других ментальных моделей.
6. Connor Joyce: Роль и задачи специалиста по поведенческой науке.
7. User Interviews: Когнитивные искажения исследователей. Как бороться с ними и вообще замечать на ранней стадии.
8. Emily DiLeo: Описание отчётов и других документов о прошедших исследованиях в базе знаний и инсайтов.
9. NN/g: Разница между данными, выводами и инсайтами из качественных и количественных исследований.
10. Condens: Особенности подхода к демократизации исследований.
11. Indeed: Встречи по генерации идей, которые проходят после проведения исследований.
12. NN/g: Этические дилеммы, которые возникают в процессе исследований.
13. User Interviews: Исследования в классическом офлайновом формате постепенно возвращаются после пандемии. Памятка по обеспечению безопасности для них.
#research
Airtable
Airtable | Everyone's app platform
Airtable is a low-code platform for building collaborative apps. Customize your workflow, collaborate, and achieve ambitious outcomes. Get started for free.
Массивная инъекция свежего о пользовательских исследованиях:
1. MeasuringU: Эксперимент с ChatGPT — насколько хорошо он умеет выделять основные темы интерфейсных проблем по результатам исследования. Они дали одинаковое задание трём исследователям и сделали три прогона с ботом. В целом результат не идеальный, но пристойный.
2. User Interviews: Мясистая памятка по пользовательским исследованиям для дизайнеров и менеджеров продуктов. Как взаимодействовать с профессиональным исследователем, какие методы можно использовать самому, как задавать правильные вопросы и т.п. Правда, они зачем-то разделяют всё на проектировщика и продуктового дизайнера, но это можно игнорировать.
3. Condens: Универсальный подход, который поможет выбрать правильный способ донесения результатов исследований на разных этапах работы продуктовой команды.
4. User Interviews: Шаблоны для проведения юзабилити-тестирования.
5. Jeff Sauro и Jim Lewis: Продолжают изучать измерения технической подкованности. В этой статье они пытаются проследить влияние этого показателя на успешное выполнение задачи.
6. NN/g: Методы поиска респондентов и проведения юзабилити-тестов с пользователями, которые имеют ограничения по зрению. Выводах из соседнего исследования на тему ввода текста на мобильных такими пользователями.
7. Alison Jones: База знаний и инсайтов из исследований Atlassian Research Library. Как они собирали требования к ней, какие удачные и неудачные этапы прошли и как она работает сейчас.
8. NN/g: Советы по созданию своей панели респондентов.
9. Meghan Skapyak: Советы по проведению исследований с детьми. Как создать комфортную обстановку для них и получить дельные инсайты.
10. Liam O’Brien и Stephanie Wilson: Особенности вариации метода рассуждения респондентом вслух — когда модератор может прерывать и дополнять их в каких-то ситуациях.
11. MeasuringU: Проблема исследования, оценивающего записи немодерируемых юзабилити-тестов. Разные исследователи выделяют разные интерфейсные проблемы и пересечение между ними не сильно большое.
12. NN/g: Эффект Хоторна, который может искажать результаты пользовательских исследований. Сам факт наблюдения за ними может повлиять на поведение.
13. Дмитрий Старков: Методы тестирования продуктов на базе алгоритмов.
#research
1. MeasuringU: Эксперимент с ChatGPT — насколько хорошо он умеет выделять основные темы интерфейсных проблем по результатам исследования. Они дали одинаковое задание трём исследователям и сделали три прогона с ботом. В целом результат не идеальный, но пристойный.
2. User Interviews: Мясистая памятка по пользовательским исследованиям для дизайнеров и менеджеров продуктов. Как взаимодействовать с профессиональным исследователем, какие методы можно использовать самому, как задавать правильные вопросы и т.п. Правда, они зачем-то разделяют всё на проектировщика и продуктового дизайнера, но это можно игнорировать.
3. Condens: Универсальный подход, который поможет выбрать правильный способ донесения результатов исследований на разных этапах работы продуктовой команды.
4. User Interviews: Шаблоны для проведения юзабилити-тестирования.
5. Jeff Sauro и Jim Lewis: Продолжают изучать измерения технической подкованности. В этой статье они пытаются проследить влияние этого показателя на успешное выполнение задачи.
6. NN/g: Методы поиска респондентов и проведения юзабилити-тестов с пользователями, которые имеют ограничения по зрению. Выводах из соседнего исследования на тему ввода текста на мобильных такими пользователями.
7. Alison Jones: База знаний и инсайтов из исследований Atlassian Research Library. Как они собирали требования к ней, какие удачные и неудачные этапы прошли и как она работает сейчас.
8. NN/g: Советы по созданию своей панели респондентов.
9. Meghan Skapyak: Советы по проведению исследований с детьми. Как создать комфортную обстановку для них и получить дельные инсайты.
10. Liam O’Brien и Stephanie Wilson: Особенности вариации метода рассуждения респондентом вслух — когда модератор может прерывать и дополнять их в каких-то ситуациях.
11. MeasuringU: Проблема исследования, оценивающего записи немодерируемых юзабилити-тестов. Разные исследователи выделяют разные интерфейсные проблемы и пересечение между ними не сильно большое.
12. NN/g: Эффект Хоторна, который может искажать результаты пользовательских исследований. Сам факт наблюдения за ними может повлиять на поведение.
13. Дмитрий Старков: Методы тестирования продуктов на базе алгоритмов.
#research
Measuringu
Can ChatGPT Replace UX Researchers?An Empirical Analysis of Comment Classifications – MeasuringU
И снова массивный дроп свежего про пользовательские исследования:
1. Jim Lewis и Jeff Sauro: Сравнивают несколько чеклистов для оценки компьютерной грамотности пользователей.
2. Lyft: Системный подход, который поможет презентовать результаты исследований команде. Как обернуть их в историю, которая подсвечивает главное и за которой интересно следить.
3. MeasuringU: Памятка по использованию метода тестирования интерфейсов с помощью «первого клика» (она же в виде шпаргалки). Они также изучили, насколько метод клик-тестов на макетах позволяет предугадать реальное поведение пользователя на сайте. В целом — очень близко.
4. NN/g: Изучили сервисы для обработки результатов исследований, которые обещают готовить инсайты на их основе. В целом всё плохо — корявые выводы, невозможность отследить исходный материал конкретной сессии, непонимание контекста.
5. Marvin: База знаний и инсайтов из пользовательских исследований. Помогают разбирать заметки и раскладывать их по категориям с помощью алгоритмов.
6. NN/g: Как работать с матрицей CSD (Certainties, Suppositions, Doubts). Она помогает разложить предположения о пользователях по стопкам (уверены, предполагаем, сомневаемся) и системно работать по повышению степени уверенности.
7. David Tang: Ограничения и риски демократизации исследований в компании. В ней есть польза, но только если это управляемый процесс, который решает правильные задачи.
8. Condens: Метод кабинетных исследований и ситуации, в которых он полезен.
9. User Interviews: Памятка по поиску и отбору респондентов. А также советы Mary Nolan для B2B-продуктов.
10. User Interviews: Пообщались с несколькими продуктовыми командами и узнали, как они работают идеологии постоянно идущих исследований.
11. Rohan Irvine: Советы по выстраиванию ResearchOps в компании. Он делится опытом удачных и проблемных ситуаций из компаний, где внедрял эти подходы.
12. Jeff Sauro и Jim Lewis: Продолжают изучать метод юзабилити-тестирования, когда респондент проговаривает проблемы вслух. Так респонденты находят больше проблем, хотя они не проверяли реальность этих проблем.
13. NN/g: Мощный глоссарий терминов в количественных пользовательских исследованиях.
14. Robert McWhirter: Процесс проверки продуктовых гипотез на самой ранней стадии с помощью исследований и экспериментов.
15. NN/g: Памятка по проведению экспертной оценки. Они дают полезный шаблон, который основан на классических 10 эвристиках Нильсена.
#research
1. Jim Lewis и Jeff Sauro: Сравнивают несколько чеклистов для оценки компьютерной грамотности пользователей.
2. Lyft: Системный подход, который поможет презентовать результаты исследований команде. Как обернуть их в историю, которая подсвечивает главное и за которой интересно следить.
3. MeasuringU: Памятка по использованию метода тестирования интерфейсов с помощью «первого клика» (она же в виде шпаргалки). Они также изучили, насколько метод клик-тестов на макетах позволяет предугадать реальное поведение пользователя на сайте. В целом — очень близко.
4. NN/g: Изучили сервисы для обработки результатов исследований, которые обещают готовить инсайты на их основе. В целом всё плохо — корявые выводы, невозможность отследить исходный материал конкретной сессии, непонимание контекста.
5. Marvin: База знаний и инсайтов из пользовательских исследований. Помогают разбирать заметки и раскладывать их по категориям с помощью алгоритмов.
6. NN/g: Как работать с матрицей CSD (Certainties, Suppositions, Doubts). Она помогает разложить предположения о пользователях по стопкам (уверены, предполагаем, сомневаемся) и системно работать по повышению степени уверенности.
7. David Tang: Ограничения и риски демократизации исследований в компании. В ней есть польза, но только если это управляемый процесс, который решает правильные задачи.
8. Condens: Метод кабинетных исследований и ситуации, в которых он полезен.
9. User Interviews: Памятка по поиску и отбору респондентов. А также советы Mary Nolan для B2B-продуктов.
10. User Interviews: Пообщались с несколькими продуктовыми командами и узнали, как они работают идеологии постоянно идущих исследований.
11. Rohan Irvine: Советы по выстраиванию ResearchOps в компании. Он делится опытом удачных и проблемных ситуаций из компаний, где внедрял эти подходы.
12. Jeff Sauro и Jim Lewis: Продолжают изучать метод юзабилити-тестирования, когда респондент проговаривает проблемы вслух. Так респонденты находят больше проблем, хотя они не проверяли реальность этих проблем.
13. NN/g: Мощный глоссарий терминов в количественных пользовательских исследованиях.
14. Robert McWhirter: Процесс проверки продуктовых гипотез на самой ранней стадии с помощью исследований и экспериментов.
15. NN/g: Памятка по проведению экспертной оценки. Они дают полезный шаблон, который основан на классических 10 эвристиках Нильсена.
#research
Measuringu
Measuring Tech Savviness with Technical Activity Checklists – MeasuringU
Первые полсотни мини-выпусков дайджеста о пользовательских исследованиях: done.
1. NN/g: Памятка по формулировкам вопросов в опросниках.
2. Google: Интересный метод для регулярного замера отношения пользователей к функциональности через серию стандартизированных опросов.
3. Okta: Перевод базы знаний и инсайтов из старого инструмента в Dovetail. Интересно, что рынок дозрел и до таких историй.
4. Roberta Dombrowski: Советы по поиску направлений для стратегических исследований и расстановке приоритетов между ними.
5. Jim Lewis и Jeff Sauro: Изучили, насколько влияет наличие нейтрального варианта ответа в стандартизированных интерфейсных шкалах опросов. В целом — не особо.
6. Jim Ross: Изменения в профессии пользовательского исследователя за последние 25 лет. Терминология, зона ответственности, формат проектов и т.п. MeasuringU также изучили изменения названий профессии.
7. NN/g: Советы по оплате респондентам в дневниковых исследованиях. Она влияет на детальность этих само-отчётов.
8. Lisa van Ekeren: Созданиие базы знаний из прошлых исследований на базе SharePoint.
#research
1. NN/g: Памятка по формулировкам вопросов в опросниках.
2. Google: Интересный метод для регулярного замера отношения пользователей к функциональности через серию стандартизированных опросов.
3. Okta: Перевод базы знаний и инсайтов из старого инструмента в Dovetail. Интересно, что рынок дозрел и до таких историй.
4. Roberta Dombrowski: Советы по поиску направлений для стратегических исследований и расстановке приоритетов между ними.
5. Jim Lewis и Jeff Sauro: Изучили, насколько влияет наличие нейтрального варианта ответа в стандартизированных интерфейсных шкалах опросов. В целом — не особо.
6. Jim Ross: Изменения в профессии пользовательского исследователя за последние 25 лет. Терминология, зона ответственности, формат проектов и т.п. MeasuringU также изучили изменения названий профессии.
7. NN/g: Советы по оплате респондентам в дневниковых исследованиях. Она влияет на детальность этих само-отчётов.
8. Lisa van Ekeren: Созданиие базы знаний из прошлых исследований на базе SharePoint.
#research
Nielsen Norman Group
Writing Good Survey Questions: 10 Best Practices
Designing a good survey is harder than it may seem. Ensure accurate and reliable data by writing questions that are appropriate for the method and worded to minimize bias.
На удивление компактная подборка нового о пользовательских исследованиях — обычно набегает куда больше:
1. User Interviews: Исследование профессии за 2023 год. Они опросили 929 специалистов по самым разным темам, включая орг.структуру, демократизацию, обычные и алгоритмические инструменты и т.п.
2. NN/g: Глоссарий методов.
3. Jim Lewis и Jeff Sauro: Варианты категоризации пользователей по технической грамотности.
4. MeasuringU: Метрики, которые можно получить и посчитать с помощью метода клик-тестов.
5. NN/g: Спутывающие переменные. Это время суток, сезон, возраст и другие подобные факторы, которые могут показать ложную зависимость.
6. Steve Bromley: Шпаргалка по методам пользовательских исследований игровых интерфейсов.
7. Подкаст с со-основателем и главой сервиса Marvin Prayag Narula (это база знаний и инсайтов из пользовательских исследований).
#research
1. User Interviews: Исследование профессии за 2023 год. Они опросили 929 специалистов по самым разным темам, включая орг.структуру, демократизацию, обычные и алгоритмические инструменты и т.п.
2. NN/g: Глоссарий методов.
3. Jim Lewis и Jeff Sauro: Варианты категоризации пользователей по технической грамотности.
4. MeasuringU: Метрики, которые можно получить и посчитать с помощью метода клик-тестов.
5. NN/g: Спутывающие переменные. Это время суток, сезон, возраст и другие подобные факторы, которые могут показать ложную зависимость.
6. Steve Bromley: Шпаргалка по методам пользовательских исследований игровых интерфейсов.
7. Подкаст с со-основателем и главой сервиса Marvin Prayag Narula (это база знаний и инсайтов из пользовательских исследований).
#research
Userinterviews
State of User Research 2023 Report | User Interviews
Our 5th annual report unpacks survey data from 929 UX researchers and ReOps pros to uncover trends in research teams, tools, AI, layoffs, and more.
Много полезных и познавательных букв о пользовательских исследованиях, написанных за последние месяц-полтора:
1. User Interviews: Каталог инструментов за 2023 год. Он масштабно разросся (400 инструментов) и получил топчанский редизайн в стиле средневековых карт (как его делали). Памятка по использованию. Отдельно ― про проблемы универсальных комбайнов.
2. Figma: Отличный пример тесной связки аналитиков и исследователей. Они хотели переработать уведомления и вместе искали потенциальные проблемы и точки боли.
3. Scott Sehlhorst: Грамотная формулировка проблемы для продуктовой команды с точки зрения конкретной группы пользователей и ситуации, в которой она возникает.
4. GE: Система обработки обратной связи от пользователей. Как они категоризуют обращения в поддержку в разных каналах и в целом упростили жизнь этой команде.
5. User Interviews: Памятка по проведению интервью с пользователями на основе своих статей за последние годы.
6. Steve Bromley: Рекомендации по выбору правильного момента для проведения игрового теста. Когда не слишком поздно и не слишком рано.
7. Sofya Bourne: Советы по поиску респондентов в B2B-среде. Она перечисляет основные проблемы и даёт способы их решения.
8. MeasuringU: Насколько легко пользователи справляются с заданием отсортировать что-то в опросниках. Они сравнивают зависимость от темы и количества элементов.
9. Hannah Campbell, Jeff Sokolov и Rachel Searing: Опыт внедрения базы знаний и инсайтов в iRhythm Technologies. Какие цели они ставили, как общались с будущими пользователями и выбирали пилот.
10. Jeff Sauro и Jim Lewis: Чем отличаются респонденты, которые соглашаются или отказываются на исследование с рассуждением вслух. В целом разницы нет, кроме возраста и страны.
11. Kate Fisher и Julia Cowing: Как команда ResearchOps помогает эффективнее планировать и проводить исследования в разных командах компании.
#research
1. User Interviews: Каталог инструментов за 2023 год. Он масштабно разросся (400 инструментов) и получил топчанский редизайн в стиле средневековых карт (как его делали). Памятка по использованию. Отдельно ― про проблемы универсальных комбайнов.
2. Figma: Отличный пример тесной связки аналитиков и исследователей. Они хотели переработать уведомления и вместе искали потенциальные проблемы и точки боли.
3. Scott Sehlhorst: Грамотная формулировка проблемы для продуктовой команды с точки зрения конкретной группы пользователей и ситуации, в которой она возникает.
4. GE: Система обработки обратной связи от пользователей. Как они категоризуют обращения в поддержку в разных каналах и в целом упростили жизнь этой команде.
5. User Interviews: Памятка по проведению интервью с пользователями на основе своих статей за последние годы.
6. Steve Bromley: Рекомендации по выбору правильного момента для проведения игрового теста. Когда не слишком поздно и не слишком рано.
7. Sofya Bourne: Советы по поиску респондентов в B2B-среде. Она перечисляет основные проблемы и даёт способы их решения.
8. MeasuringU: Насколько легко пользователи справляются с заданием отсортировать что-то в опросниках. Они сравнивают зависимость от темы и количества элементов.
9. Hannah Campbell, Jeff Sokolov и Rachel Searing: Опыт внедрения базы знаний и инсайтов в iRhythm Technologies. Какие цели они ставили, как общались с будущими пользователями и выбирали пилот.
10. Jeff Sauro и Jim Lewis: Чем отличаются респонденты, которые соглашаются или отказываются на исследование с рассуждением вслух. В целом разницы нет, кроме возраста и страны.
11. Kate Fisher и Julia Cowing: Как команда ResearchOps помогает эффективнее планировать и проводить исследования в разных командах компании.
#research
Userinterviews
2023 UX Research Tools Map | User Interviews
The only illustrated guide to user research tools and categories. Discover the best software for UX research recruiting, usability testing, surveys, analysis, AI, and more—updated for 2023.
Небольшой выпуск о пользовательских исследованиях, а то вы и так все в запаре:
1. Jakob Nielsen: Нужна ли в современном мире классическая юзабилити-лаборатория как помещение. Офлайновые юзабилити-тесты нужны, но достаточно обычной переговорки. Кстати, в статье есть рарные фото такой лаборатории Sun 1994-1995 года, где Jakob провёл первое в мире юзабилити-тестирование (хотя сейчас делают гораздо проще и менее киношно).
2. Adobe: Интереснейший фреймворк LOAF (Learning Outcomes Assessment Framework) для оценки процесса обучения в интерфейсе. Он помогает оценить эмоциональный и функциональный результат по нескольким параметрам.
3. Connor Joyce: Процесс анализа и изменения поведения пользователей. Он проанализировал 4 популярных фреймворка и соединил их идеи вместе.
4. Adobe: Как устроена команда ResearchOps (у них 65 качественных и количественных исследователя).
5. Okta: Как команда работает с базой знаний и инсайтов в инструменте Dovetail.
#research
1. Jakob Nielsen: Нужна ли в современном мире классическая юзабилити-лаборатория как помещение. Офлайновые юзабилити-тесты нужны, но достаточно обычной переговорки. Кстати, в статье есть рарные фото такой лаборатории Sun 1994-1995 года, где Jakob провёл первое в мире юзабилити-тестирование (хотя сейчас делают гораздо проще и менее киношно).
2. Adobe: Интереснейший фреймворк LOAF (Learning Outcomes Assessment Framework) для оценки процесса обучения в интерфейсе. Он помогает оценить эмоциональный и функциональный результат по нескольким параметрам.
3. Connor Joyce: Процесс анализа и изменения поведения пользователей. Он проанализировал 4 популярных фреймворка и соединил их идеи вместе.
4. Adobe: Как устроена команда ResearchOps (у них 65 качественных и количественных исследователя).
5. Okta: Как команда работает с базой знаний и инсайтов в инструменте Dovetail.
#research
Jakob Nielsen on UX
Usability Labs: Cool or Old School?
Richly illustrated historical overview of the transformation of usability labs from dedicated spaces to Zoom calls, raising questions about the future needs for in-lab research. Much of history’s most important user research was conducted in dedicated usability…
Осенью запустил исследование отношения к продуктовым дизайн-командам в России. Наконец-то собрал результаты. Участвовало 1400 человек.
В России хватает сильных продуктовых компаний и команд, в которых работают мощные дизайнеры и выпускаются крепкие продукты международного уровня. Многие из них помогают дизайн-сообществу конференциями, митапами, конкурсами и другими полезными вещами.
Вот, например, топ-10 по вопросу «Оффер какой компании вы бы приняли?»:
1. Яндекс
2. Тинькофф
3. Aviasales
4. Самокат
5. Ozon
6. Авито
7. Альфа-Банк
8. VK Group
9. Сбер
10. МТС
Теперь у каждой команды в каталоге есть динамика рейтинга — как их оценивали в разные годы. Карточки компаний будут развиваться. Результаты за 2021, 2020, 2019 и 2018 годы.
Такой рейтинг будет полезен рынку. Дизайнерам — лучше понимать, где есть хорошие вызовы и комфортная среда для профессионального роста. Компаниям и дизайн-командам — видеть, что нужно докачать. Это станет полезным инструментом для оценки вложений в HR-бренд.
P.S. Отдельное спасибо дизайнерским сообществам, которые помогли собрать ответы. В первую очередь — Оди, Ищу дизайнера (designer.ru) и UX Live.
#designmanagement #survey #research
В России хватает сильных продуктовых компаний и команд, в которых работают мощные дизайнеры и выпускаются крепкие продукты международного уровня. Многие из них помогают дизайн-сообществу конференциями, митапами, конкурсами и другими полезными вещами.
Вот, например, топ-10 по вопросу «Оффер какой компании вы бы приняли?»:
1. Яндекс
2. Тинькофф
3. Aviasales
4. Самокат
5. Ozon
6. Авито
7. Альфа-Банк
8. VK Group
9. Сбер
10. МТС
Теперь у каждой команды в каталоге есть динамика рейтинга — как их оценивали в разные годы. Карточки компаний будут развиваться. Результаты за 2021, 2020, 2019 и 2018 годы.
Такой рейтинг будет полезен рынку. Дизайнерам — лучше понимать, где есть хорошие вызовы и комфортная среда для профессионального роста. Компаниям и дизайн-командам — видеть, что нужно докачать. Это станет полезным инструментом для оценки вложений в HR-бренд.
P.S. Отдельное спасибо дизайнерским сообществам, которые помогли собрать ответы. В первую очередь — Оди, Ищу дизайнера (designer.ru) и UX Live.
#designmanagement #survey #research
Dmpatterns
Отношение к продуктовым дизайн-командам: 2023
Ежегодное исследование продуктовых дизайн-команд в России. Как профессиональное сообщество оценивает результаты их работы? Такой рейтинг будет полезен рынку. Дизайнерам — лучше понимать, где есть хорошие вызовы и комфортная среда для профессионального роста.…
Поток свежей годноты про пользовательские исследования чутка приуныл, но ещё держится:
1. Jeff Sauro и Jim Lewis: Последние пару лет они анализировали метод исследований с рассуждением респондента вслух. Просуммировали все выводы в этой статье.
2. Chris Chapmam: Критически препарирует модель Кано. Он отмечает некорректность самой методологии и слабую повторяемость результатов. Часть 2.
3. Jeff Sauro и Jim Lewis: Три основных подхода к общему замеру UX в продуктах: поведение (на базе эффективности выполнения основных задач), отношение (ретроспективно) и экспертно.
4. Jim Kalbach: Перечисляет несколько заблуждений о Jobs to Be Done, а также описывает работу со своей канвой JTBD Canvas 2.0.
5. Hugo Froes: Мифы и реальная польза демократизации исследований.
6. Jeff Sauro и Jim Lewis: Сравнивают два простых опросника SEQ (Single Ease Question) и SMEQ (Subjective Mental Effort Questionnaire), а также изучают корреляцию между ними.
7. NN/g: Обзор методов полевых исследований.
#research
1. Jeff Sauro и Jim Lewis: Последние пару лет они анализировали метод исследований с рассуждением респондента вслух. Просуммировали все выводы в этой статье.
2. Chris Chapmam: Критически препарирует модель Кано. Он отмечает некорректность самой методологии и слабую повторяемость результатов. Часть 2.
3. Jeff Sauro и Jim Lewis: Три основных подхода к общему замеру UX в продуктах: поведение (на базе эффективности выполнения основных задач), отношение (ретроспективно) и экспертно.
4. Jim Kalbach: Перечисляет несколько заблуждений о Jobs to Be Done, а также описывает работу со своей канвой JTBD Canvas 2.0.
5. Hugo Froes: Мифы и реальная польза демократизации исследований.
6. Jeff Sauro и Jim Lewis: Сравнивают два простых опросника SEQ (Single Ease Question) и SMEQ (Subjective Mental Effort Questionnaire), а также изучают корреляцию между ними.
7. NN/g: Обзор методов полевых исследований.
#research
Measuringu
10 Key Takeaways from the Latest Research on Thinking Aloud in Usability Testing – MeasuringU
И снова мини-подборка для тех, кто проводит пользовательские исследования или использует их результаты в работе. Вот что на прилавке сегодня:
1. Jakob Nielsen: Как он придумал свои классические 10 эвристик юзабилити 30 лет назад. Он также показывает, почему они не устаревают — в их основе фундаментальный рассинхрон между пользователями и компьютерами, который не зависит от конкретной платформы и трендов.
2. Константин Ефимов и Анастасия Жичкина: Памятка по проведению исследований. Она разбирает ошибки на разных стадиях от подготовки до завершения. PDF.
3. Jim Kalbach: Экспериментирует с ChatGPT для помощи в процессе описания Jobs to Be Done. Он сделал два плагина в дополнение к своей фирменной канве — Scope и Investigate. Они помогают заполнять JTBD Canvas.
4. Quant UX Conf: Конференция о количественных методах пройдёт 12-13 июня в онлайне.
5. Johanna Jagow: Шишки, которые она набила при внедрении базы знаний и инсайтов.
6. Jeff Sauro и Jim Lewis: Памятка по основам проведения опросов пользователей. Много полезных способов категоризации.
В другой статье они описывают типичные проблемы выборки при проведении опросов, которые искажают результат.
А NN/g приводят ситуации, в которых хочется провести опрос, но на самом деле не стоит.
7. Steve Bromley: Конфигурация оборудования и программ для проведения игровых тестов мобильных игр.
8. Александр Замахов: Подборка статей о проведении исследований в известных продуктовых компаниях.
9. Chris Chapman: Планирование количественных исследований. Времени на них нужно с запасом — он подсвечивает основные риски.
10. Steve Bromley и Pejman Mirza-Babaei: Обзор роли и особенностей работы исследователя в играх.
11. Jake Burghardt: Востребованность конкретных инсайтов в базе знаний.
#research
1. Jakob Nielsen: Как он придумал свои классические 10 эвристик юзабилити 30 лет назад. Он также показывает, почему они не устаревают — в их основе фундаментальный рассинхрон между пользователями и компьютерами, который не зависит от конкретной платформы и трендов.
2. Константин Ефимов и Анастасия Жичкина: Памятка по проведению исследований. Она разбирает ошибки на разных стадиях от подготовки до завершения. PDF.
3. Jim Kalbach: Экспериментирует с ChatGPT для помощи в процессе описания Jobs to Be Done. Он сделал два плагина в дополнение к своей фирменной канве — Scope и Investigate. Они помогают заполнять JTBD Canvas.
4. Quant UX Conf: Конференция о количественных методах пройдёт 12-13 июня в онлайне.
5. Johanna Jagow: Шишки, которые она набила при внедрении базы знаний и инсайтов.
6. Jeff Sauro и Jim Lewis: Памятка по основам проведения опросов пользователей. Много полезных способов категоризации.
В другой статье они описывают типичные проблемы выборки при проведении опросов, которые искажают результат.
А NN/g приводят ситуации, в которых хочется провести опрос, но на самом деле не стоит.
7. Steve Bromley: Конфигурация оборудования и программ для проведения игровых тестов мобильных игр.
8. Александр Замахов: Подборка статей о проведении исследований в известных продуктовых компаниях.
9. Chris Chapman: Планирование количественных исследований. Времени на них нужно с запасом — он подсвечивает основные риски.
10. Steve Bromley и Pejman Mirza-Babaei: Обзор роли и особенностей работы исследователя в играх.
11. Jake Burghardt: Востребованность конкретных инсайтов в базе знаний.
#research
Jakob Nielsen on UX
How I Developed the 10 Usability Heuristics
Jakob Nielsen’s 10 usability heuristics were defined from a factor analysis of the use of a much larger set of usability principles to explain a database of usability problems in development projects. The 10 heuristics in the final list from 1994 had the…
Давненько не было мини-выпусков о пользовательских исследованиях. Вот вам мясной по уровню сложности:
1. Jeff Sauro и Jim Lewis: Разбираются, не устарел ли стандартизированный опросник SUS, которому уже четыре десятка лет (он был создан для конкретного проекта). В целом он всё ещё работает, хотя есть методы попроще.
2. Stephen Schneider, Serena Hillman, Paula Bach и Guoping Ma: Упрощённая версия SUS для корпоративных интерфейсов. Они сократили опросник до 5 вопросов и назвали его ESUS (Enterprise SUS).
3. Chase S. Boothe, Lesley Strawderman, Reuben F. Burch V, Brian K. Smith, Cindy L. Bethel и Kate Holmes: Вариация UEQ-G для стандартизированного опросника UEQ (User Experience Questionnaire). Он состоит из 26 вопросов про ощущения от продукта.
4. Jeff Sauro и Jim Lewis: Нюансы поиска респондентов для опросов.
5. Vandhana Bhaskaran: Формирование доверия в цифровых продуктах. Она ссылается на несколько исследований по теме.
6. Анна Лопарёва: Как найти в компании коллег, которые не профессиональные исследователи, но пытаются проводить такие проекты. И чем можно помочь им.
7. Alex Cottrell: Опыт использования Jobs to Be Done в страховой компании Zurich.
8. Steve Bromley: Советы игровым исследователям о ситуациях, когда попросили провести тест в последний момент или не внесли изменения в продукт после исследования. Это полезно и вне игровой разработки.
#research
1. Jeff Sauro и Jim Lewis: Разбираются, не устарел ли стандартизированный опросник SUS, которому уже четыре десятка лет (он был создан для конкретного проекта). В целом он всё ещё работает, хотя есть методы попроще.
2. Stephen Schneider, Serena Hillman, Paula Bach и Guoping Ma: Упрощённая версия SUS для корпоративных интерфейсов. Они сократили опросник до 5 вопросов и назвали его ESUS (Enterprise SUS).
3. Chase S. Boothe, Lesley Strawderman, Reuben F. Burch V, Brian K. Smith, Cindy L. Bethel и Kate Holmes: Вариация UEQ-G для стандартизированного опросника UEQ (User Experience Questionnaire). Он состоит из 26 вопросов про ощущения от продукта.
4. Jeff Sauro и Jim Lewis: Нюансы поиска респондентов для опросов.
5. Vandhana Bhaskaran: Формирование доверия в цифровых продуктах. Она ссылается на несколько исследований по теме.
6. Анна Лопарёва: Как найти в компании коллег, которые не профессиональные исследователи, но пытаются проводить такие проекты. И чем можно помочь им.
7. Alex Cottrell: Опыт использования Jobs to Be Done в страховой компании Zurich.
8. Steve Bromley: Советы игровым исследователям о ситуациях, когда попросили провести тест в последний момент или не внесли изменения в продукт после исследования. Это полезно и вне игровой разработки.
#research
Measuringu
Is the SUS Too Antiquated? – MeasuringU
Шепотка новых материалов о пользовательских исследованиях:
1. NN/g" Мощная детальная памятка по проведению дневниковых исследований. Виды, подготовка, проведение, анализ данных.
2. Chris Chapman: Метод оценки отношения пользователей к цене Van Westendorp.
3. Jeff Sauro и Jim Lewis: Сравнивают возможные подходы к выборке респондентов для опросов.
4. Dovetail: Сервис для ведения базы знаний и инсайтов анонсировал прорву новых возможностей по автоматизированной обработке результатов исследований, выделению тем, обработке видео и т.п.
5. Chris Chapman: Точной итоговой оценки у опросников зачастую не существует. Попытка получить её — самообман, поэтому нужно воспринимать их как поддержку принятия решений.
6. IBM: Советы по подготовке, проведению и использованию результатов исследований, с учётом ожиданий ключевых участников проекта.
7. Maze: Опросили 1200 участников продуктовых команд на тему состояния рынка пользовательских исследований. Каких-то откровений нет, но вдруг пригодится.
#research
1. NN/g" Мощная детальная памятка по проведению дневниковых исследований. Виды, подготовка, проведение, анализ данных.
2. Chris Chapman: Метод оценки отношения пользователей к цене Van Westendorp.
3. Jeff Sauro и Jim Lewis: Сравнивают возможные подходы к выборке респондентов для опросов.
4. Dovetail: Сервис для ведения базы знаний и инсайтов анонсировал прорву новых возможностей по автоматизированной обработке результатов исследований, выделению тем, обработке видео и т.п.
5. Chris Chapman: Точной итоговой оценки у опросников зачастую не существует. Попытка получить её — самообман, поэтому нужно воспринимать их как поддержку принятия решений.
6. IBM: Советы по подготовке, проведению и использованию результатов исследований, с учётом ожиданий ключевых участников проекта.
7. Maze: Опросили 1200 участников продуктовых команд на тему состояния рынка пользовательских исследований. Каких-то откровений нет, но вдруг пригодится.
#research
Nielsen Norman Group
Diary Studies: Understanding Long-Term User Behavior and Experiences
Participants log daily activities as they occur to give contextual insights about real-time user behaviors and needs.
Тяжеловесная мини-подборка свежего о пользовательских исследованиях. Такая плотность редкой годноты собирается нечасто:
1. Michele Williams: Годная памятка по проведению исследований для улучшения accessibility. Инструменты и методы сильно ограничены, но она предлагает альтернативы.
2. UXtweak: Мощнейшая памятка по поиску респондентов. Они опросили экспертов, которые дали много толковых советов.
3. Noreen Whysel: Разобралась, делятся ли сервисы для исследований какими-то данными со сторонними платформами. Есть нюансики.
4. Faten Habachi: Структурированная подборка статей о построении базы знаний и инсайтов. Как инициировать, построить, наполнить, использовать и т.п.
5. Adam Palanica: Решил разобраться с мифами о поведении людей. Зачастую это клише, искажённые научпопом, которые не подтверждаются реальными исследованиями или сильно искажены относительно первоисточника.
6. Chris Chapman: Напоминает, что исследования не всегда могут дать простой ответ на сложные бизнес-гипотезы. Он предлагает отличный обзор разных аспектов бизнеса, в каждом из которых можно принести много годных инсайтов.
7. Steve Bromley: Отличная памятка о том, когда и сколько игровых тестов нужно проводить на каждом этапе работы над игрой. Какие риски есть на этих этапах и что за методы помогут их снизить.
8. Jeff Sauro и Jim Lewis: Памятка по всем своим исследованиям шкал опросов, которые они делали в последние годы. Они пытались разобраться, есть ли разница в результатах при изменении формы.
Из последнего — они испытали необычный вариант — сплошную полоску, где можно кликнуть в любое место, а не классические радио-кнопки. В целом заметной разницы нет.
9. Jake Burghardt: Принципы хорошей базы знаний и инсайтов.
10. Сервис Dovetail для ведения базы знаний и инсайтов из пользовательских исследований провёл свою конференцию Insight Out 11 апреля в Сан-Франциско. Они начали публиковать видео и транскрипции выступлений. Вот несколько толковых:
— Со-основатель и глава Dovetail Benjamin Humphrey рассказал об изначальной задумке при создании продукта и том, как её удалось реализовать только сейчас, с помощью недавних наработок рынка в ИИ. Он также рассказал о новых алгоритмических функциях для упрощения работы с инсайтами.
— Команда Jared Forney в Okta умеет здорово миксовать разные методы под запрос команды. Он рассказал о нескольких подходах, используя метафору меню в ресторанах.
— Из-за массовых сокращений в ИТ 2020 и 2022-2023 года рынок сильно изменился, включая пользовательские исследования в компаниях. John Garvie из Uber делится своим пониманием обязанностей и возможностей генералистов в такой ситуации.
#research
1. Michele Williams: Годная памятка по проведению исследований для улучшения accessibility. Инструменты и методы сильно ограничены, но она предлагает альтернативы.
2. UXtweak: Мощнейшая памятка по поиску респондентов. Они опросили экспертов, которые дали много толковых советов.
3. Noreen Whysel: Разобралась, делятся ли сервисы для исследований какими-то данными со сторонними платформами. Есть нюансики.
4. Faten Habachi: Структурированная подборка статей о построении базы знаний и инсайтов. Как инициировать, построить, наполнить, использовать и т.п.
5. Adam Palanica: Решил разобраться с мифами о поведении людей. Зачастую это клише, искажённые научпопом, которые не подтверждаются реальными исследованиями или сильно искажены относительно первоисточника.
6. Chris Chapman: Напоминает, что исследования не всегда могут дать простой ответ на сложные бизнес-гипотезы. Он предлагает отличный обзор разных аспектов бизнеса, в каждом из которых можно принести много годных инсайтов.
7. Steve Bromley: Отличная памятка о том, когда и сколько игровых тестов нужно проводить на каждом этапе работы над игрой. Какие риски есть на этих этапах и что за методы помогут их снизить.
8. Jeff Sauro и Jim Lewis: Памятка по всем своим исследованиям шкал опросов, которые они делали в последние годы. Они пытались разобраться, есть ли разница в результатах при изменении формы.
Из последнего — они испытали необычный вариант — сплошную полоску, где можно кликнуть в любое место, а не классические радио-кнопки. В целом заметной разницы нет.
9. Jake Burghardt: Принципы хорошей базы знаний и инсайтов.
10. Сервис Dovetail для ведения базы знаний и инсайтов из пользовательских исследований провёл свою конференцию Insight Out 11 апреля в Сан-Франциско. Они начали публиковать видео и транскрипции выступлений. Вот несколько толковых:
— Со-основатель и глава Dovetail Benjamin Humphrey рассказал об изначальной задумке при создании продукта и том, как её удалось реализовать только сейчас, с помощью недавних наработок рынка в ИИ. Он также рассказал о новых алгоритмических функциях для упрощения работы с инсайтами.
— Команда Jared Forney в Okta умеет здорово миксовать разные методы под запрос команды. Он рассказал о нескольких подходах, используя метафору меню в ресторанах.
— Из-за массовых сокращений в ИТ 2020 и 2022-2023 года рынок сильно изменился, включая пользовательские исследования в компаниях. John Garvie из Uber делится своим пониманием обязанностей и возможностей генералистов в такой ситуации.
#research
Smashing Magazine
Conducting Accessibility Research In An Inaccessible Ecosystem — Smashing Magazine
Conducting UX research that includes participants with a variety of disabilities is vital to building inclusive technology, but most prototypes used for testing are inaccessible. Rather than continuing to leave out feedback from disabled consumers, which…
Долго фильтровал лишнее в мини-подборке о пользовательских исследованиях и вот что просеял:
1. Steve Bromley: Обзорная статья-навигатор по процессу тестирования игр. Она описывает типичный проект на разных этапах.
2. Jack Holmes: Предлагает заполнять модель Kano в 3 этапа. Сначала экспертная версия (единая картина мира у команды), потом опрос пользователей (то, что они ожидают), а в конце — пользовательское исследование, чтобы понять причины разницы во мнениях.
3. «Синтетические пользователи» — мусорная концепция, которая обещает заменить общение с пользователями генерацией от ИИ. NN/g пытаются разобраться, есть ли какая-то польза от них (спойлёр: почти нет).
4. Connor Joyce: Вспоминает свой десятилетний опыт в науке поведения пользователей и отмечает, как поменялась она сама и рынок в целом.
5. Christelle Ngnoumen: Модель COM-B (Capability, Opportunity, Motivation, Behavior), которую она использует в Voya Financial. Она помогает анализировать поведение пользователей и помогает скорректировать его.
6. NN/g: У карточной сортировки есть проблема — пользователи могут группировать карточки не по смыслу, а по названию. Samhita Tankala и Jakob Nielsen показывают, как бороться с этим.
7. Suviksha Hirawat: Описывает свои первые шаги в ResearchOps. Она сделала несколько полезных форматов документов, которые здорово помогли коллегам в компании.
8. Круглый стол о том, почему многие функции продуктов не используются, который прошёл на конференции Dovetail Insight Out. Тему обсуждали Claire Drumond (Atlassian), Alastair Simpson (Dropbox) и Judd Antin (консультант).
#research
1. Steve Bromley: Обзорная статья-навигатор по процессу тестирования игр. Она описывает типичный проект на разных этапах.
2. Jack Holmes: Предлагает заполнять модель Kano в 3 этапа. Сначала экспертная версия (единая картина мира у команды), потом опрос пользователей (то, что они ожидают), а в конце — пользовательское исследование, чтобы понять причины разницы во мнениях.
3. «Синтетические пользователи» — мусорная концепция, которая обещает заменить общение с пользователями генерацией от ИИ. NN/g пытаются разобраться, есть ли какая-то польза от них (спойлёр: почти нет).
4. Connor Joyce: Вспоминает свой десятилетний опыт в науке поведения пользователей и отмечает, как поменялась она сама и рынок в целом.
5. Christelle Ngnoumen: Модель COM-B (Capability, Opportunity, Motivation, Behavior), которую она использует в Voya Financial. Она помогает анализировать поведение пользователей и помогает скорректировать его.
6. NN/g: У карточной сортировки есть проблема — пользователи могут группировать карточки не по смыслу, а по названию. Samhita Tankala и Jakob Nielsen показывают, как бороться с этим.
7. Suviksha Hirawat: Описывает свои первые шаги в ResearchOps. Она сделала несколько полезных форматов документов, которые здорово помогли коллегам в компании.
8. Круглый стол о том, почему многие функции продуктов не используются, который прошёл на конференции Dovetail Insight Out. Тему обсуждали Claire Drumond (Atlassian), Alastair Simpson (Dropbox) и Judd Antin (консультант).
#research
Games User Research
How To Run A Games User Research Playtest | Games User Research
The comprehensive guide to planning and running professional quality playtests that inspire game development!
В августе мини-подборок о пользовательских исследованиях пока не было:
1. MeasuringU: Сравнили исследование первого клика для одного и того же сайта в виде настоящей страницы в браузере и просто картины. Точность выбора конкретного места на странице сопоставима, а вот время у картинок сильно больше (важно помнить про это при тесте изображений).
2. Michaela Teicht, Patricia Haar и Arnd Engeln: Исследование двух подходов к интерьеру авто — обычный и беспилотный. Интересно с точки зрения методов и построения самих прототипов.
3. Dovetail: Типичные сценарии использования базы знаний и инсайтов.
4. Bill Albert: Напоминает, что нет большого смысла в юзабилити-тесте конкретного сценария использования продукта, у которого нет product-market fit. И перебирает некоторые известные способы замерить его.
5. Jeff Sauro и Jim Lewis: История появления и эволюции интерфейсной метрики SEQ (Single Ease Question). Это простая шкала, которую показывают в конце прохождения сценария использования.
6. NN/g: Как формулировать вопросы в опросниках, если тема – не всегда комфортная для пользователя и они могут либо не ответить, либо дать нечёткий ответ.
7. Steve Bromley: Как проводить игровые тесты для сразу нескольких игроков. Это позволяет в том числе собирать количественные данные.
#research
1. MeasuringU: Сравнили исследование первого клика для одного и того же сайта в виде настоящей страницы в браузере и просто картины. Точность выбора конкретного места на странице сопоставима, а вот время у картинок сильно больше (важно помнить про это при тесте изображений).
2. Michaela Teicht, Patricia Haar и Arnd Engeln: Исследование двух подходов к интерьеру авто — обычный и беспилотный. Интересно с точки зрения методов и построения самих прототипов.
3. Dovetail: Типичные сценарии использования базы знаний и инсайтов.
4. Bill Albert: Напоминает, что нет большого смысла в юзабилити-тесте конкретного сценария использования продукта, у которого нет product-market fit. И перебирает некоторые известные способы замерить его.
5. Jeff Sauro и Jim Lewis: История появления и эволюции интерфейсной метрики SEQ (Single Ease Question). Это простая шкала, которую показывают в конце прохождения сценария использования.
6. NN/g: Как формулировать вопросы в опросниках, если тема – не всегда комфортная для пользователя и они могут либо не ответить, либо дать нечёткий ответ.
7. Steve Bromley: Как проводить игровые тесты для сразу нескольких игроков. Это позволяет в том числе собирать количественные данные.
#research
Measuringu
First Click Times on Websites Versus Images – MeasuringU