Привет! Меня зовут Александр Попов и я продуктовый дизайнер. Сегодня я хочу затронуть тему, о которой мы часто молчим на ретроспективах: как наш собственный мозг саботирует исследования. Мы привыкли думать, истина в данных. Но что, если я скажу вам, что мы сами неосознанно "ломаем" эти данные еще до того, как начнем их анализировать? Давайте разберемся, почему мы слышим только то, что хотим слышать, и как это исправить.
Представьте ситуацию: команда дизайнеров и исследователей открывает шампанское. Они только что завершили серию юзабилити‑тестов новой фичи, и результаты — огонь. Пользователи кивали, улыбались и говорили, что всё выглядит «свежо». Продукт уходит в релиз. Спустя месяц метрики показывают катастрофу: никто этим не пользуется.
Что пошло не так? Команда не лгала. Пользователи (вроде бы) тоже. Но данные оказались мусором.
Вся проблема — в когнитивных искажениях. Это сценарий, где мы бессознательно составили вопросы так, чтобы получить похвалу, а не правду. Предвзятость незаметно искажает данные, что ведёт к неправильным решениям и, как итог, к неудачным продуктам. Исследования показывают: когнитивные искажения существенно снижают качество инсайтов.

Хорошая новость: предвзятость нельзя устранить полностью (мы же люди), но её можно осознавать и минимизировать. Давайте разберёмся, как наш мозг обманывает нас в работе.
Три категории предвзятости: где мы ошибаемся?
Категория 1: Предвзятость в сборе данных (как мы собираем «не то»)
Самый опасный этап: если вы собрали мусор на входе, на выходе будет мусор, как бы красиво вы его ни анализировали.
Confirmation Bias (предвзятость подтверждения или склонность к подтверждению своей точки зрения): мы ищем информацию, которая подтверждает наши убеждения, и игнорируем всё, что им противоречит.
Дизайнер уверен, что кнопка checkout ужасна. Он проводит тест и жадно ловит любой негатив про кнопку, полностью игнорируя данные о том, что реальная проблема — в ценообразовании. В результате, мы ставим неправильный диагноз и тратим бюджет на лечение здорового органа.

Leading Questions (наводящие вопросы): это когда уже в самом вопросе зашит «правильный» ответ.
❌ «Как вам нравится наша новая фича?» (подразумевается, что она должна нравиться).
❌ «Старый неудобный сайт или наш новый, красивый вариант?» (ну кто выберет «неудобный»?).
✅ «Какие были для вас лёгкие или сложные моменты при навигации?».
Мозг пользователя автоматически подстраивается под подразумеваемый ответ. Опрос из 100 человек становится статистически бесполезным, если все 100 просто вежливо согласились с вашей подсказкой.

Anchoring Bias (эффект якоря): первая полученная информация становится «якорем» для всех последующих суждений.
Пример: если спросить: «Готовы ли вы заплатить 500₽ за приложение?», пользователь якорится на этой цифре. Даже если он был готов отдать 1000₽, теперь его ответы будут крутиться вокруг названной цены. Это смещает данные в сторону на 15–25%.
Категория 2: Предвзятость в интерпретации данных (как мы видим то, что хотим)
False Consensus Bias (ложный консенсус): нам кажется, что наш опыт и поведение совпадают с опытом большинства. Исследования показывают, что люди могут значительно ошибаться в оценке согласия с их мнением, то есть ощутимая доля аудитории остаётся за бортом.
Пример: технически продвинутый дизайнер думает, что интерфейс интуитивен, потому что ему всё понятно. В результате он переоценивает, сколько людей «такие же, как он», и, по сути, проектирует интерфейс под свою субъективную ментальную модель.
Hindsight Bias (эффект ретроспективного знания): «Я так и знал!». Когда мы видим результат (например, пользователи не совершают целевое действие), нам кажется, что проблема была очевидна с самого начала. Вместо исследования мы полагаемся на «очевидное» понимание, пропуская этап настоящего исследования.
Self‑Serving Bias (эгоистическая предвзятость или ошибка эгоистичности): успехи — это моя заслуга, неудачи — вина обстоятельств. В UX это звучит так: «Дизайн отличный (я молодец), просто пользователи невнимательно читали инструкции (они виноваты)». Команда перестаёт учиться на ошибках.
Категория 3: Предвзятость в контексте исследования
Observer Bias, Hawthorne Effect (эффект ожидания наблюдателя и эффект Хоторна): Это два близких искажения: первое возникает из-за того, что исследователь подсознательно «подталкивает» данные к своим ожиданиям, второе — из-за того, что поведение испытуемых меняется от знания того, что за ними наблюдают.
Пользователь может «споткнуться» об интерфейс, но скрыть это, чтобы не показаться глупым перед исследователем. Вы пропускаете критическую проблему, потому что испытуемому важно выглядеть хорошо.
Framing Effect (эффект рамки): на восприятие информации влияет не содержание информации, а то, как она подана (в какой рамке находится картина).
Исследование NN Group показало: когда результаты представили как «30% негативных откликов», дизайнеры были на 31% более склонны переделывать макет, чем когда те же данные показали как «70% позитивных откликов».
Убийцы бюджета (критичные искажения)
Sunk Cost Fallacy (ловушка невозвратных затрат): vы продолжаем инвестировать в мёртвое решение только потому, что уже потратили на него три месяца.
— Мы уже шесть месяцев пилим эту фичу, не можем же просто отменить? Рациональный ответ — можем и должны, но мозг заставляет искать данные, оправдывающие вложения.

Availability Heuristic (эвристика доступности): мы переоцениваем события, которые легче вспомнить — обычно самые последние или самые эмоциональные. Если последний тест прошёл ужасно, вы убеждены, что «все пользователи теряются», даже если предыдущие пять тестов были ок. Последний фидбек непропорционально влияет на решение.
Как защитить данные. Практические техники
Дизайнеры не глупы, они просто люди. Чтобы мозг не подвёл, нужны внешние «предохранители».
На этапе дизайна исследования:
Документируйте предположения: до старта напишите «я предполагаю, что X». Это превращает «факт» в гипотезу и создаёт осознанность.
Проверяйте вопросы: прочитайте их вслух коллеге. Если коллеге слышится подсказка — переписывайте. Хороший вопрос должен допускать противоположный ответ.
Воронка вопросов: начинайте с широкого («Опишите процесс покупки»), и только потом сужайте до конкретики («Как вам кнопка?»). Иначе вы «заякорите» пользователя.
Рандомизируйте порядок: последовательность вопросов влияет на ответы (question order bias). Меняйте их местами для разных участников.
На этапе сбора данных:
Покерфейс: не кивайте и не улыбайтесь на «правильные» ответы. Участники считывают ваши микро‑реакции.
Снимите вину: скажите прямо: «Мы тестируем дизайн, а не вас, здесь нет неправильных ответов. Если что‑то непонятно — это проблема интерфейса, а не ваша». Это снижает «эффект наблюдателя».
Миксуйте количественные и качественные методы: интервью субъективны, цифры могут быть смещены. Используйте и то и другое, если это возможно.
На этапе анализа:
Второе мнение: анализируйте данные с коллегами. Если вы трактуете один факт по‑разному — это красный флаг.
Факт vs интерпретация: факт: «Пользователь семь раз нажал Help»; интерпретация: «Процесс запутан» или «Пользователь дотошный». Не путайте одно с другим.
Ищите противоречия: ищите фидбек, который опровергает вашу гипотезу. Почему те два пользователя всё поняли? Это может изменить весь вывод.
На этапе презентации:
Показывайте оба полюса — не говорите просто «70% успеха». Скажите: «70% успеха, но 30% ошибок». Это позволяет аудитории увидеть данные нейтрально.
Сырые данные: включайте цитаты тех, кто был «против». «Три человека сказали X, но двое сказали Y». Это мешает подгонять выводы под желаемый результат.
Меняем парадигму: от защиты идей к поиску истины (+примеры)
Главный сдвиг культуры исследований, который должна сделать команда: перейти от «мы знаем правду» к «мы изучаем правду». Лучше потратить больше времени на чистое исследование, чем потом переделывать продукт.
Где это стоило дорого?
Провал фичи из‑за предвзятости к подтверждению. Команда предполагала, что новая фича улучшит удержание. Тесты дали смешанный результат, но команда сфокусировалась только на позитиве. Итог: запуск, неудача, деньги на ветер.
5 млн ₽ в трубу из‑за ловушки невозвратных затрат. Компания уже потратила несколько миллионов на разработку. Исследования показывали низкий спрос, но руководство настаивало на запуске, надеясь «отбить» инвестиции. Спойлер: не отбили.
Искажение через наводящие вопросы. «Как вам нравится наш новый дизайн?» — спросили исследователи. «Нравится», — ответили все. В реальности дизайн оказался неудобным, но вопрос просто не позволял людям честно пожаловаться.
Чек‑лист: проверка на предвзятость перед финальным отчётом
Пробегитесь по этому списку, прежде чем презентовать результаты стейкхолдерам:
Мы документировали гипотезы до начала исследования?
Вопросы проверены на наводящие формулировки?
Порядок вопросов был рандомизирован?
Мы специально искали данные, противоречащие нашему мнению?
Анализ данных проводили минимум вдвоём?
Результаты показывают оба угла (и позитивный, и негативный фрейминг)?
К выводам приложены сырые данные (цитаты, видео)?
Готовы ли мы признать, что изначальная гипотеза была неверной?
Заключение
Предвзятость — не враг, а встроенная особенность нашего мозга. Избежать её на 100% нельзя, но можно «поймать за руку». Парадокс в том, что чем больше вы уверены, что знаете ответ, тем выше вероятность ошибки.
Попробуйте инверсию: вместо вопроса «Как подтвердить мою гипотезу?» спросите себя: «Как я могу её опровергнуть?». Эти 2–3 часа дополнительной проверки могут сэкономить миллионы, которые иначе сгорели бы в костре «гениальных», но никому ненужных фич.
