Всем привет. На связи Даша Леонова, product owner и ранее product analyst в международной IT-компании Garage Eight. Недавно я открыла конференцию AHA!25 с докладом об A/B-тестах для опытных аналитиков и продуктовых менеджеров. Делюсь: вышло круто. В статье расскажу о том, как вырастить компетенции аналитика за три этапа, начать проводить эффективные A/B-тесты, и стать партнером для компании, а не рядовым сотрудником.

Водите автомобиль? Подумайте, как вы это делаете. Потому что я начну с аналогии. Когда вы за рулем машины, вы думаете прежде всего о своей безопасности. Но я уверена, вы понимаете, что от вас зависит безопасность людей и транспорта спереди, сзади, сбоку. Ваша зона ответственности значительно больше, чем кажется на первый взгляд. И в аналитике и создании продукта это работает так же.

В этой статье я систематизировала типичные ошибки и решения, которые мы встречали в разных проектах Garage Eight. Если вы аналитик — сможете избежать лишних затрат и поломанных метрик, и, конечно, сэкономить бюджет и нервы команды.

Как Роман провалил два А/B-теста и стал сильнее: путь аналитика от middle к senior за 3 шага

Роман — продуктовый аналитик. Недавно он получил повышение до уровня middle. Он умеет строить аналитические end-to-end решения, запускать полный цикл А/B-тестов и продвинутые тесты, разрабатывать кастомные метрики, понимать дисперсию и Bootstrap. Он уже пишет рекомендации и начинает работать в связке с бизнесом. 

Чтобы достичь следующего грейда, Роман пройдет несколько квестов. Первый — «Стратегия и метрики», второй — «Качество и аналитический подход», третий — «Коммуникация». 

Представим, что он подключился к новому проекту по разработке приложения для обучения инвестированию «Процентик». Зарегистрировался в нем и начал предлагать гипотезы.

Кейс №1. Как дорогие курсы на Главной странице снизили выручку

Совместно с командой Роман решил улучшить рекомендации на Главной. Он руководствовался тем, что если показывать дорогие курсы выше, пользователи будут их чаще видеть и больше покупать → выше выручка.

Идея, казалось, была полезная. Команда запустила эксперимент. Запись на дорогие курсы действительно выросла. Успех? Увы, нет. Команда допустила четыре ошибки, на которых вы можете поучиться.

Ошибка 1: Нет связи с бизнес-метриками

Бизнес-результата не случилось, потому что команда не соотнесла гипотезу с целями продукта. Она занималась подбором курсов и баннеров и не посчитала, сколько денег должно принести улучшение рекомендаций. Если цель — вырасти на 20 млн в год, то каждый успешный тест должен приносить как минимум 2 млн.

В итоге рекомендации стали «лучше». Но не было гарантии, что интересные дорогие курсы дадут реальных платящих пользователей. И не было определено, сколько должно быть таких пользователей, сколько покупок курсов, и как это повлияет на бизнес.

Ошибка 2: Назначили прокси-метрику без доказательной базы

Для оценки успеха A/B-теста команда назначила метрику «запись на курсы, располагающиеся выше на главной странице». Он составил 12% — на бумаге красиво, но верхнеуровневые показатели никак не изменились: пользователи кликали, записывались, но не оплачивали курс. А значит, больше денег не стало.

Ложных и двусмысленных прокси-метрик много:

Например, время, проведенное в продукте. Пользователь мог просто не разобраться в системе навигации, и из-за этого провел много времени в продукте. Другой пример — количество лайков или просмотров публикаций. Это метрика тщеславия, которую мы можем растить долго и усердно, но на самом деле она не повлияет на продуктовую ценность. В таблице я собрала другие похожие примеры.

Проблема прокси-метрик в том, что не всегда выбранная прокси-метрика показывает ценность изменений в продукте.

Ошибка 3: Проигнорированы прошлые инсайты

За последние три года команда Романа провела пять исследований про AHA-момент. Выяснили: если в первую сессию пользователю показывают общий курс «Инвестиции для начинающих», это повышает вовлеченность в продукт с первого дня использования.

Но Роман решил не учитывать этот инсайд. Вместо этого наверх вывели дорогие курсы для продвинутых инвесторов. Ошибка стоила дорого. Если бы команда посмотрела в прошлое и использовала накопленные знания, то могла бы вложить усилия в направление, у которого есть реальный, уже доказанный потенциал.

Ошибка 4: Использовали противоречивые термины

Когда аналитик презентовал результаты, он сказал: «Видим положительное влияние на поведение опытных пользователей».

— Кто такие «опытные»? — спросил продакт.
— Те, кто возвращаются чаще 3 раз в неделю и просматривали курсы хотя бы дважды.
— А почему мы не называем это «активными»?

Все запутались, так как название сегмента было двусмысленным. В итоге обсуждение ушло в споры о терминологии, а не в разговор про результат. Это довольно типичная ошибка в коммуникации, которую часто допускают новички. А вот сотрудникам грейдом выше стоит следить за формулировками, чтобы не допускать недопонимая.

Как Роман перепрошел уровень: способы исправить ошибки

Чтобы следующий A/B-тест не стал новым провалом, Роман:

1. Привязал тесты к бизнес-целям. Например, если годовая цель — увеличить retention с 25% до 30%, нужно считать, какой вклад в эту цель должен дать конкретный тест. Это зависит от масштабности гипотезы, но в нашем кейсе он должен был быть, скажем, 15%. Следовательно, вклад теста в метрику составит 0,75%. От этого зависит выборка и дизайн эксперимента.

2. Построил дерево метрик и связь с прокси-метриками. Оно строится по разным подходам: top-down, bottom-up, от north-star-метрики или от рычагов управления. 

Цель — понять, как именно одна метрика влияет на другую. Для этого нужно углубиться в проработку метрик, выделить те, которыми мы управляем, и самое главное — провалидировать связи между метриками, хотя бы через корреляции.

3. Занялся каталогизацией экспериментов. Команда проигнорировала старые гипотезы, не учла инсайты и наступила на грабли. А ведь многие ошибки можно было не совершать, например, не повторять нерабочие гипотезы, потому что их уже опровергли. Поэтому Роман проработал каталог экспериментов.

Важно, чтобы каталогизация A/B-тестов не сводилась к мертвому набору артефактов, которыми никто не пользуется. Нужно не просто зафиксировать метрики, даты и формулировки гипотез, а создать инструмент, который помогает:

  • понимать, какая метрика и гипотеза были в центре внимания;

  • знать, какой результат был получен;

  • отслеживать, что пошло в прод и почему;

  • генерировать новые гипотезы на основе прошлых, а не с нуля.

Разработка каталога напрямую влияет на рост аналитика: когда он фиксирует, какие изменения были внедрены и какой эффект они дали, появляется чувство ответственности за весь цикл от идеи до внедрения.

4. Поднял вопрос культуры артефактов. Проблема в том, что в одиночку выстроить систему каталогизации экспериментов трудно. У аналитиков есть выбор:

  1. Начать с малого и на уровне своей команды ввести базу экспериментов, которой действительно будут пользоваться.

  2. Взять на себя роль драйвера изменений и поднять вопрос культуры артефактов в компании. 

Второй вариант — это уже менеджерский трек и шаг в сторону следующего уровня зрелости аналитика. Для многих специалистов это понятный путь: от уверенной работы с данными — к менеджерскому треку, где фокус смещается на процессы и людей.

Кейс №2. Как push-уведомления убили retention

Команда Романа заметила, что пользователи не завершают уроки. Чтобы подтолкнуть их к этому, она решила сделать две цепочки из push-уведомлений: в одной 5 уведомлений, в другой — 10. 

Команда запустила эксперимент. Через два дня — +4% к завершению уроков. Успех? Снова нет. Через месяц ретеншн оказался в минусе. Пользователи стали реже возвращаться в приложение. Пуши раздражали, особенно если приходили ночью. Пользователи писали негативные отзывы. Что пошло не так? 

Ошибка 1: Объединили несколько гипотез в одну

Роман и команда зафиксировали, что протестировали цепочки из 5 и 10 пушей и получили прирост, но не разложили гипотезу на составные части. А ведь по количеству касаний это не одна гипотеза, а десять. Или хотя бы две.

Ошибка 2: Не проверили долгосрочный эффект

Если бы команда смотрела на кумулятивный эффект и отслеживала долгосрочные метрики, можно было бы увидеть и проблему с отписками, и перегруз от коммуникации.

Ошибка 3: Не решили, что делать при негативных сценариях 

Пользователи писали негативные отзывы и говорили прямо, что пять уведомлений — допустимо, десять уведомлений — перебор. Команда это зафиксировала, но все цепочки оставила в проде.

Ошибка 4: Не контролировали дальнейшую судьбу теста

Команда не разработала план того, что делать с гипотезой в перспективе. В итоге вторая цепочка пушей продолжала приходить пользователям спустя 3 месяца. Количество отписок увеличилось. Следовательно, команда не следила за работой теста. Тут встает вопрос не просто о гипотезе, а об ownership и понимании, что вы не просто делаете фичи, вы отвечаете за судьбу всего теста.

Как Роман улучшил подход: способы исправить ошибки

Вдохновившись опытом Garage Eight, Роман изменил алгоритм тестирования.

1. Внедрил глобальную контрольную группу. 80% аудитории участвуют в быстрых A/B-тестах, 20% — остаются в контрольной группе, по которой потом замеряется реальный эффект в рамках квартала или полугода. Только те изменения, которые показали долгосрочную пользу, масштабируются на весь продукт.

Подход помогает решать две задачи: отслеживать накопленный эффект и удерживать фокус на пользователе, а не только на цифрах на коротких дистанциях.

2. Решил держать на контроле дальнейшую судьбу теста. При проектировании тестов нужно заранее продумывать, какие сценарии возможны, и что можно сделать при каждом из них. Роман решил проверять, что ожидаемый эффект совпадает с реальным, и закладывать изменения в план команд. И не забывать выключать экспериментальные фичи, если они не прошли валидацию. 

Кейс №3. Как проверенные решения не увидели свет из-за проблем с коммуникацией

Команда Романа разобралась с замером метрик на долгой дистанции. Победила первая цепочка из пяти уведомлений. Команда пошла к топ-менеджменту с красивыми графиками и предложила остановиться на этом варианте. Ответ был — нет. 

Менеджмент мотивировал свой отказ так: если 5 пушей помогли, то 10 точно будут работать еще лучше. Цепочка длиннее, значит мы будем чаще напоминать о себе пользователям. 

Почему менеджмент отвергает валидированные данные

Есть три причины:

  1. Сами данные. Данным могут не верить, если они плохого качества — есть ошибки, дубли, плохая структура, устаревшая информация. Вторая причина — недостаток доверия к источникам и отсутствие прозрачности. Третья причина — чрезмерный объем и аналитический паралич.

  2. Когнитивные искажения. Появляются, когда здравый смысл кажется убедительнее, чем аналитика. Особенно, если данные сложны для понимания. Возникает дилемма Сигнал vs Шум и бывает слишком сложно принять решение и выделить важное.

  3. Корпоративная культура. В некоторых компаниях решения принимаются по авторитету, а не по цифрам.

Аналитик может влиять на эти причины по-разному: на данные — сильно, на искажения — умеренно, на корпоративную культуру — почти никак. В таких условиях аргументировать гипотезу приходится особенно тщательно.

Чтобы доказать свои данные, аналитику пригодится знание моделей вроде спиральной динамики корпоративной культуры: большинство компаний находится на красном уровне, где решения принимаются на основе власти и иерархии. И только на синем уровне власть переходит к данным.

Как Роман решил проблемы с культурой и коммуникацией

Для перевода топ-менеджмента с красного уровня на синий и валидации инсайтов, аналитики используют несколько подходов и разные методы.

Вот, что сделал Роман:

1. Развивал оунерство за весь тест. Стремился повысить ответственность аналитиков за весь цикл эксперимента — от гипотезы до внедрения и пост-эффекта. Проверял, действительно ли гипотеза совпадала с тем, что команда фиксировала на самом деле в долгосрочной перспективе.

2. Развивал культуру неудачных экспериментов через каталогизацию. Он давал возможность получать необходимые инсайты из неудачных экспериментов, разбирал постмортемы и проверял доступность кейсов, на которых можно учиться.

3. Строил триады на базе общих проектов и ценностей. Триады — прочные связки между аналитиком, продактом и дизайнером или разработчиком. Они помогают уйти от двусторонних договорённостей к устойчивой системе взаимодействия — особенно важно на «красном» уровне, где решения часто держатся на личных связях.

4. Аргументировал свою позицию. Искал доказательства, подбирал убедительные выражения, обрабатывал возражения для разговоров с менеджментом.

Аналитик становится партнером в продукте: что меняется, когда растешь до сеньора

Роман завершил квест из трех этапов. Прошел через анализ стратегий и метрик, научился работать с качеством и договариваться с руководством. Он прокачался. Но дело не только в новой должности, Роман изменил подход к работе. Раньше он просто запускал качественные эксперименты. Теперь — запускает эксперименты, которые меняют продукт. Он поднялся на новый уровень не по грейду, а по смыслу.

На уровне Middle аналитик:

  • проводил эксперименты и писал по ним выводы;

  • опирался в первую очередь на мнение заказчика, а не данные;

  • знал ключевые продуктовые метрики;

  • сосредотачивался на процессе запуска и проведении теста, без оценки влияния на бизнес-метрики;

  • хранил эксперименты «в голове»;

  • не отслеживал внедрение и пост-эффект теста после релиза.

На уровне Senior аналитик:

  • формулирует рекомендации, которые улучшают продукт;

  • аргументирует свою позицию, а не соглашается с заказчиком;

  • связывает метрики в единую картину, строит дерево или пирамиду метрик;

  • участвует в процессе до, во время и после теста;

  • оценивает бизнес-эффект заранее и привязывает результат к деньгам;

  • документирует эксперименты, чтобы не наступать на старые грабли;

  • использует четкие формулировки, чтобы сэкономить время;

  • контролирует внедрение победившего варианта;

  • формирует устойчивые продуктовые триады, где решения опираются на данные, а не чье-то мнение.

Три описанных квеста — это то, чего не хватает аналитикам, чтобы максимизировать пользу и выйти за рамки «просто запускаем эксперименты», а продактам — выйти из операционного режима «запустили → проверили → забыли».

Зрелый подход к экспериментам: чек-лист

Сеньор помогает бизнесу понять, какие гипотезы действительно влияют на результат, а какие — просто заполняют бэклог. Он говорит не «давайте попробуем», а «вот почему это стоит делать и как это повлияет на компанию». Отмечайте, что у вас уже есть:

  • Прямая связь с бизнес-целями

  • Корректные и валидированные метрики

  • Использование накопленных знаний

  • Единая терминология

  • Оценка краткосрочных и долгосрочных эффектов

  • Контроль за реализацией

  • Своевременная коммуникация

  • Рост ответственности и влияние на команду

Эксперименты и A/B-тесты — инструменты развития продуктовой культуры. С ростом зрелости компании и команды, тесты перестают быть технической проверкой и становятся способом принимать решения, фокусироваться на важном и говорить «нет» фичам, которые не приносят пользы. И в этом смысле сеньор-аналитик — это партнер, который несет ответственность за свои решения, основанные на данных и смысле.

А вы замечали у себя в команде переход от «мы просто тестим» к «мы принимаем продуктовые решения на основе данных»? Какие шаги были важными на этом пути и с какими кейсами пришлось работать? Пишите в комментариях.

Комментарии (0)