Привет, я Костя — QA Lead в tekmates. Мы создаём диджитал-продукты для крупного, малого и среднего бизнеса. Я 4 года проработал в тестировании — как в заказной разработке, так и в собственном продукте. За это время приложил руку к WEB, Mobile, API, OLAP, IoT-проектам.
В статье расскажу про частые ошибки при планировании тестирования веб- и мобильных приложений, и, конечно, как их избежать. Все советы из моей практики, поэтому не стесняйтесь в комментах рассказывать, как устроено тестирование у вас — будет интересно забрать рабочие лайфхаки.
Кроме советов также покажу интересные кейсы: например, с помощью каких инструментов автоматизации мы сократили работу в рамках регресса с 2 часов до 20-25 минут.
Итак начнём. Вот какие проблемы я вижу.
Проблемы в планировании мобильного тестирования
Ошибка 1. Неправильный баланс устройств и платформ для тестирования
Брать любой телефон и тестировать на нём непродуктивно. Забив за собой какой-то рабочий девайс и тестируя на нём каждый день, вы игнорируете один из принципов тестирования — парадокс пестицида. Его суть в том, что если долго выполнять одни и те же проверки, они однажды перестанут выявлять ошибки.
Важно понимать свою целевую аудиторию, тенденции рынка. На основе этого формировать, корректировать пул девайсов и периодически «встряхивать» тестирование, меняя устройства между QA-инженерами.
Чтобы правильно выбрать девайсы, полезно обращаться к статистике. Так, по данным Statcounter и Backlinko, за последний год Android занял около 70% всей доли рынка ОС на мобильных устройствах, а iOS — 30%. На старте проекта, или в процессе, советую собрать статистику с того же Statcounter по устройствам, операционным системам, и сделать таблицу. Например, такую:
Учтите минимальную версию ОС, которую поддерживает ваше приложение, и не забудьте вписать её. Даже исходя из такой простой таблицы, можно примерно понимать основной охват и руководствоваться им.
Так как моделей телефонов очень много, невозможно протестировать приложение на всех. Поэтому нужно верно рассчитывать выборку моделей для тестирования на реальных устройствах, а остальную потребность закрывать симуляторами.
Мы с командой на наших проектах стараемся использовать как минимум 2-3 устройства из таблички, чтобы проверять основную функциональность, так как незаменима проверка аппаратной части: камера, аккумулятор, динамики, вибромотор, звонки и прочее. Отдельные кейсы тестируем, используя симуляторы — Android Studio, XCode, Genymotion. Например, так проверяем кейсы с учётом расширения экрана и случаи, специфичные определённым комбинациям ОС и модели.
Понятно, что не всегда хватит денег, чтобы купить реальные устройства по всем нуждам. Но не стоит создавать себе симулятор с рандомной моделью и осью. Миксуйте оба варианта тестирования, потому что, следуя простой комбинаторной логике, так вы скорее охватите все нужные условия.
Ошибка 2. Недостаточная подготовка тестовых сценариев и тестовых данных
Большая проблема, когда QA-инженеры не могут начать готовиться к тестированию ещё до того, как функциональность будет собрана в сборку или ветку. В итоге наступает день Х, можно начинать тестирование, и тут выясняется, что:
не провели ревью требований,
не подготовили тестовые данные,
степень тестового покрытия мала.
Если аналитика страдает на начальном этапе проекта, это сильно влияет на дальнейшее тестирование. В результате мы не можем своевременно приступить к тестам, потому что приходится уточнять информацию прямо по ходу работы, параллельно подготавливая тестовую документацию.
Поэтому важно начать изучать требования к продукту как можно раньше, преследуя принцип Shift Left. На основе принципа:
Вводим необходимость проведения ревью аналитики всей команды (особенно QA)!, где ещё до того, как задача пойдёт в DEV, уточняем все вопросы, отмечаем все замечания и документируем их. Это позволит на этапе сбора требований лучше узнать, как будет работать наша функциональность, а также поможет избежать ошибок.
Обязательно проводим ревью тестовой документации, где вторая пара глаз проверяет, насколько качественно подготовлены тестовые данные и тест-кейсы. Это нужно, потому что мы можем ошибаться — из-за того что устали, забыли, не учли. А если есть второй участник процесса подготовки, он посмотрит ваши наработки, свежим взглядом оценит, насколько тестовая документация готова к работе, и поможет не упустить детали.
-
Вводим метрики тестового покрытия требований, чтобы отслеживать процесс: насколько широко и глубоко мы провели нашу работу.
Тестовое покрытие относительно требований можно рассчитать по формуле:
где:
Tcov — тестовое покрытие.
Lcov — количество требований, проверяемых тест-кейсами.
Ltotal — общее количество требований.
Не забываем про уровни покрытия функционала по видам тестирования: учитываем smoke и regress-тесты.
Ошибка 3. Недостаточно времени на тестирование
Яркий пример из опыта: работали по Agile, спринты из двух недель. Приложение успешно выпущено в маркеты, есть хорошие отзывы. Но регресс за регрессом тестировщики жаловались, что им не хватает времени на выполнение задач. Более того, зайдя на проект как Lead QA, я увидел: тестовая документация очень худа, тест-кейсы актуализировались месяцы назад, не хватает ряда основных документов и инструкций. Всё время в рамках спринта отдавалось операционке, не хватало времени на то, чтобы действительно обеспечивать необходимое качество приложения. Копая глубже, я выяснил — планирование у команд проходило без оценки.
На моих глазах менеджер проекта просто брал и накидывал из бэклога задачи в спринт, сопровождая речь простым «Успеем?». Из-за того что оценки не было, бэклог разрастался, релиз сдвигался — это влияло на настроение команды.
Тут комплексная проблема, но со стороны QA всегда должна исходить оценка времени выполнения задач. Это помогает спланировать спринт грамотно, выделить на работу необходимое время, а не надеяться на чудо. Всегда нужно держаться конкретных цифр, иначе успех или провал сложно измерить.
Мы провели беседу с отделами и определили, что каждый участник спринта, ответственный за задачу, обязан оценить её по времени. Для этого есть множество техник — например, здесь и тут — которые помогают рассчитать время на выполнение задачи.
Чаще всего мы используем такие техники:
Оценка «Трёх точек» — Three-point estimate
Считаем так:
или
где:
E — оценочное время выполнения.
O — оптимистичное время выполнения.
R — реальное время выполнения.
P — пессимистичное время выполнения.
Оценка «Снизу-вверх» — Bottom-up estimate
Считаем так:
где:
Eg — общее оценочное время выполнения.
E1, E2, E3, En — время на выполнение части задачи.
С помощью метода «Снизу-вверх» хорошо оценивать User Story. Например, чтобы вывести общее время на тестирование User Story, нужно оценить отдельно:
изучение и ревью требований,
изучение дизайна (если есть),
написание тест-кейсов,
подготовку тестовых данных,
и так далее.
Когда мы оцениваем проекты Agile, сначала используем грубую оценку. Мы начинаем с общей оценки различных частей проекта, а затем постоянно уточняем её по мере того, как появляется новая информация. Как и планирование в Agile, оценка происходит непрерывно и становится более детализированной по мере развития проекта. Поэтому не стоит забывать корректировать себя и здесь, пересматривать свои результаты, если нужно.
Как только мы ввели оценку, резко изменилось понимание спринта, начали выделять время на работу с инцидентами, появились задачи на создание тестовой документации. Прогоны regress и smoke тестов тоже были включены в спринт под конкретными цифрами. Команды начали меньше уставать, снизился уровень стресса, клиент стал счастливее. Мы сразу начали понимать, где и какой у нас результат, потому что стали контролировать своё время.
Отсутствие адекватного контроля качества
Ошибка 1. Игнорирование использования стандартных инструментов контроля качества
Первый простой инструмент, который нам нужен — инструмент для отслеживания версий.
Можно задать себе вопрос: «Но этим же занимаются разработчики?». Хотя это, может быть, неочевидно, но многие разработчики игнорируют этот процесс до последнего. Хорошая разработка приложений выполняется поэтапно. По мере того, как мы улучшаем и добавляем новые функции в приложение, важно вести систему нумерации версий. Она поможет понять, что содержит каждая сборка, и куда эти сборки пойдут дальше.
Например, просто назвать сборку 1.0, а затем перейти на 1.1 не так уж и сложно. Однако всё меняется, когда мы задаём вопросы:
А что вообще означает версия 1.0?
Это первая версия приложения?
Или она уже релизная?
Если мы будем знать ответы на эти вопросы, сможем верно планировать наше тестирование вперёд и даже назад.
Отслеживать внесённые улучшения, функции и изменения можно с помощью Git, SVN или простого текстового файла или электронной таблицы, которую мы ведём в Confluence проекта в разделе для QA. Что ещё более важно, этот процесс нужно также документировать: фиксировать, какие были проблемы в этой версии. Когда что-то не работает в текущей версии, это может значить, что нужно откатиться к последней известной рабочей версии. И если это не отслеживать корректно, можно крупно пролететь…
Ещё довольно банальный момент, но нужно поддерживать актуальность в этой системе. Сделать это привычкой: после выпуска новой сборки, нужно пойти и обновить информацию на стороне тестирования. Опять же, если команда разработчиков уже взяла на себя ответственность за это, просто нужно убедиться, что мы в курсе и у нас есть доступ к этой информации.
Если разработчики этого не сделали, нужно пойти и помочь им, чтобы убедиться, что они будут делиться данными для документации изменений. В конце концов, они будут зависеть от этой информации так же, как и QA.
Второй инструмент, который мы используем — инструмент для отслеживания багов.
Планировать сложно, если мы не сможем чётко определить, что было сломано, что сломано сейчас и что может быть сломано в будущем. Что исправили, что исправлено и что ещё нужно исправить, также важно понимать.
Ещё один пример из жизни: тестировщик не завёл баг-репорт, попросил разработчика исправить его на словах. Исправления сделаны, но никто не задокументировал:
Что это за баг?
Где его нашли?
В какой сборке будет фикс?
Когда фикс пойдет в релиз?
В итоге мы работаем в сером пространстве, где всё размыто. Это оставляет всё, что касается процесса тестирования, открытым для интерпретации со стороны. На примере выше, может показаться, что тестировщики ничего не делают, каждая фича идеально программируется.
Отслеживание багов, как и отслеживание версий, требует больших усилий и времени. Когда мы создаём продукт для релиза, контроль над этими вещами может показаться пустой тратой времени, но это не так! QA-инженерам нужно быть в курсе проблем с приложением, прежде чем переходить к этапам тестирования. И вне зависимости от роли на проекте — от разработчиков до менеджеров — эта информация будет использована при планировании.
Ошибка 2. Отсутствие информации об основных элементах при планировании
Можно выделить четыре ключевых элемента, о которых стоит помнить:
Клиент
С точки зрения бизнеса, мы начинаем тестирование не с ПО или даже с документаций. Мы начинаем с клиента. Хорошо, если есть целевая демографическая группа, которая, как мы ожидаем, будет пользоваться нашим приложением, и мы сможем определить свои ресурсы на основе этих пользователей.
Информация о потенциальных пользователях поможет ответить на такие вопросы:
Какие устройства они используют?
Какие приложения они скачивают?
Будут ли они платить за приложения?
Являются ли они высокотехнологичными, искушенными пользователями?
Или это новички, которые не разбираются в технологиях?
Будут ли они использовать приложение каждый день, раз в неделю или реже — только для очень специфичных задач?
Если понимать пользователей, будет проще определить путь для тестирования, а также потребности в оборудовании, девайсах и ПО.
Например, наша целевая аудитория состоит как из технически подкованных пользователей, так и из новичков. Это значит, что нужно создать интуитивно понятный пользовательский интерфейс и предоставить подробную документацию или обучающие материалы для поддержки менее опытных пользователей. Проще говоря, заложить фундамент для разработки раздела FAQ внутри приложения.
Если мы отвечаем на вопрос о том, будут ли наши пользователи платить за приложения, значит, вероятно, надо запланировать необходимость тестирования механизмов внутренних покупок и подписок, а также проверку безопасности и надёжности процесса оплаты.
Это всё могут исследовать аналитики или продакт-менеджеры. Но тестировщикам тоже полезно понимать эту информацию и иметь возможность получить её от упомянутых специалистов.
Время
Сколько времени понадобится на тестирование, зависит от сложности приложения, его стабильности и от того, насколько точно мы можем оценить наше время на работу — это можно сделать по формулам из предыдущего блока.
Если мы тестируем обновлённое приложение или что-то очень простое, тут может понадобиться значительно меньше времени, чем если мы начинаем тестирование приложения «с нуля». Конечно, это может занять не так много времени, как мы запланируем, но никто не будет жаловаться, если мы всё сделаем раньше.
Зависимости
Разработчики, менеджеры, аналитики, дизайнеры, инструменты и сервисы — всё это зависимости. Эти вещи могут повлиять на расписание и успех больше, чем любой другой элемент. Очень важно не упускать их из виду во время планирования тестирования.
Само приложение
Чтобы понять, как тестировать приложение, нужно внимательно изучить и понять, что оно делает, как это делает и зачем мы его разрабатываем. В одном из проектов на моей работе значительная часть функциональности приложения имеет в себе множество интеграций с государственными сервисами. Понимание каждого этого сервиса очень сильно помогает тестированию.
Нужно понимать, что некоторые вещи, которые мы определим сегодня, могут измениться завтра. И к сожалению, все мы знаем, что такое происходит часто в рамках проектов. Разработка приложений — это потоковый процесс, и нужно быть гибким, чтобы преуспеть.
Игнорирование автоматизации тестирования
Ошибка. Игнорирование выбора инструментов для автоматизации
Понятное дело, что автоматизация — это круто. Конкретно на наших проектах она:
Экономит время и ресурсы.
Повышает точность и надёжность.
Сигнализирует о проблемах до начала активностей.
Сокращает рутинную работу: smoke, regress.
Пункты 1, 2 и 4 в целом понятны, поэтому подробнее опишу пункт 3, который и сподвиг нашу команду задуматься об автоматизации на проекте.
Как уже говорил раньше, у наших приложений есть несколько интеграций с различными сервисами. И вот ситуация: запланирован регресс, QA берут релиз-кандидат сборку мобильного приложения и выясняется, что один из (а то и более) интеграционных сервисов «500-тит», сервис недоступен.
Мы провели Root Cause Analysis (RCA) и увидели, что одна из рабочих схем интеграций сменилась. Нужно откатывать некоторые изменения или выкатывать фикс, нарушая Code Freeze для регресса. Время, потраченное на изучение проблемы, и последующее решение касаемо интеграции — всего этого можно было избежать, будь у нас простой способ это предсказать.
Мы проанализировали ситуацию, запустили API авто-тесты. Они по графику каждое утро показывали нам общую картину — не упало ли где-то что-то. И таким образом помогали вовремя реагировать на ситуацию.
Примеры тестов, которые можно и нужно автоматизировать
Зачастую заказная разработка не предусматривает полный охват автотестами функциональности. Но это не мешает использовать простые инструменты автоматизации, чтобы облегчить свою работу — например, интеграционные автотесты на Postman.
Postman очень юзер-френдли, в нём есть встроенный AI-помощник, а написание скриптов для API-тестов происходит довольно быстро, благодаря встроенным шаблонам. Но можно, конечно, выбрать и другой инструмент или фреймворк под свои нужды.
Так, на одном из веб-проектов, мы в формате «пилота» решили изучить новый фреймворк для автоматизации e2e тестов — Playwright. Документация понятная и простая, есть встроенный режим написания скриптов по ходу ведения ваших активностей на экране, поддержка языков JavaScript, TypeScript, Python.
Работая с Playwright, мы потратили примерно шесть часов на изучение написания простых скриптов на фреймворке, а само покрытие автотестами заняло около двух полных рабочих дней.
В итоге выборка тестов на покрытие составила 114 тестов, из которых 79 тестов удалось автоматизировать через e2e тесты на Playwright. Эти тест-кейсы мы используем в рамках регресса, что сократило нам работу с 2 часов до 20-25 минут. И это лишь минимум, что мы успели сделать на текущий момент!
Резюмирую. Вот что, по моему опыту, стоит начать автоматизировать уже сейчас:
Smoke-тесты — например, для проверки хотфиксов бэкенда.
Regress-тесты — для сокращения общего времени и высвобождения сил.
API интеграционные тесты — например, если у вашего приложения есть сторонние зависимости.
Что в итоге
Не используйте одно и то же устройство для всех тестов: можете пропустить ошибки, специфичные для других устройств или платформ.
Регулярно обновляйте набор устройств: реальные или симуляторы для тестирования.
Перед началом тестирования тщательно подготовьте тестовые сценарии и данные. Если этого не сделать, есть риск неполного тестирования функциональности приложения.
Адекватно оценивайте необходимое время для тестирования. Чем точнее оценка, тем ниже опасность, что протестируете поверхностно и упустите серьёзные ошибки.
Используйте системы управления версиями и отслеживания ошибок. Это важно для успешного управления качеством и итераций продукта.
При планировании учитывайте зависимости, время, портрет клиента и особенности самого приложения. Так улучшите качество тестов и итогового продукта.
Автоматизируйте!
А теперь давайте обсудим: как вы планируете ваше тестирование и учитываете ли что-то ещё, о чём я не рассказал?
Комментарии (21)
Moldakul
12.06.2024 07:50+1«тестировщик не завёл баг-репорт, попросил разработчика исправить его на словах» - классика)
Igoryus
12.06.2024 07:50По оценке задач ощущение, что смотрите на мир в “розовых очках“. В agile всегда все меняется, оценки по времени потеряли актуальность.
rybakosmonavt Автор
12.06.2024 07:50+1Да, работая по agile иногда трудно сразу приметить и учесть все, чтобы точно дать оценку, но опять же, если не давать ее вообще, то и результат не оценить (удалось ли нам попасть во время). Поэтому да, не стоит забывать корректировать себя и здесь, пересматривать свои результаты, если нужно.
Alina_v
12.06.2024 07:50+1у постмана есть проблема бесплатной версии, нельзя часто гонять авто-тесты. У вас платная версия?
rybakosmonavt Автор
12.06.2024 07:50Нет, мы тоже пользовались бесплатной до этого момента, когда ограничили прогоны. Сейчас ищем возможность перейти на более поддерживаемый и простой вариант. Но для простых нужд, если нам нужно раз в день запускать какой-то прогон тестов, мне кажется он до сих пор вполне подходит :)
DesertEagle
12.06.2024 07:50+1Используйте newman. Не припомню, чтобы там были ограничения.
Можете загнать, например, в gha и пусть он по расписанию вам крутит
alinashishkova
12.06.2024 07:50Мне кажется это пустая трата времени документировать каждую новую сборку на отслеживание версий. А если их в день выходит 10 штук, и то минимум, все время потратишь на сбор этой инфы, еще и забудешь
rybakosmonavt Автор
12.06.2024 07:50+1Да, работа звучит рутинной и бесполезной, каждый раз собирать чейндж-лог... Но нужно не забывать о том, что разработчики могут уже владеть этой инфой у вас на проекте (в своем же репозитории). Главное не сам факт того, будем ли мы плодить документацию, а то, куда мы сможем за ней обратиться. И владея этой инфой в любом из ее видов, мы сможем оперативно оценивать и планировать ситуацию.
na41nka
12.06.2024 07:50+1Насколько вообще важно и полезно проводить ревью тест-кейсов? Я просто не могу представить, чтобы человек, который еще не знает функционал пришел и посмотрев на мои тест-кейсы сказал, что у меня где-то проблемы. Это же значит, что ему тоже надо сначала прочитать требования, поспрашивать, потом только проводить ревью, а это займет время. В чем вообще польза?
rybakosmonavt Автор
12.06.2024 07:50Все верно. Если мы хотим очень тщательное ревью, то нужно потратить чуть больше времени на подготовку: изучить все необходимые материалы. Но в нашем случае, даже если второй человек подметит опечатки, логические несостыковки между шагами, какие-то рекомендации по структуре тестовой документации и данных, для нас это уже будет плюсом :)
teka_d
12.06.2024 07:50+1могу добавить:
Мало смотреть на то, какими устройствами в основном пользуются люди в мире, стоит оценивать вашу целевую аудиторию. Например, если ваша ЦУ - состоятельные люди 25-40 лет, то смысла тестировать на старых версиях Андроид с низким разрешением экрана мало толку.
Автотесты можно начать писать до полной готовности приложения. Мы начинаем писать автотесты примерно в тот же момент, когда разработка начинает писать свой код.
Если есть зависимости от сторонних сервисах, можно использовать моки. Они ускорят ваши тесты и сделают их более стабильными. Большую часть кейсов можно замокать и выделить несколько интеграционных сценариев. Подробнее про использование моков с примерами можно почитать в статье https://habr.com/ru/amp/publications/812163/
teka_d
12.06.2024 07:50О, еще добавлю, что если вашеме приложение не только что вышло в свет, возможно уже прикручена какая-то аналитика, например, Яндекс метрика. Там можно глянуть какими устройствами пользуются люди. В самом Гугле и AppStore тоже есть статистика по устройствам ваших пользователей
rybakosmonavt Автор
12.06.2024 07:50+1Да, это как раз тот пункт, который мы стараемся отследить в 4 элементах, изучая клиента.
Мы стараемся не начинать слишком рано, потому что код все еще может меняться в зависимости от этапа разработки, тут нужно помнить, что это может повлиять на поддержку авто-тестов и время, которое придется на это потратить. Идеально, если код для фичи прошел все ревью и переведен на стэйдж, напимер.
Тут да, полностью согласен, моки тоже стараемся использовать.
teka_d
12.06.2024 07:50+1Код может меняться, но логика остается. Если проблема в локаторах, то можно использовать кастомные локаторы, которые тестировщик сам накидывает в нужных местах. А еще пока идет разработка, можно готовить моки согласно контрактам и сценари
rybakosmonavt Автор
12.06.2024 07:50+1Про продуктовую аналитику тоже полностью поддерживаю. У нас этот кейс также работает, обновляем наши данные:
https://habr.com/ru/articles/821209/comments/#comment_26925863
mondo__bongo
Понятно, что статистику по платформам можно посмотреть на сайтах, а как вы руководствуетесь, какую именно модель тлф и ОС выбрать?
rybakosmonavt Автор
На самом деле, тот же самый сайт Statcounter содержит информацию по моделям устройств и процентам используемой ОС. В любом из случаев, мы стараемся “загуглить” эту инфу, почитать форумы и статьи, сайты со статистикой перед началом проекта. В данном случае, мы можем просто использовать комбинацию, совмещая самую популярную ОС с самой популярной моделью и т.д вниз до менее популярных. Пример в статье на той основе.
В случае, когда проект уже в релизе, и есть продуктовая аналитика по устройствам, важно собрать эту инфу и обновить свою табличку, руководствоваться уже реальными данными. Тут как раз можно и сверить, как точно мы спланировали наши изначальные данные.