Всем привет! На связи Арслан, тимлид команды тестирования компании «Совкомбанк Технологии». В этой статье я поделюсь опытом успешного внедрения методов искусственного интеллекта и больших языковых моделей (LLM) в тестирование программного обеспечения.
Объясню причины разработки собственных внутренних решений на основе искусственного интеллекта, какие трудности возникли на этом пути, как используем техники промпт-инжиниринга для повышения качества тест-кейсов и каких результатов смогли достичь.
Путь нашей команды начался с экспериментов с базовыми GPT-моделями и привел к созданию собственного ИИ агента для генерации тест-кейсов.
В этой статье рассмотрим:
Как мы решали проблему языкового барьера и недостатка контекста у модели.
Как техники промпт-инжиниринга повысили качество автоматически генерируемых тестов.
Почему мы перешли о разовых экспериментов к полноценному внутреннему решению.
Какие метрики эффективности получили и с какими вызовами столкнулись.
1. Начало: эксперименты с LLM «из коробки»
В этом разделе описаны наши первые шаги в работе с LLM — какие трудности возникли при использовании «сырых» языковых моделей и как мы с ними справлялись. Вы узнаете, почему стандартных решений оказалось недостаточно для банковской сферы.
На первом этапе мы использовали стандартные GPT-мдели без дообучения или интеграции с RAG (Retrieval-Augmented Generation). Основная цель — выяснить, насколько ИИ способен ускорить ручное тестирование без сложных доработок.
1.1. Первые вызовы
1.1.1. Языковой барьер
GPT, обученный на общих данных, не понимал специфику тестирования банковских приложений. Например, запрос «напиши тест-кейс для формы авторизации» выдавал шаблонные сценарии, игнорируя важные требования, такие как защита от брутфорса и проверка токенизации данных.
1.1.2. Отсутствие контекста
Модель не знала:
Бизнес-логику нашего приложения
Особенности интеграций. Например, принципы работы с Госуслугами, системой быстрых платежей
Требования регуляторов. Например, ЦБ РФ и PCI DSS
1.1.3. Сложность с промптами
Каждый эффективный промпт требовал ручной настройки, а без системы хранения «рецептов» мы тратили время на повторные эксперименты.

1.1.4. Безопасность данных
Использование публичных LLM для работы с конфиденциальными банковскими данными было недопустимым.
1.2. Решения
1.2.1. Промпт-инжиниринг: структурированный подход
Мы разработали шаблон для промптов, включающий:
Task (Задачу)
Начинайте с глагола действия: создать, написать, проанализировать
Четко формулируйте цель
Пример:
– Создай детальный чек-лист для тестирования функции восстановления пароля.
Context (Контекст)
Включает три ключевых аспекта:
Биография пользователя: кто использует результат
Определение успеха: что должно получиться
Среда использования: где и как будет применяться результат
Пример:
– Для мобильного приложения интернет-магазина нужно проверить функцию восстановления пароля. Пользователь — среднестатистический покупатель с базовыми навыками работы с телефоном.
Examples (Примеры)
Всегда предоставляйте примеры желаемого формата
Это помогает ИИ лучше понять требования
Пример:
ID | Шаги | Ожидаемый результат
TC_01 | 1. Открыть страницу входа... | Пользователь успешно вошел в систему...
Persona (Персона)
Определяет стиль ответа
Конкретная роль
Пример:
– Опытный тестировщик с акцентом на функциональное тестирование.

Format (Формат)
Укажите точный формат ответа
Можно использовать табличную форму, списки, текстовые блоки
Пример формата:
Тип документа: Чек-лист
Структура: Номер | Действие | Критерий успеха
Tone (Тон)
Определяет стиль общения
Может быть формальным, неформальным, требовательным, дружелюбным
Пример тона:
«Профессионально-нейтральный тон для корпоративной документации»
1.2.2. Создание базы знаний и библиотеки промптов
База знаний: Документировали архитектуру, интеграции, требования регуляторов.
Библиотека промптов: Шаблоны для типовых задач: генерация тестовой документации, анализ бизнес требований, объяснение кода и т. д.
1.2.3. Защищенная среда
Развернули локальную LLM внутри корпоративного периметра, чтобы исключить утечки данных.
2. От экспериментов к решению
Здесь расскажу, как наша команда превратила разрозненные эксперименты в полноценное рабочее решение. Вы узнаете об архитектуре нашего ИИ-агента и его преимуществах перед ручными методами работы.
После успешных тестов был разработан внутренний ИИ агент для генерации тест-кейсов.
2.1. Архитектура решения
Frontend: Веб-интерфейс с авторизацией через Active Directory / Keycloak.
Backend: Интеграция с Qwen API для генерации тестов.
Связь с инструментами: Автоматическая загрузка тест-кейсов в TestIT, получение данных задач из YouTrack и документации из Confluence.
ИИ-агент интегрирован в единый конвейер обработки требований — от автоматического парсинга входных данных (YouTrack, Confluence, документы) до валидации и выгрузки готовых тест-кейсов в TestIT, что сокращает ручные операции на 80%.
2.2. Преимущества
Экономия времени: Генерация десятков тест-кейсов теперь занимает минуты (раньше — часы).
Масштабируемость: Легко адаптируется под новые проекты.
Стандартизация: Все тест-кейсы соответствуют единому шаблону.
2.3. ИИ агент vs Библиотека промптов
Наглядное сравнение двух подходов поможет понять, в каких случаях стоит инвестировать в разработку собственного ИИ-решения, а когда достаточно библиотеки промптов.
Критерий |
ИИ агент |
Библиотека промптов |
Качество тестов |
Высокое (с учетом контекста) |
Среднее (зависит от промпта) |
Масштабируемость |
Легко адаптируется |
Требует ручного обновления |
Безопасность |
Локальное развертывание |
Зависит от среды исполнения |
Поддержка |
Требует обновления модели |
Требует обновления промптов |
2.4. Метрики эффективности:
Конкретные цифры, которые показывают, насколько эффективным оказалось наше решение и какие ресурсы потребовались для его реализации.
Затраты на разработку:
Подготовка базовой библиотеки промптов: ~20 часов
Создание и структурирование базы знаний: ~ 40 часов
Разработка ИИ агента (включая интеграции): ~120 часов
Тестирование и доработка решения: ~ 60 часов
Экономия времени в процессе использования:
Тип задачи |
ИИ агент |
Библиотека промптов |
Простые тест-кейсы |
Экономия 30-35% |
15-20% |
Комплексные сценарии |
Экономия 20-25% |
10-15% |
Наибольшая эффективность достигается при комбинированном подходе, где ИИ агент используется для генерации базовых тест-кейсов, а QA-инженеры сосредотачиваются на сложных сценариях и проверке результатов. Такой подход дает совокупную экономию времени до 30% на работу с тестовой документацией при гарантированном качестве тестирования.
3. Заключение и дальнейшие шаги
Подведу итоги эксперимента и расскажу, как команда тестирования планирует развивать использование ИИ в тестировании в будущем.
3.1. Итоги
GPT не заменит тестировщика, но может стать мощным инструментом для автоматизации рутинных задач.
Качество генерации напрямую зависит от контекста и промптов.
Безопасность — критически важный аспект при работе с LLM в fintech.
3.2 Следующие шаги:
Интеграция с новыми LLM
Улучшение RAG подхода
Внедрение MCP протокола
Разработка новых ИИ агентов
А вы используете LLM в тестировании? Делитесь опытом в комментариях!
Комментарии (2)
egusinets
30.07.2025 14:57Да, интересно, что взяли в работу? Какая модель и на каком железе покорилась?
HSerg
Какую модельку и на каком железе используете?