Команда AI for Devs подготовила перевод статьи о том, как AI-ассистенты для написания кода одновременно ускоряют разработку и умножают риски. Исследование Apiiro показало: 4-кратный рост скорости сопровождается 10-кратным ростом уязвимостей. Вопрос открытый — готовы ли компании масштабировать не только продуктивность, но и риски?


Каждый CEO требует внедрения AI-кодинга. Лишь немногие понимают, что вместе с этим они внедряют и риски. Вот данные, которые это подтверждают.

Когда CEO Coinbase Брайан Армстронг обязал каждого инженера использовать AI-ассистентов для написания кода (и уволил тех, кто отказался), он лишь зафиксировал новую реальность: использование AI больше не является опцией.

Он в этом не одинок. CEO Lemonade Даниэль Шрайбер сказал сотрудникам: «AI обязателен». В Citi банк внедрили агентный AI для 40 000 разработчиков.

Во всех отраслях — от финтеха и страхования до Уолл-стрит — сигнал сверху одинаков: AI — это не выбор, а указание.

Но даже Армстронг признаёт, что риски пока не исследованы. Как метко заметил Джон Коллисон из Stripe в своём подкасте: «Очевидно, что AI сильно помогает писать код. Но совершенно не ясно, как управлять кодовой базой, написанной AI». Ответ Армстронга: «Согласен. Мы всё ещё разбираемся».

И его интуиция верна. Новое исследование Apiiro в корпорациях из Fortune 50 показывает: те же инструменты AI, что ускоряют работу в 4 раза, одновременно создают в 10 раз больше рисков для безопасности. Pull-реквесты раздуваются, количество уязвимостей растёт, а поверхностные синтаксические ошибки сменяются дорогими архитектурными промахами.

Посыл для CEO и советов директоров предельно ясен: если вы внедряете AI-кодинг, вы обязаны параллельно внедрять AI AppSec. Иначе вы будете наращивать риски тем же темпом, что и продуктивность.

Методология

Apiiro, ведущая платформа Agentic Application Security, использовала свой запатентованный движок Deep Code Analysis (DCA), чтобы проанализировать код из десятков тысяч репозиториев и работы нескольких тысяч разработчиков в корпорациях Fortune 50 с участием различных AI-ассистентов. Результаты дают один из первых реальных взглядов на то, как AI-ассистенты для написания кода меняют картину рисков в разработке ПО.

1. AI-ассистенты для написания кода создают больше коммитов, меньше PR — и ломают процесс ревью

Разработчики с AI-помощью сделали в 3–4 раза больше коммитов, чем их коллеги без AI. Но эти коммиты не оформлялись как небольшие, постепенные изменения. Вместо этого они собирались в меньшее количество PR — каждый из которых был существенно крупнее по объёму и затрагивал больше файлов и сервисов за одно изменение.

Именно в этом и проблема. Крупные, многослойные PR замедляют ревью, рассеивают внимание проверяющих и увеличивают вероятность, что мелкая ошибка проскользнёт незамеченной. В одном случае один единственный PR, сгенерированный с помощью AI, изменил заголовок авторизации сразу в нескольких сервисах. Один из зависимых сервисов обновлён не был. Итог: тихий сбой авторизации, который мог открыть доступ к внутренним эндпоинтам.

Вывод: AI ускоряет написание кода, но одновременно концентрирует изменения, перегружая ревью и увеличивая зону поражения при каждом merge.

2. В 4 раза быстрее, в 10 раз рискованнее: AI пишет больше кода — и больше багов

Команды с AI-поддержкой не просто работали быстрее — они получили в 10 раз больше находок, связанных с безопасностью. При этом объём PR упал почти на треть. Это означает больше экстренных хотфиксов, больше инцидентов и выше вероятность того, что проблемы попадут в продакшн, прежде чем ревью успеет их отловить.

Причина в том же, что и в разделе 1: меньшее количество, но гораздо более объёмные PR усиливают риски. Крупные, многослойные PR часто приносят сразу несколько проблем, поэтому каждый merge несёт больший «радиус поражения». Чем быстрее AI ускоряет выпуск кода, тем быстрее накапливаются непроверенные риски.

3. Более 10 000 уязвимостей от AI за один месяц

К июню 2025 года AI-сгенерированный код приносил свыше 10 000 новых находок, связанных с безопасностью, ежемесячно по всем репозиториям нашего исследования — это десятикратный рост всего за полгода по сравнению с декабрём 2024-го. И кривая не выравнивается, а только ускоряется.

Эти уязвимости охватывают все категории рисков для приложений — от зависимостей в open source и небезопасных шаблонов кода до утечек секретов и ошибок в конфигурации облака. AI множит не один тип уязвимостей, а сразу все одновременно.

Для команд безопасности это означает переход от управления проблемами к состоянию, когда они попросту захлёбываются ими.

4. От опечаток к минам замедленного действия: AI меняет синтаксические ошибки на архитектурные изъяны

AI-ассистенты отлично справляются с мелочами. Наш анализ показывает: тривиальные синтаксические ошибки в коде, написанном с их помощью, снизились на 76%, а логические баги — более чем на 60%.

Но обратная сторона опасна: эти поверхностные улучшения компенсируются всплеском глубоких архитектурных проблем. Сценарии повышения привилегий выросли на 322%, а архитектурные изъяны — на 153%. Это именно те проблемы, которые сканеры не улавливают, а ревьюерам сложно заметить: сломанные сценарии авторизации, небезопасные архитектурные решения, системные уязвимости.

Иными словами, AI убирает опечатки, но закладывает мины замедленного действия. Это снижает эффективность ревью и автоматических проверок, а также повышает ценность контекстного анализа ещё на этапе проектирования и написания кода.

5. AI-сгенерированный код раскрывает облачные ключи доступа

Наш анализ показал, что разработчики с AI-помощью почти в два раза чаще, чем их коллеги без AI, допускали утечки Azure Service Principals и Storage Access Keys. В отличие от бага, который можно поймать на тестировании, утекший ключ — это прямой доступ: немедленный путь во внутреннюю инфраструктуру в облаке.

Поскольку ассистенты генерируют крупные, многослойные изменения, один единственный ключ может оказаться размноженным по нескольким сервисам или конфигурациям ещё до того, как кто-то это заметит. Одна ошибка способна привести к системной утечке.

Русскоязычное сообщество про AI в разработке

Друзья! Эту статью перевела команда ТГК «AI for Devs» — канала, где мы рассказываем про AI-ассистентов, плагины для IDE, делимся практическими кейсами и свежими новостями из мира ИИ. Подписывайтесь, чтобы быть в курсе и ничего не упустить!

Последствия: AI-ассистенты для написания кода без AI AppSec — это гарантированный будущий инцидент

AI-ассистенты для написания кода больше не являются опцией. CEO требуют их внедрения, советы директоров спрашивают о росте продуктивности, разработчики массово принимают их в работу. Но наше исследование ясно показывает: ускорение разработки приносит и ускорение рисков.

  • Крупные PR ломают процесс ревью: сложность растёт быстрее, чем возможности человеческого контроля.

  • В конвейер попадает в 10 раз больше уязвимостей, из-за чего инциденты происходят до того, как ревью успевает их отследить.

  • Эти риски глубже: структурные дыры в архитектуре и утечки ключей доступа, которые не улавливаются автоматическими сканерами и поверхностными проверками.

Итог: внедрение AI-ассистентов без параллельного внедрения AI AppSec-агента — ложная экономия. Вы получаете рост продуктивности, но одновременно и умноженные риски.

Комментарии (0)