«Важно доставлять, а не понимать» — звучит модно, а ломает всё по классике.
Последние месяцы я вижу одну и ту же сцену.
Кто-то начинает активно применять нейросети в разработке — и первые недели ощущение кайфовое:
код появляется быстрее, задач закрывается больше, “как будто полетели”.
А потом начинаются знакомые фразы:
“стало больше багов, хотя писали быстрее”
“вроде всё правильно, но не работает”
“оно компилируется, значит норм”
“главное — доставлять, а не понимать”
Вот с последним тезисом я не согласен.
Доставлять то, что ты не понимаешь и не проверил — это не доставка.
Это перенос неопределённости в прод. А прод обычно голосует не лайками.
Где именно всё ломается
Нейросети идеально умеют одно: генерировать.
Но есть две вещи, которые они за нас не делают:
Проверка (интеграции, крайние случаи, регрессии, контракты).
Ответственность (кто будет разгребать последствия — всегда человек).
Если проверок и контроля изменений нет — ИИ просто ускоряет поток изменений, а вместе с ним ускоряет и поток ошибок.

Самая короткая формула, которая объясняет 80% треша
ИИ увеличивает throughput — скорость генерации и поток изменений.
Но если нет гейтов, он увеличивает и variance — разброс и случайности.
Проще: скорость ↑, неопределённость ↑.
А дальше всё по учебнику: ошибка не исчезает — она просто “переезжает” ближе к продакшену.
Красные флаги (если узнал себя — нормально, мы все там были)
“потом тесты”
“вроде ок”
“модель сказала”
“не понимаю, но компилится”
“потом пруф”
“быстро в прод”
Эти фразы сами по себе не “зло”. Зло — когда это становится процессом по умолчанию.

Что реально работает (скучно — значит эффективно)
Рабочий способ почти всегда один:
Один инструмент → один сценарий → один пруф.
Не “зоопарк инструментов”, не “агенты на все случаи”, не “подписки на всё подряд”.
А маленькая дисциплина:
Один маленький кусок (одна функция / один эндпойнт / одна миграция).
Одна проверка (smoke / минимальный тест / preflight — хоть что-то, но повторяемое).
Одна фиксация результата (evidence — чтобы через неделю не угадывать, что было сделано).
Только потом следующий шаг и расширение.

Протокол “Пруф” (минимальный, но взрослый)
Мой минимальный “гейт”, после которого я считаю, что это реально можно доставлять:
Пруф = Diff + Check + Evidence
Diff: что поменяли (объём ограничен, изменения понятны)
Check: чем проверили (smoke/тест/контракт)
Evidence: что получилось (логи/артефакты/сводка)
Это не бюрократия. Это способ сделать так, чтобы спорить с реальностью стало сложно.

Как начать без “зоопарка” (быстро и спокойно)
Если сейчас хочется “войти в ИИ”, но страшно деградировать качество, то старт простой:
выбери один самый частый сценарий (где реально болит)
сделай один повторяемый smoke/preflight
заведи одну папку evidence
ограничь изменения до “одного маленького куска”
И только когда это стабильно даёт пользу — добавляй второй сценарий / второй инструмент.
Подписки не покупают дисциплину. Дисциплина покупает результат.
Вывод
ИИ — это реально мощно. Но это усилитель процесса, а не замена процесса.
Нет процесса → ИИ усилит хаос.
Есть процесс → ИИ даст честный буст скорости и качества.
Вопрос в зал (хочу реальные кейсы)
Что у вас чаще всего ломается с нейросетями: контекст, интеграции, тесты, контроль изменений?
Был ли “самый дорогой баг из-за ИИ”? На каком шаге он должен был быть пойман?
Какие правила/гейты у вас реально работают, чтобы нейросети ускоряли, а не деградировали?
Комментарии (7)

DmitryKolosov
16.02.2026 17:06Поколения, привыкшие к честному образу жизни, должны вымереть в течении последующих 20 лет, а затем произойдёт величайшая катастрофа в истории.
из письма Ивана Антоновича ЕФРЕМОВА американскому палеонтологу Э.К Олсону в 1971 году.

FoxProFlow Автор
16.02.2026 17:06Мне это тоже читается не про LLM напрямую, а про вымывание привычки к честности как к ремеслу. “Честный образ жизни” — это вообще про способность не подменять реальность рассказом о ней: не верить себе на слово, проверять ощущения фактами, держать обратную связь с миром (люди, деньги, здоровье, сроки) и вовремя признавать “я не знаю / мне нужно проверить”, вместо того чтобы “мне кажется, значит так и есть”.
LLM просто делает самообман дешевле и правдоподобнее, поэтому катастрофа становится не моральной, а статистической: накопленный слой “выглядит правильно” однажды схлопнется.
И вот вопрос шире программирования: честность — это свойство людей (поколений) или свойство процессов? Если её можно вшивать в процесс — какие опорные практики/контуры обратной связи должны быть неизбываемыми, чтобы скорость не превращалась в жизнь “по ощущениям”, а оставалась жизнью “по реальности”?

DmitryKolosov
16.02.2026 17:06Перенос риска в прод.
Это в точности то, что писал Ефремов: мы берём "взаймы" у будущего.
Общественное сознание глухо к любым рациональным доводам. Только комплиментарным. И так до полного самоуничтожения. Катастрофа приведёт к пересборке общества.

Dmitri-D
16.02.2026 17:06у LLM охват ограничен -- потому что ее, как сервис, уже прооптимизировали чтобы она обслуживала массы. Если пытаться впихнуть невпихуемое, результат будет плохим. Ограничиввайте свой аппетит, ставьте локальные простые задачи и LLM прерасно и правильно их отработает.
И, да, если не понимать что пишет LLM, то лучше и не заниматься программированием совсем. Не в 2026. Может потом, когда будут другие модели, другое железо каждая кухарка сможет запрограммировать большую софтверную систему из десятков миллионов строк кода. Но не сейчас. Сейчас пока мы ползаем по земле и LLM позволяет немжко меньше печатать на клавиатуре.

Gariks
16.02.2026 17:06Вы забыли упомянуть что тесты которые генерирует ии основнны на коде, который она же и сгенерировала. Если в коде баги, то тесты покрывают баги и ничего не проверяют. Последние месяцы на работе после того как программисты начали использовать в работе llm, я сталкиваюсь с тем, что тесты ничего не проверяют. Покрытие кода тестами растёт, меняешь поведение кода, тесты зелёные. К сожелению не во всех языках есть адекватные инструменты для мутационных тестов.

FoxProFlow Автор
16.02.2026 17:06Потому что конечный этап предфинальной обработки текста делает нейронка. наброски текста я делаю руками, прогоняю через нейронку, исправляю орфографические ошибки, и если есть какие то несостыковки логические довожу статью до готового проверенного состояния. Это очень ускоряет работу. Но все мысли, выводы, это мой личный реализованный опыт работы и взаимодействия с нейросетями и агентами. Сейчас планирую цикл статей про многоагентные системы. Это не абстрактные статьи, а все реализовано, протестировано и работает.
FoxProFlow Автор
Самый дорогой баг в моей практике почти всегда начинался одинаково: “вроде ок, поехали в прод”.
LLM просто делает этот путь быстрее.
Мой личный гейт простой: пока нет Diff + Check + Evidence — это не “доставка”, это перенос риска в прод.
Расскажите, какой у вас был самый дорогой “вроде ок”? Сколько стоил — и какой минимальный smoke мог бы его поймать?