
Сейчас все обсуждают Claude Code, Antigravity, Codex, спорят, коллекционируют “скиллы” для агентов. Но на практике у большинства все ломается на первом шаге: люди пишут “сделай мне приложение” - и получают либо кашу, либо минус лимиты.
Если вы напишете “сделай мне приложение” или “напиши код” - вряд ли вы что-то получите внятное, только лимиты потратите, а уж если вы в Claude Code работаете, то они у вас испарятся с высокой скоростью. А если вы еще и на тарифе за 20$ в месяц, то точно не для больших проектов, скорее больше для теста, а 100-200$ в месяц звучит уже более реалистично. Поэтому многие выбирают Codex от OpenAI или Antigravity от Google как более дешевые альтернативы.
Вайбкодинг работает, когда вы управляете процессом, а не просите сразу все. Базовый рабочий пайплайн простой:
спецификация → план → маленькие итерации → тесты/ревью → фиксация изменений (git)
Ниже — тот самый скелет, который можно повторить почти для любого проекта.
1) Не просите код сразу. Сначала - спецификация
Сначала опишите идею и попросите LLM задавать вопросы, пока вы не согласуете требования и крайние случаи. На выходе вам нужен документ: что делаем, что не делаем, ограничения, риски, тест-подход.
Сохраните это все в специальный файл spec.md и сохраняем- это наша спецификация.
Пример минимального spec.md (очень короткий):
# spec.md — Mini (MVP)
## Goal
CLI-утилита, которая читает CSV и делает сводку (кол-во строк, пустые поля, топ-значения по колонке).
## Inputs/Outputs
- Input: path to .csv
- Output: stdout + опционально report.json
## Constraints
- Python 3.11
- Без pandas (только csv модуль)
- Память: файл может быть до 500MB (стриминг)
## Edge cases
- Разные разделители (, ; \t)
- Кавычки, переносы строк внутри полей
- Пустые строки / битые строки → логируем и продолжаем
## Tests (минимум)
- маленький CSV (happy path)
- CSV с пустыми значениями
- CSV с “битой” строкой
2) Делаем план проекта.
Скармливаем spec.md в LLM и просим ее сгенерировать план проекта: разбить реализацию на логичные, небольшие задачи или этапы. Я для этого использую ChatGPT 5.2 Thinking, в редких случаях 5.1 Thinking. Вы можете приспособить для этого дела любую думающую модель LLM. Наличие четкого ТЗ и плана означает, что ИИ не будет додумывать за вас и добавлять от себя, а будет следовать общей договоренности и ограничениям.
3) Разбиваем работу на маленькие шаги (тикеты), и решаем поэтапно.
Если сразу делать фундаментальные запросы к ИИ, это ведет к сбою в работе модели и путанице.
4) Даем Контекст и ограничения.
ИИ должен видеть:
какие файлы менять,
на какие части кода ссылаться,
версии/архитектурные запреты,
“подводные камни” проекта,
и “как принято” в команде.
В этом плане подключение репо GitHub в Codex и Claude Code очень удобно, можно подтягивать контекст из проекта. Еще нужны ограничения проекта (версии, архитектура, правила, что нельзя), какие подводные камни (где раньше ломалось, какие есть нюансы), предпочтительные подходы (как уже принято в команде). А если нужны актуальные доки библиотек, можно еще MCP подключать, или просто вставлять куски доки вручную.
MCP (Model Context Protocol) - это способ подключить к модели внешние источники/инструменты (например, актуальную документацию библиотек или внутренние файлы) так, чтобы она опиралась на них, а не гадала по памяти.
5) Подбираем модель под задачу, а лучше несколько.
Одна лучше в кодинге, другая в объяснении, третья в рефакторинге или анализе логов. А еще можно дать одной модели проверить вывод другой, чтобы поймать ошибки, слепые зоны и получить второе мнение.
6) Подключаем агентные инструменты (CLI/IDE), когда есть спека и план.
Claude Code, Codex, Antigravity - это инструменты, которые удобно применять после того, как у вас есть spec.md и план тикетов. Тогда агент:
читает файлы проекта,
делает изменения итеративно,
запускает тесты,
и исправляет ошибки по результатам.
Без спеки и тикетов агент часто галлюцинирует и делает не то.
Claude Code, Antigravity, Codex - ИИ-агенты, ИИ-CLI или инструменты командной строки, с которыми вы можете общаться напрямую в каталоге вашего проекта, они могут читать файлы, запускать тесты и даже исправлять ошибки в несколько этапов. Они ускоряют механику: генерацию шаблонного кода, внесение повторяющихся изменений, автоматический запуск тестов.
7) Тесты и контроль качества на каждом шаге.
Можно еще составить список тестов или план тестирования для каждого шага, тем более, если используете Claude Code, даете ему указание запустить набор тестов после выполнения задачи и отлаживать ошибки, если таковые возникнут. Код тоже лучше проверять, можно даже в другую ии вставить и проверить.
8) Коммиты (save points)
Это ваши точки сохранения, позволяющие исправлять ошибки ИИ и понимать изменения. Если вы что-то поменяли в файлах и по тестам все ок, делаете commit, и Git запоминает: что изменилось, когда и зачем (с вашим комментарием). Так можно откатиться назад, если что-то пошло не так, посмотреть историю изменений, передать изменения другим (через GitHub/GitLab), аккуратно разделять работу на шаги. Для экспериментов с агентом удобно делать отдельную ветку (или worktree), чтобы не мешать стабильный код с экспериментальным.
9) Нужны Правила для модели (чтобы не повторять одно и то же)
заводим файл-инструкцию проекте: стиль, линтеры, запреты/ ограничения, как принято в команде, команды для тестов/сборки. У разных инструментов это может называться по-разному (например, CLAUDE.md, GEMINI.md и т.п.).
Если кратко: вайбкодинг — это не дай мне приложение, а управляемый цикл: спека → план → тикеты → контекст → тесты → коммиты. Тогда Claude Code, Codex, Antigravity реально ускоряют работу, а не увеличивают хаос.
Про отдельные инструменты и как упаковывать контекст (включая MCP-серверы и шаблоны промптов под агента) разберу продолжением у себя в телеграм-канале, кстати, там много полезного.
Комментарии (7)

fUS1ONd
20.01.2026 13:56Это уже не вайбкодинг, а делегирование процесса разработки ии-агенту по упрощённой итеративно-инкрементальной модели. Сильно круче, качественнее и затратнее по токенам

VitalyOborin
20.01.2026 13:56Весь план проекта в начале вы не нарисуете потому что скорее всего вы сами не знаете, что хотите и как оно должно работать, если у вас проект чуть сложнее лендинга на 3 экрана.
Я для себя построил разработку с ИИ агентами как архитектор решения. Вот мои шаги:
Описать о чем проект максимально подробно. Я используй Obsidian, в нем завожу отдельную папку проекта, он создает md файлы на диске - их потом можно подключить в проект. ИИ модели очень хорошо работают с markdown. Чтобы сделать описание проекта лучше сразу идти в ChatGPT и другие чатики, обсуждать с ними что вы хотите. Они не сделают за вас описание, но подкинут деталей, идей, развития. В ChatGPT удобно завести отдельный проект и прикрепить в него сопутствующие файлы (описания, спецификации, документацию и т.д.). Всю важную итоговую информацию сохраняю в Obsidian как концепция.
Далее в том же ChatGPT можно проработать этапы реализации верхнеуровнево. Это по сути эпики. Каждый этап должен привносить в проект завершенную ценность - продуктовый подход. Это может быть MVP-0, MVP-1... Это может быть сначала killer фича, потом обвязка, как угодно. Всю информацию сохраняю в Obsidian как этапы реализации. На этом этапе в принципе уже понятны большие компоненты системы, микросервисы, приложения.
Далее берем MVP-0 как эпик и опять же в ChatGPT или подобных чатиках и предлагаем подобрать оптимальный стек и архитектуру решения. Чистая Архитектура + DDD - хорошо, но не универсально, архитектура и стек должны выбираться исходя из потребностей, а не "я это знаю и умею". Для каждого сервиса или приложения надо зафиксировать архитектурное решение - это можно в локальных AGENTS.md, правилах или в том же Obsidian описать. Архитектура описывается хотя бы названием (дорогая модель разберется), но лучше в виде ограничений и правил (домен, слои, зависимости, правила и т.д.). Стек тоже четко, с версиями, а лучше с детализацией до конкретных пакетов.
Имея один эпик в виде MVP-0, определенную ранее архитектуру и стек, делаем самое главное - предлагаем ChatGPT определить этапы реализации, при этом сразу указываем, что каждый этап должен быть логичным, завершенным, приносить ценность и не ломать функциональность, а длительность реализации этапа senior разработчиком должна быть 1-3 дня. Вы получите 10-15 шагов с четким описанием что на них надо сделать. Фиксируем как этапы реализации в Obsidian.
И вот только здесь идем в IDE, я пользуюсь Cursor. И скармливаем ему этап за этапом. Человеческий объем работы на 1-3 дня оптимально подходит под контекст работы большинства моделей. Чем более творческая и непонятная задача, тем дороже выбираем модель, Opus самый дорогой, но он за вас многое додумает.
Обычно после 1-3 реализованных этапов может потребоваться актуализация плана и последующих этапов реализации. Что-то поменялось, где-то отошли от первоначального плана - надо актуализировать дальнейшие шаги в контексте совершенной работы. Также после значимых изменений я всегда провожу рефакторинг реализации, это тоже где-то каждые 1-3 этапа. Это делать обязательно, пока в истории актуальный контекст, изменения в последних коммитах, ошибки на поверхности и на этих ошибках еще не построен дальнейший функционал. Сделать рефакторинг с агентом просто - "дай оценку текущему решению с точки зрения архитектуры и лучших практик". Обычно модель дает оценки по различным критериям и подсвечивает что лучше исправить.
В итоге вы идете по своим этапам разработки, регулярно делаете рефаторинг, оцениваете реализацию, это обычная петля разработки, она не прямолинейна. Важно сохранять маленький контекст приложений, микросервисы - идеально, выделенные сервисы в виде модулей в монолите - норм. Если модель теряется в контексте, значит архитектура приложения пошла не туда, размыты границы, нарушены зависимости, идем в рефакторинг. Всегда надо указывать модели контекст - директория, файлы, примеры, правила, не надеяться, что сама додумает. Сегодня со знанием архитектуры приложений можно пилить что угодно на чем угодно и в кратчайшие сроки.
WhiteBehemoth
Немного поработав с ко-пилотом, я сделал простой вывод - с ним также как со стажером - дай конкретное ТЗ, убедись, что тебя поняли - и получи результат, близкий к ожидаемому.
Dandy_the_crocodile
Периодически на постановку задачи уходит времени не меньше, чем если бы писать самому. Но писать самому — не даёт такого восторга от полученного результата.
globin_write
На самом деле, заметил, что навык управления командой существенно повысился с того момента, как начал активно использовать агенты. Так тренажёр получается)