Я работаю в Claude Code каждый день. Не «попробовал пару раз и написал статью» — а реально каждый день, минимум 8 часов, иногда значительно больше. Больше года. Если грубо посчитать — это 3000+ часов в терминале. За это время я успел построить собственную систему оркестрации из 39 агентов, опубликовать её как open-source, набрать звёзды на GitHub — и эволюционировать дальше.

Сейчас весь мой опыт сконцентрирован в трёх плагинах.

Полгода назад я написал на Хабре про Claude Code Orchestrator Kit — 39 агентов, 38 скиллов, 25 слеш-команд. Серьёзная система, реально работавшая. И я ей горжусь — это был важный этап.

Но когда сидишь в инструменте по 8 часов в день — быстро видишь, что можно сделать лучше. Экосистема Claude Code развивается быстрее, чем один человек способен обновлять свой кит. Каждые две-три недели Anthropic что-то меняет — новые API для плагинов, новые возможности агентов, новые паттерны. И каждый раз нужно лезть в 39 файлов агентов, проверять, не сломалось ли что-то, не устарел ли паттерн.

В какой-то момент я понял: пора эволюционировать. При моём объёме работы с Claude Code часы в неделю уходили не на продукт, а на починку инфраструктуры. Значит, нужен другой подход.


Что не так с подходом «всё своё»

Orchestrator Kit решал реальную проблему — деградацию контекста при долгой работе. Идея была в том, что Claude Code не должен делать всё сам, а должен делегировать специализированным субагентам. Каждый агент работает в изолированном контексте, возвращает результат и умирает. Контекст главной сессии остаётся чистым.

Звучит красиво. На практике — вот что происходило:

Агенты устаревали. Я написал bug-hunter в октябре 2025-го. К январю Claude Code поменял формат взаимодействия с Agent tool. Агент продолжал работать, но неоптимально — использовал устаревшие паттерны, не знал о новых возможностях. И таких агентов 39 штук.

Скиллы устаревали. 38 скиллов — та же история. Не ломались, но постепенно отставали от актуальных возможностей. И обновлять их — тоже ручная работа.

Команды ломались. 25 слеш-команд — это здорово, пока не нужно все их тестировать после каждого обновления Claude Code. А обновления выходят часто.

Но главная проблема оказалась ещё фундаментальнее. Весь Orchestrator Kit строился ради одной цели — экономии контекстного окна. При 200K токенов, из которых ~100K заняты уже при старте (системный промпт, CLAUDE.md, MCP-описания), у тебя оставалось жалких 100K на работу. Изоляция контекста через субагенты была необходимостью, а не роскошью.

А потом Anthropic взял и выкатил контекстное окно в миллион токенов.

Это не «стало в 5 раз больше». Это стало в 9 раз больше рабочего пространства: было 100K свободных, стало 900K. Половина архитектурных решений Orchestrator Kit — MCP-свитчинг, агрессивная изоляция, Return Control Pattern — из необходимости превратились в оверинжиниринг.

И вот ты сидишь с 39 агентами, 38 скиллами и 25 командами, которые решают проблему, которой больше нет. Точнее — она есть, но уже не горит так, чтобы ради неё поддерживать монолит. Точно та же ошибка, от которой я пытался уйти в архитектуре приложений.


Три плагина вместо одного монолита

Решение оказалось в том, чтобы перестать писать всё самому и начать интегрировать то, что уже работает и активно поддерживается.

Три инструмента:

Superpowers (автор — Jesse Vincent) — плагин, который учит Claude Code правильной методологии разработки. Не «вот тебе агент, иди работай», а «вот строгий процесс: сначала думай, потом планируй, потом пиши тест, потом код, потом проверяй». TDD, brainstorming, code review — всё встроено как обязательные шаги, а не рекомендации.

Beads (автор — Steve Yegge, тот самый) — трекер задач, заточенный под AI-разработку. Задачи хранятся в git, переживают перезапуск сессии, имеют зависимости и блокировки. Claude сам создаёт задачи, сам их трекает, сам закрывает.

Template Bridge — мой плагин, который склеивает первые два и добавляет доступ к 413+ агентам-шаблонам из репозитория davila7/claude-code-templates. Не бандлит их локально, а подтягивает свежие по необходимости.

Суммарно — три плагина, два скилла, одна команда. Вместо 39+38+25.


Superpowers: почему методология важнее инструментов

Это главное открытие, которое я сделал за 3000+ часов работы с Claude Code. Можно дать ему 100 специализированных агентов — и он всё равно будет писать код без тестов, пропускать верификацию и утверждать «готово» не проверив.

Superpowers атакует именно эту проблему. Это не набор агентов. Это дисциплина, зашитая в поведение Claude Code.

Вот конкретный пример. Ты говоришь Claude: «Добавь авторизацию через JWT». Без Superpowers он сразу начнёт писать код. С Superpowers — вызывает скилл brainstorming, задаёт уточняющие вопросы, предлагает 2-3 подхода, рисует дизайн. И только после твоего одобрения переходит к writing-plans — декомпозирует работу на задачи по 2-5 минут каждая.

Кажется, что это тормозит. На деле — экономит часы. Потому что без этого этапа Claude напишет авторизацию «по ощущениям», а ты потом будешь три часа отлаживать, почему refresh token не работает.

TDD как обязательный шаг

Superpowers вводит жёсткое правило: никакого продакшн-кода без падающего теста. Не рекомендацию, а именно правило. Claude Code физически не переходит к реализации, пока не напишет тест и не убедится, что тест падает по правильной причине.

Цикл выглядит так:

RED — пишем один тест на желаемое поведение. Запускаем. Тест падает. Проверяем: падает ли он потому что фичи нет, или потому что тест кривой? GREEN — пишем минимальный код, чтобы тест прошёл. Запускаем. Все тесты проходят. REFACTOR — чистим, тесты по-прежнему зелёные. COMMIT.

И так для каждой маленькой задачи из плана. Это занудно. Это медленно. Но это работает.

Я из тех, кто всегда пропускал тесты «потому что надо быстрее». После года ежедневной работы с AI-ассистентами скажу: это катастрофа. Claude Code генерирует код быстро, но без тестов невозможно понять, работает ли он правильно (хотя понятно возможно 90%, что нет:). Ты доверяешь модели, а модель галлюцинирует. Тесты — единственный объективный арбитр.

(Кстати, Red-Green-Refactor — это не изобретение Superpowers. Это классический TDD из книжки Кента Бека 2002 года. Но забавно, что понадобился AI-плагин в 2026 году, чтобы наконец заставить людей это делать.)

Верификация: «доказательства до утверждений»

Ещё один жёсткий скилл — verification-before-completion. Перед тем как заявить «задача выполнена», Claude обязан:

  1. Определить команду, которая доказывает результат

  2. Запустить её (не из кэша, а свежую)

  3. Прочитать полный вывод

  4. Убедиться, что вывод подтверждает заявление

Только после этого — «готово».

Без этого скилла Claude регулярно говорил мне «тесты проходят», хотя на самом деле он их не запускал. Просто предполагал, что раз код выглядит правильно — значит, всё ОК. Знакомо?


Beads: память проекта, которая переживает перезапуск

С Orchestrator Kit история задач формально велась — через SpecKit спецификации и plan-файлы. Но на практике это работало так себе. Спецификации раздували контекст на тысячи токенов. Навигация по ним — мучение: нужно помнить, в каком файле что лежит, в каком JSON-поле какая фаза. Поиск по задачам? Grep по десятку файлов. А если Claude Code пережил компактификацию контекста — всё, что не в CLAUDE.md, просто исчезло. Приходилось заново объяснять, что мы делали вчера.

Beads решает это фундаментально иначе. Это git-backed issue tracker. Задачи — это файлы в репозитории. Когда Claude Code создаёт задачу (bd create -t feature "Добавить JWT авторизацию"), она сохраняется в git. Закрывает задачу — коммит. Добавляет комментарий — коммит.

Что это даёт:

Запускаешь новую сессию. Claude Code автоматически (через хук bd prime) подтягивает текущее состояние проекта: какие задачи открыты, какие заблокированы, над чем работали в прошлый раз. Полный контекст за секунды, без ручного объяснения «вот что мы делали вчера».

Работаешь в нескольких терминалах одновременно. Beads использует эксклюзивные локи — каждый терминал работает над своей задачей, конфликтов нет. bd ready показывает доступные задачи без блокировок.

Самое ценное — история. Через месяц работы над проектом у тебя есть полная хронология: что делали, в каком порядке, какие решения принимали. Это не логи чата (которые теряются при компактификации контекста), а структурированная история в git.


Template Bridge: клей и каталог

Итак, Superpowers даёт методологию (КАК работать), Beads даёт трекинг (ЧТО делать). Но иногда для задачи нужен специалист, которого нет ни в одном плагине. Kubernetes? Rust? Аудит безопасности?

Template Bridge решает две задачи.

Первая — unified-workflow скилл. Единый набор правил, объединяющий Superpowers и Beads в один поток. Причём поток продуманный, а не «сначала создай задачу, потом думай».

Вот как это работает. Приходит задача — ты создаёшь эпик в Beads. Не подробную задачу, а контейнер: «Добавить JWT авторизацию». Это фиксирует намерение, ставит лок в многотерминальной работе, сохраняет контекст для будущих сессий. Дальше — brainstorming, дизайн, планирование. И только когда план готов — из него рождаются конкретные подзадачи с зависимостями:

bd create -t epic "JWT авторизация"              ← контейнер
  brainstorm → plan →
    bd create "Схема таблицы tokens"              ← подзадача
    bd create "Middleware верификации"             ← подзадача, зависит от первой
    bd create "Refresh token логика"              ← подзадача, зависит от первой
    bd dep add middleware tokens                   ← middleware нужна таблица
    bd dep add refresh tokens                      ← refresh нужна таблица

Beads автоматически строит граф зависимостей. bd ready показывает текущий «фронт готовности» — задачи, у которых все зависимости выполнены. Закрываешь одну задачу — зависимые автоматически становятся доступны. Не нужно вручную следить за порядком.

Три уровня защиты гарантируют, что Claude никогда не забудет этот поток. Даже в новом контекстном окне, даже после компактификации, даже в чужом проекте. Глобальный CLAUDE.md загружается в system prompt с максимальным приоритетом. Хук на старте сессии выводит напоминание. Описание скилла всегда видно в списке. Я проверял — работает.

Вторая — template-catalog скилл. Каталог из 413+ специализированных агентов (из репозитория davila7/claude-code-templates), разбитых по 26 категориям. Когда Claude видит задачу, для которой нет подходящего скилла — он проактивно предлагает установить агента:

«Для аудита безопасности есть security-auditor — установить?»

Установка — одна команда: npx claude-code-templates@latest --agent security/security-auditor --yes. Агент подтягивается свежий, из репо, а не из локального кэша полугодовой давности. После задачи — можно удалить.

Это ключевое отличие от Orchestrator Kit. Там я хранил 39 агентов локально и обновлял вручную. Здесь — беру что нужно, когда нужно, всегда актуальную версию.


Сравнение: было и стало

Не буду делать таблицу (их и так тут уже достаточно). Скажу словами.

Orchestrator Kit — это как собрать компьютер самому. Подобрал каждую деталь, знаешь каждый винтик, полный контроль. Но потом выходит новое поколение процессоров, и ты сидишь перепаиваешь материнскую плату.

Template Bridge — это как использовать хорошие инструменты с открытым API. Superpowers обновляется автоматически (его поддерживает Jesse Vincent, автор Perl-модулей и не только). Beads обновляется автоматически (Steve Yegge, если кто не знает — бывший инженер Google и Amazon, автор легендарных технических блогов). claude-code-templates обновляется сообществом. Мой плагин — тонкий слой клея, который нужно обновлять раз в месяц, а не каждую неделю.

Трудозатраты на поддержку упали с «несколько часов в неделю» до «посмотреть changelog раз в месяц».


Чего я лишился

Честности ради: я потерял кое-что.

Тонкий контроль над агентами. В Orchestrator Kit каждый агент был написан под мой конкретный стек (Next.js + Supabase + TypeScript). Шаблонные агенты из claude-code-templates — более общие. Иногда нужно допилить.

SpecKit. Specification-driven development — штука мощная. Спецификация → план → задачи → реализация, всё структурировано, всё в JSON-файлах. Для больших проектов с командой это реально полезно: формальная спецификация снимает неоднозначности. Но для моего текущего режима работы — один человек + Claude Code — это переусложнение. Brainstorming из Superpowers даёт 80% пользы SpecKit при 20% церемоний. Если понадобится — SpecKit можно добавить в любой проект, он по-прежнему на GitHub. Просто пока без него проще.

Свои health-workflows. /health-bugs, /health-security — итеративные циклы детекции и исправления — были удобной штукой. В новом подходе аналога нет из коробки. Но Superpowers’овский цикл brainstorm → plan → TDD покрывает большинство этих сценариев, просто по-другому.

Офлайн-доступ. Orchestrator Kit работал полностью локально. Template Bridge тянет шаблоны из GitHub через npx. Без интернета — только те агенты, что уже установлены в проекте.

Стоит ли это того? Для меня — однозначно да. Но если у вас стабильный стек, который не меняется годами, и есть время на поддержку — Orchestrator Kit по-прежнему на GitHub, MIT-лицензия, берите.


Про AI и программистов (спорная часть)

Есть два лагеря. Первый кричит: «AI заменит программистов, учить код бессмысленно, нужны только промпт-инженеры». Второй отвечает: «AI — пузырь, галлюцинирует, настоящий инженер ему не нужен».

Не согласен с обоими.

AI не заменяет инженера. AI заменяет набивание символов. Проектирование, декомпозиция, архитектурные решения, понимание бизнес-требований — это по-прежнему работа человека. Claude Code не придумает за тебя, какой паттерн авторизации использовать. Но когда ты решил — он напишет реализацию за 10 минут вместо двух часов.

И вот тут ключевой момент: чем сильнее инженер, тем больше он получает от AI. Джуниор, который не понимает, что ему сгенерировали — не может проверить результат, не видит антипаттерны, принимает галлюцинации за код. Сеньор — задаёт правильный контекст, ставит точную задачу, верифицирует результат. AI — это мультипликатор. Мультипликатор ноля — ноль. Мультипликатор десятки — сотня.

Поэтому Superpowers с его обязательным TDD — не блажь, а необходимость. Без тестов ты не отличишь работающий код от красивой галлюцинации. С тестами — каждый шаг подтверждён объективно. Это не вопрос «верю / не верю в AI». Это инженерная дисциплина.


Банальности, без которых не работает

Не буду делать вид, что открываю Америку. Но эти вещи настолько часто игнорируют, что стоит проговорить.

Context7 — актуальная документация. MCP-сервер, который подтягивает свежую документацию библиотек прямо в контекст Claude Code. Без него Claude уверенно пишет код по документации полугодовой давности. API поменялся, параметр переименовали, метод удалили — а он не знает. Context7 решает это: mcp__context7__resolve-library-idmcp__context7__query-docs — и Claude работает с актуальными доками, а не с тем, что запомнил из обучающей выборки. Для Next.js, Supabase, любых активно развивающихся библиотек — must have.

Sequential Thinking — «думай по шагам». MCP-сервер, который даёт Claude структурированное пространство для рассуждений. Без него модель иногда прыгает к выводу, пропуская промежуточные шаги. С ним — раскладывает задачу пошагово, может пересмотреть предыдущий шаг, разветвить рассуждение. Особенно полезен для архитектурных решений и сложной отладки, где нужно держать в голове несколько гипотез одновременно.

Playwright — глаза для Claude Code. По умолчанию Claude Code слепой — он не видит, как выглядит результат в браузере. Playwright MCP даёт ему возможность открыть страницу, сделать скриншот, кликнуть по элементу, заполнить форму, прочитать DOM. Для фронтенд-разработки это меняет всё: Claude может проверить, что кнопка реально на месте, что форма работает, что вёрстка не развалилась. Не «я думаю, что CSS правильный» — а «я открыл страницу и проверил».

Три MCP-сервера, ~600 токенов контекста в сумме. Минимальные затраты — максимальная отдача.


Как попробовать

Всё бесплатное, MIT-лицензия.

Минимальный старт — только Superpowers:

/plugin install superpowers

Уже получите TDD, brainstorming, code review, debugging. Это самый ценный компонент.

Добавить трекинг задач:

/plugin install beads

Полный стек с каталогом шаблонов:

claude plugin marketplace add github:maslennikov-ig/template-bridge
claude plugin install template-bridge@template-bridge-marketplace

После установки Template Bridge — добавьте блок в ~/.claude/CLAUDE.md (есть в README репозитория), и Claude будет следовать полному workflow в каждой сессии.


Итог

Orchestrator Kit был важным этапом — без него я бы не пришёл к тому, что работает сейчас. Следующий шаг — интеграция, а не изобретение. Superpowers для методологии, Beads для памяти, Template Bridge для доступа к специалистам. Три плагина, которые обновляются своими авторами, и тонкий слой клея, который связывает их вместе.

Если вам нужен полный контроль и готовность поддерживать 39 агентов — Orchestrator Kit по-прежнему работает. Если хотите работать, а не поддерживать инструменты — попробуйте три плагина.

Исходники: template-bridge


Игорь Масленников — 3000+ часов в Claude Code и всё ещё считаю. Канал: t.me/maslennikovigor | Написать: t.me/maslennikovig

Комментарии (36)


  1. VitaminND
    30.03.2026 18:33

    Посоветуйте, с чего конкретно начать? Чувствую - поезд уезжает, но как попасть на него?

    Пока с ИИ сталкивался только через чат и windsurf. Задачи - программирование.


    1. SanCHEESE
      30.03.2026 18:33

      Исследовать возможности агентной среды максимально подробно, досконально, написать скилы, интегрировать мсп, писать агентов под каждую задачу, а затем уйти в claude code/codex с плагинами и горя не знать и забыть все изученное как страшный сон))


      1. Gluten
        30.03.2026 18:33

        Про Клод не совсем верно) его надо настраивать, чтобы он эффективно токены расходовал, вел документацию, писал качественный код. Из коробки это не очень хорошо работает для больших проектов


    1. onets
      30.03.2026 18:33

      Когда будет очередная задача на работе, то

      1. Помусолить ее с чатом-гпт или любой другой ИИ-шечкой, по копипастить код руками, устать и задолбаться

      2. Попробовать какой-нибудь агент, встроенный в IDE - например github copilot в режиме чата, понажимать tab, устать и задолбаться

      3. Скачать и локально поставить Codex или аналог, подключить папку с проектом, сделать отдельную ветку в гите, скопипастить в чат описание задачи из таск трекера, немного причесать, вставить свои мысли, подсказки, ключевые точки (файлы, классы, методы) с которых стоит начать, попросить в первую очередь просканировать файлы и написать план

      4. Одобрить или скорректировать план, запустить, пойти попить кофе, вернуться, восхититься, сделать код ревью, причесать, закомитить, отправить на ревью другому кожаному мешку

      5. Profit

      Ну а там уже дальше видно будет, всякие скилы покопать, и вот такие плагины/субагенты


    1. vasimv
      30.03.2026 18:33

      Если есть халява на токены какой-нибудь AI-модели, то claude code или opencode (дальше просто ему в чате говоришь "вот в этом файле лежит техзадание, делай!", оно там накодит чего-нибудь и можно будет посмеяться и оценить - стоит ли этим дальше заниматься). Если нет, то лучше озаботиться установкой какой-нибудь локальной модели на имеющееся железо (а вот тут-то как раз часто оказывается, что поезд уже уехал - дорого уже всё, разве что смотреть и плакать как qwen3.5-9b с четырехбитовым кешем на 11 гиговой карточке лепит что-то несуразное).


      1. dkeiz
        30.03.2026 18:33

        тот же qwen через алибабу можно подключить, вроде халявные 2000 api запросов все ещё на месте. Так у них ещё и модельки обновляются. Не плохо чтобы набить руку. Но доступ к реальным проектам им лучше не давать.


        1. Ratenti
          30.03.2026 18:33

          Почему лучше не давать?


    1. neodavinchi
      30.03.2026 18:33

      У меня это работает так:

      1. Решить реальную задачу (написать работающий полезный код) на голом "claude (или qwen) code", либо с минимальной настройкой, чтобы освоиться и перестать его шугаться.

      2. После получения личного опыта, советы из статей становятся более понятными


  1. GamePad64
    30.03.2026 18:33

    Superpowers — штука отличная. Для проектирования — самое то. За beads спасибо, будем пробовать.


    1. azharinov
      30.03.2026 18:33

      Удалось beads установить? У меня так: Plugin “beads” not found in any marketplace


      1. BboyBlackjack
        30.03.2026 18:33

        /plugin marketplace add steveyegge/beads затем /plugin install beads


  1. cry_san
    30.03.2026 18:33

    реально каждый день, минимум 8 часов

    А какие задачи выполнялись?


    1. Okeu
      30.03.2026 18:33

      зарабатывались звездочки на гитхабе)


    1. SkyCat
      30.03.2026 18:33

      Я вот вообще не понимаю, как можно минимум 8 часов не остановки работать с нейронкой. Мне для написания нормального промпта для неё нужно погрузиться в тему, максимально подробно описать планируемые функции внедрения, прописать граничные случаи, попросить внедрить систему контроля ошибок и т. д. Что люди умудряются генерировать по 8 часов в день, интересно? Где-то реализовали божественный промпт "сделай хорошо, а плохо не делай", а я не в курсе? ))


      1. BlackSCORPION
        30.03.2026 18:33

        Так же как и без нейронки но быстрее ) Сначала ресерч, в чатжпт, джемини с разных сторон обсуждаешь задачу, "гуглишь" контекст, брейнштормишь, анализируешь возможные решения, цель - определится с основным вариантом решения. Экспортишь саммари в маркдаун.

        затем идёшь с этим маркдаун в клауде, кодекс, антигравити итд, говоришь ему такая задача, такие мысли, сделай план.

        Затем еще n часов, ревьювишь правишь план с агентом, параллельно обсуждаешь мысли с в чатжпт итд.

        Когда к плану не остаётся вопросов ни у тебя ни сомнений у ИИ, переходишь к практическим вопросам, как разделить план имплементации на конкретные фазы, чтобы их можно было тестировать отдельно, ревьювить отдельно, итд, сделать максимально безболезненно.

        Затем экспортишь план, с фазами, их описанием в подзадачи в виде маркдаун описания.

        Затем по одной просишь имплементить фазы, так же с планом, ревью, тестированием.

        Все это такая же работа/программирование как без ИИ но код уже не пишешь только читаешь, и много общаешься с ИИ.


        1. SkyCat
          30.03.2026 18:33

          Да это понятно, я сам так же делаю. Просто тут есть стахановцы, у которых, по их словам, агенты в несколько потоков чуть ли не круглосуточно нон-стоп что-то делают. Вот мне и интересно, что же за задачи у них такие?


          1. BlackSCORPION
            30.03.2026 18:33

            Могу предположить эксперементируют с автономным кодингом. Я пробовал, результат не устроил, работает но не на том уровне чтобы заменить меня. Но у меня интерес исключительно практический, для других интересов я недостаточно богат )

            У кого есть ресурсы могут экспериментировать на тему ближайшего будущего, например есть решения вроде openhands и других, которые фокусируются на автономном кодинге, когда агенты работают в облаке, их тысячи, и они работают автономно. Тут широкое поле для экспериментов, это не только абстрактное сделай красиво, некрасиво не делай, а в целом идеи о практическом применении ии в разработке, тип ии ревью, ии апдейты документации, секурити ревью, автономное закрытие простых тасок по тегу, например ставишь на таску #good_for_llm и агенты сами ее находят, имплементят, поднимают ПР ревьювят, мерджат. Где то посередине может быть человек а может и не быть

            В таких экспериментах надо много денег на токены. Даже если сейчас это не выглядит выгодно, в перспективе токены должны только дешеветь, и к этому времени у тебя уже будет мощный опыт в этой области и даже какие то решения.


  1. randvell
    30.03.2026 18:33

    Я вот не понимаю как люди работают с этой штукой каждый день, так ещё и с утра до вечера. Месяц назад у Claude были такие лимиты, что хоть свою ОС пиши, две недели назад хватало поработать с 7 до 19, отдавая на ресерч сложные таски, где он мог думать по 15 минут, но лимитов все равно хватало. Со среды прошлой недели порезали лимиты так, что токены улетают за буквально 2 запроса, весь реддит завален сообщениями о том, что работать стало невозможно. И что хуже, так это то, что две недели назад за один запрос можно было получить почти идеально написанный модуль на 1500 строк, а на этих выходных выдавал 5 ошибок в 10 строках кода при небольшом контексте (и эти цифры не фигура речи).

    Такое же отупение ранее наблюдал у ChatGPT и Gemini даже на платной подписке, но там было очень постепенно и можно было спихнуть вину на некорректные сценарии и мои додумки, а тут прямо резкий скачок назад.


    1. clarkkent5
      30.03.2026 18:33

      Ну может дело в тарифных планах. У меня Max x20, и пока не почувствовал на себе этих изменений.


      1. randvell
        30.03.2026 18:33

        У меня Teams. На Pro, по отзывам моих знакомых разработчиков еще хуже. На reddit в r/ClaudeAI как раз последнюю неделю жалобы, что даже на x20 лимиты улетают. Это я еще работать начинаю пораньше, когда "первый мир" спит. Не представляю что там в пиковые часы. Вон буквально сегодня пост с переписью людей, кто не может нормально работать из-за этих проблем.


        1. randvell
          30.03.2026 18:33

          del


  1. Venila
    30.03.2026 18:33

    Человек за 3000 часов не понял, зачем нужно писать свои скиллы, агентов и прочее.

    За 3000 часов понять, что вместо своего, нужно использовать готовое - очень сильно и мудро.

    При этом использовать то, что очень легко найти и является самыми популярными решениями.

    Писать оркестратора в основном только для экономии токенов тоже очень умно.

    Ты как-будто на принципиальном уровне не понимаешь то, что и для чего нужно.

    Всегда можно использовать готовое и рабочее. Вот только все готовые решения упираются в одно - это что-то всегда очень базовое. То, что будет подходить как можно большему количеству людей. Но чем сложнее у тебя проект, чем большой разной уникальной логики - тем больше смысла в том, от чего ты по итогу ушёл.

    Всегда нужен баланс. Баланс в использовании и готово и создания своего.

    Итого: 3000 часов и по итогу придти к банальному и базовому. То, с чего ты должен был начать, а не закончить. Ну, самое лучшее что можно было еще после этого всего сделать, так это написать статью об этом


    1. DanielKross
      30.03.2026 18:33

      Когда делаешь свой велосипед, как минимум начинаешь отлично разбираться в велосипедах. А не бежишь к мастеру цепь/камеру поменять. Не говоря уже о том, что когда он начал свой велосипед, готовых инструментов возможно не было/были не такие хорошие/удобные. И всяко лучше делать что-то свое, и написать об этом, читая комментарии, чем постить комменты типа твоего ;)


      1. Venila
        30.03.2026 18:33

        Любой, кто минимально разбирается в Клоде и пытался узнать, какие готовые скиллы, mcp сервера и прочее есть - нашли бы то, что человек написал.

        И им не нужно было бы 3000 часов, чтобы найти и понять, что и для чего нужно. Это лежит на поверхности. Это есть почти в каждом источнике.

        А это статья - вода, которая просто показывает неспособность человека за такое огромное количество времени придти к правильным выводам. Лишь красивая обертка, которая больше обманывает пользователей своим названием, неся при этом диструктив.

        Своё нужно. Без своего в большом проекте будет очень сложно.


    1. sse
      30.03.2026 18:33

      Ну как "написать", видно же, что кинул тезисы в ИИ и попросил сгенерировать, выхлоп опубликовал


    1. IVA48
      30.03.2026 18:33

      Вся изложенная автором технология (и ей подобные) рассчитана исключительно на нежелающих и неумеющих думать, так и на думающих, с целью постепенного атрофирования у них способности самостоятельного мышления и принятия решений.


  1. Vladislav_Sushin
    30.03.2026 18:33

    Я вообще как-то прошел "плагины" стороной, ведь они были на стыке набирающей популярности skills, которые, к слову, стали моим основным помощником в различных проектах. Но в статье прям вкусно расписана тема! Думаю, стоит опробовать в ближайшее время)


    1. funca
      30.03.2026 18:33

      Плагины объединяют skills, agents, commands, mcp, lsp, hooks в один установочный пакет. То есть это не альтернатива скиллам, а надстройка.


  1. Felowez
    30.03.2026 18:33

    Очень уж интересно, если не секрет сколько в час или сутки такой конвеер обходиться?)


  1. Privatekey7
    30.03.2026 18:33

    Я бы сюда ещё добавил Rust Token Killer для оптимизации токенов особенно при работе с git экономия большая, а так спасибо, статья отличная, завтра настрою себе такую систему


  1. AstRonin
    30.03.2026 18:33

    А как быть с тем, что ИИ перевирает поставленную задачу и не правильно ее понимает? Соответственно и тесты и код будут написаны не правильно. Я это обнаружил, благодаря тому, что проверяю код в ручную и примерно знаю, что должно быть в итоге. Только после того, как я указал ИИ что он сделал не правильно согласно требованиям, тогда он исправился.


    1. mSnus
      30.03.2026 18:33

      ИИ лучше знать, меняйте задачу и требования на подходящие под код. Компьютеры не ошибаются!


  1. frostsumonner
    30.03.2026 18:33

    А что за 3000 часов было написано? Ну кроме ии инструментов.


  1. zodchiy
    30.03.2026 18:33

    Решил поработать с агентом claude code, модель opus 4.6. Начал с проекта простого корп мессенджера ТОЛЬКО бэк, авторизация keyclock, postgres, signalr. Написал ему промт за 2 часа, он молотил 3 часа получилось куча непойми чего, которое только после часа дебага смогло сбилдится. Решил пойти по другому. Начал общаться с веб версией как поставить задачу версии claude code. 2 недели мы в одном чате уточняли все нюансы работы. Итог 5 файлов - claude.md с контекстом и правилами, архитектура где кто, ентити что храним, компоненты с ендпойнами как общаемся, таски - 8 шагов где в каждом список на 10-20 задач где подробно описано что делаем с оглядкой на остальные файлы, после выполнения задачи помечай как [Х]. Работа заключалась в том что я пишу - сделай шаг 1 из файла тасок все делай как описано в остальных файлах. Итог 7 задач за 5 часов - на выходе 1700 файлов на 220мб. Был небольшой косяк с версиями nuget пакетов. Все работает. Поднимается api, кэш, background service, ревер-прокси, авторизация, 3 базы данных и сервис signalr, тесты на все сервисы.


    1. SkyCat
      30.03.2026 18:33

      Всё правильно у вас написано. Если хочется предсказуемой отдачи от нейронки, нужно самому погрузиться в тему и максимально подробно написать ТЗ, да еще несколько раз предварительно его прогнать через ИИ на предмет узких мест, забытых важных нюансов и т. д.

      Я недавно писал ТЗ два дня, перелопатил тонну сайтов, достиг бесплатных листов на двух нейронках из-за его уточнения. Зато потом закинул его в Opus 4.6 и он мне за полчаса написал рабочий продукт объемом где-то на месяц моей работы.

      Что там люди по 8 часов в день с нейронкой делают, мне непонятно. Для такой загруженности нужно иметь промпты объёмом с "Войну и мир" либо какой-то трешак в промышленных масштабах генерировать.


  1. Dhwtj
    30.03.2026 18:33

    Выглядит, будто автор пытается управлять хаосом. Обновления постоянно ломают схему и... Оно вообще то стоило?