Эта статья - личное мнение автора. Про «вайбкодинг», лимиты и куда теперь идти разработчикам.

Последние полгода мы жили в новой норме: описываешь идею - Codex берёт и делает. Хоть день напролёт. Хоть пять проектов параллельно. Запросы не заканчивались, ритм не ломался, за один вечер можно было уехать далеко.

Что такое Codex и почему это важно

Codex - инструмент для программирования от OpenAI (на базе ChatGPT).
Обычный чат - это когда ты сам вставляешь правки в код по кусочкам: скопировал, вставил, проверил, вернулся, ещё раз. Модель не держит весь проект в голове, сложно «перекинуть мостики» между файлами - особенно заметно на проектах, где больше 5 файлов.

Платформа уровня Codex - другой подход. Она видит проект как систему и проходит по нему шаг за шагом. Представьте книгу «Война и мир». Попросить «обычную нейросеть» переписать целую сюжетную линию - почти нереально: объём, связи, где что поменять - потеряется. А инструмент класса Codex способен зайти в любую главу и сделать всё последовательно: сначала вот здесь, потом там, затем поправить перекрёстные сцены и финал. Это и есть магия настоящего вайбкодинга: правишь всё целиком, а не кусочками.

Всё резко поменялось

С начала ноября 2025 появились лимиты.
Два вида: пятичасовое окно и недельная квота.
Эти лимиты чертовски быстро тают.

На форумах и в реддите в последние дни - типичная картина:
«за час плотной работы сгорело почти всё»,
«недельный лимит - за день»,
«после апдейта лимиты стали строже».
И это не единичные истории - таких тредов сейчас много.

А ведь раньше лимитов не было - теперь они часть продукта.

Почему так?

Железо и деньги. Генерация - это реальные мощности. Когда всем дали «почти безлимит», стало ясно: так платформа не вывезет. Лимиты - способ не положить сервис и не поднимать цену в космос.

Этап продукта. Раньше это было похоже на большой тест: проверяли поведение, собирали кейсы, выпускали фичи, прикинули среднее использование и где поставить ограничители, чтобы люди захотели докупать. Поэтому и казалось «бесплатно и бесконечно» - на деле это был аккуратный шаг, чтобы подсадить на удобство и чтобы уже не хотелось уходить, когда всё настроено и интегрировано.
Сейчас Codex - полноценный продукт. Значит, появляются правила, квоты, тарифы. И монетизация.

Это шире, чем Codex

OpenAI в целом стала осторожнее. Видно по ChatGPT: там, где нужны профильные специалисты, он всё чаще отказывается давать конкретные инструкции. Это не про «не умеет», а про юридические риски - компания страхуется от исков.
В Codex гайки - это про деньги и мощности. В ChatGPT - про ответственность. В сумме выходит общий тренд: пользователей постепенно ограничивают по разным осям.

Чем лимиты бьют по вайбкодингу

Вайбкодинг - это поток. Разгоняешься, перекидываешься с моделью, только на 5-й запрос получаешь то, что просил.
Лимиты ломают ритм:
- длинный рывок превращается в сессии с паузами;
- параллельные мини-проекты мешают друг другу - всё висит на одном счётчике;
- новичкам особенно больно: много лишних шагов - лимит сгорает сразу.

Если раньше я мог в фоне работать над своим стартапом, докидывая задачи периодически, то теперь надо расставлять приоритеты и очень тщательно продумывать каждый запрос - что точно не упрощает жизнь. И помним, что нейронкам свойственно ошибаться - значит, по факту usable-лимит в 3–5 раз меньше.

Что теперь делать - реальные альтернативы Codex

Смотрим по сторонам. Есть инструменты, которые понимают проект целиком и умеют править не один файл, а сразу всё, что нужно:

  • Cursor - отдельный IDE с ИИ. Понимает контекст проекта, помогает писать и править код «на лету». Быстро завоёвывает команды, в том числе в больших компаниях.

  • GitHub Copilot + Copilot Workspace - Copilot предлагает правки прямо в редакторе, а Workspace/agent может взять задачу, внести изменения и оформить Pull Request для ревью: по сути, «попросил - получил PR».

  • Sourcegraph Cody (Auto-edit) - понимает большую кодовую базу и предлагает пакетные правки сразу в нескольких местах и файлах. Удобно для рефакторингов и массовых замен.

  • JetBrains AI Assistant - встроен в IntelliJ/CLion/PyCharm и т. д. Умеет рефакторить и делать многофайловые диффы, чтобы принимать изменения выборочно.

  • Replit Agent - три режима: планирует работу, вносит правки и может «строить» фичи сам. Понимает связи между файлами и меняет проект согласованно.

  • Windsurf Editor - агентный IDE с упором на «поток»: задаёшь цель словами - получаешь последовательные правки по проекту.

  • Aider (CLI) - минимализм в терминале: ассистент вносит изменения прямо в git-репо, коммитит и двигается дальше. Хорош для быстрых правок без лишнего интерфейса.

И помимо всего перечисленного, можно собрать подобную платформу самому - на локальных нейросетях или через API популярных моделей.

Важно понимать: «писать через обычные нейросети» - можно. Но это ручная сборка: дольше, хлопотнее, меньше шансов аккуратно перетянуть сложный проект без косяков. Платформы типа Codex экономят силы и время именно на больших задачах.

Что будет дальше

Честно - не жду чудес. Возможно, лимиты поднимут или добавят режимы. Но, скорее всего, всё останется в рамках «взрослого» продукта: хочешь больше - плати, либо жди и постоянно думай, что это может и стоит своих денег.

Сейчас можно докупить пакет за 40 баксов на 1000 кредитов(какая-то внутренняя валюта для генерации Codex). На сколько это хватит - покажет только практика, но по предположительным подсчётам от самих же OpenAI, это не так уж и много.

И в этом нет трагедии. Рынок не пустой. Как только появляется ограничение - появляются и те, кто сделает похоже или даже лучше. Мы уже видели, как новые игроки взлетали и обгоняли старых. DeepSeek - живой пример: «вчера никого не знал, а сегодня все обсуждают». Значит, появятся и новые «кодексы» - может, даже с более щедрыми ограничениями.

Итог

  • Грустно? Да.

  • Конец вайбкодингу? Нет.

Codex стал зрелым продуктом - вместе с лимитами. «Халяву» замедлили, но не убили. Смотрим по сторонам, пробуем аналоги, комбинируем инструменты - и продолжаем делать проекты в новых реалиях. Будем надеяться, что тенденция «закручивания гаек» не коснётся всего мира нейросетей.

Так же приглашаю вас на свой Телеграмм канал, где я рассказываю про нейросети.

На этом всё! Дальше будет интереснее :) ?

Комментарии (157)


  1. gonitrafik
    06.11.2025 16:07

    Очевидно рано или поздно это должно было случится, будут лимиты и на запросы . Они уже есть, просто скрытые


    1. Kapsa-sa
      06.11.2025 16:07

      Это стандартная эволюция сервиса. Сначала тянут до упора, потом вводят квоты и делают их видимыми


      1. yargolubev
        06.11.2025 16:07

        А потом такие всмысле у клиента нет денег что оплачивать 10 подписок в месяц по 2000$!?



    1. lam0x86
      06.11.2025 16:07

      Вообще не очевидно. Я заплатил за сервис на год и ожидаю, что он будет как минимум не ухудшаться. А вообще, были ожидания, что он наоборот будет улучшаться за счет конкуренции. Но похоже, что все сервисы стали закручивать гайки. С месяц назад у Клода была такая же резкая деградация. Посыпался топ - начали сыпаться остальные. Печаль.


      1. Jacov911
        06.11.2025 16:07

        Клод на 100$ подписке даёт лимитов за глаза


        1. lam0x86
          06.11.2025 16:07

          На реддите много жалоб, что даже по подписке за $200 люди постоянно утыкаются в лимиты. Вот пример: https://www.reddit.com/r/ClaudeAI/comments/1o139ew/claude_code_200_plan_limit_reached_and_cooldown/

          Я тоже с этим столкнулся. Раньше лимиты были гораздо менее строгими, а когда вышел Опус, Сонет резко ухудшили.


          1. Jacov911
            06.11.2025 16:07

            Вы знаете, я вот юзаю очень активно соннет , и в десуктопе и в клодкоде, и лимиты выхватываю Только если переюзываю опус.

            Более того, на мой взгляд в прикладных задачах опус стал проигрывать и ощутимо.

            Просто надо с "автовыбора" модельки перейти на "ручку" - соннет.

            Опус только для генерации claude md + prd txt использую или отладки чего-то объемного и сложного, что не смог переварить соннет


  1. MAXH0
    06.11.2025 16:07

    Замечательная статья от 07/07...и мой коммент ...

    Кому лень идти, я ниже скопировал, но ветка обсуждения там интересная. Не знаю насколько правдивая, но интересная. Вывод... Локалка - дорого но можно.

    Вы ещё не поняли, что работаете на закрытые корпоративные платформы тестеровщиками?И как только тестирование закончится тарифы сразу же поменяются... Но в разработку открытих инициатив почти ни кто не чешется.


    1. orenty7
      06.11.2025 16:07

      Но в разработку открытих инициатив почти ни кто не чешется.

      Во-первых клиенты нейронок совсестимы. Чтобы переехать с закрытой OpenAI в открытую ollama меняется одна строчка:

      from openai import Client
      

      На

      from ollama import Client
      

      И это если не использовалась либа типа litellm скрывающая эти детали.

      Во-вторых см. open-webui


      1. MAXH0
        06.11.2025 16:07

        Я имею ввиду несколько другое. Пока все пользуются обученной нейросетью "из каропки". Такой "бог из машины" который прийдет и решит все проблемы. ИМХО Обучение нейросетей не плохо бы не просто распределить, но и федерализировать. Т.е.100500 разных нейросетей, взаимодействующих по единому стандарту, из которых можно собирать "рецепты".
        Пока процесс обучения не просто лежит под корпоратами. Он его определяет. Конечно в области программирования это не особенно заметно. Но там где субъективность рулит, там отсутствие идеологической нейтральности нейросети вполне очевидно. Что плохо.

        Надеюсь, что по мере того, как дотационный пробный период закончится, то сообщество озадачится не только тем, что нейросети нужно запускать, но и обучать. Пока такие решения на уровне прототипов только. Я не слышал ни об одной нейросети полностью обученной на распределенных мощностях за средства сообщества.


        1. yargolubev
          06.11.2025 16:07

          Потому что у пользователей на руках минимум мощностей. Да и загруженная 24/7 видеокарта выйдет из строя. Если не соблюдать тепловой режим, про счет на электрияество я и не говорю, желание поучаствовать в распределенном вычислении у тебя момннтально закончится как только увидишь счет за электричество.


          1. MAXH0
            06.11.2025 16:07

            Как бы люди майнящие биток имели и мощности и счета за электричество.
            Точно так же как биток создавался для борьбы с банковской монополией, так и распределенные нейросети должны создаваться для борьбы с корпоративной олигополией на AI


            1. PowerMetall
              06.11.2025 16:07

              Но за биток давали монеты, которые можно было продать за фиат.
              А тут предлагается просто так "ушатывать" своё железо, ради "всеобщего блага"

              Хотяяя, если прикрутить к этому криптомонету какую-нибудь, выйти на биржи, етц... )))


              1. askharitonov
                06.11.2025 16:07

                Есть проекты, где люди предоставляют ресурсы своих компьютеров просто так, потому что считают, что проект правильный. Просто для иллюстрации — distributed.net.


              1. MAXH0
                06.11.2025 16:07

                >>предлагается просто так "ушатывать" своё железо, ради "всеобщего блага"
                << И где вы это у меня прочли? Более того, чуть ниже я пояснил:

                Деньги идут оттуда же откуда все деньги - от конечных пользователей. Я подразумеваю что-то вроде анонсированного проекта Confidential Compute Open Network Дурова, но с возможностью обучения...

                Свободное != Бесплатное. Свободное значит не принадлежащее корпорациям и не манипулирующее пользователем...


      1. ovalsky
        06.11.2025 16:07

        Долго ли они будут совместимы?
        Открытый код - это процесс тестирования, поднятие цен это сигнал о конце тестирования. Кто будет развивать открытый код? откуда брать данные и мощности на обучение? Да и скоро выяснится что все модели будут заражены и станут бесполезными.


        1. MAXH0
          06.11.2025 16:07

          Биткоин благополучно доказал, что сообщество готово развивать код и вкладывать мощности в обучение. Деньги идут оттуда же откуда все деньги - от конечных пользователей. Я подразумеваю что-то вроде анонсированного проекта Confidential Compute Open Network Дурова, но с возможностью обучения...
          И да, разумеется... Коду недостаточно быть открытым. Он должен быть свободным!


          1. yargolubev
            06.11.2025 16:07

            Всмысле ? Код биткоина поддерживается владельцем. Все остальные только майнят, хрен зная что считая для владельца сети. Ваша независимость это иллюзия.


            1. MAXH0
              06.11.2025 16:07

              и есть масса форков. Главное совместимость на уровне протоколов взаимодействия.


            1. orenty7
              06.11.2025 16:07

              Код биткоина поддерживается владельцем.

              Владелец биткоина это кто?


      1. Stanislavvv
        06.11.2025 16:07

        Не обязательно даже что-то менять, кроме урла сервиса.


    1. Hlad
      06.11.2025 16:07

      Но в разработку открытих инициатив почти ни кто не чешется

      Так проблема не в наличии/отсутствии открытых альтернатив, а в том, где это всё будет крутиться. Альтернатива может быть сколько угодно открытой, но если для нормальной работы нужны несколько десятков топовых видеокарт, бесплатной она не станет.


      1. MAXH0
        06.11.2025 16:07

        Свободное != Бесплатное.
        Как раз сейчас корпораты осуществляют демпинг, мешая развитию альтернатив. Именно поэтому, я надеюсь на время "как дотационный пробный период закончится "
        Если вас беспокоит, что вы перестаете быть товаром и вынуждены покупать, то это не та проблема, для которой я стал бы искать решение.

        Зато платность сделает ожидания бизнеса от внедрения ИИ более реалистичными.


        1. Hlad
          06.11.2025 16:07

          Если вас беспокоит, что вы перестаете быть товаром и вынуждены покупать, то это не та проблема, для которой я стал бы искать решение.

          Меня как раз это не беспокоит. Но подозреваю, что у очень многих "вайб-кодеров" бизнес-модель строилась именно на бесплатности.


          1. MAXH0
            06.11.2025 16:07

            >> бизнес-модель строилась именно на бесплатности.
            << Это не бизнес модель. Это сиюминутный арбитраж возможностей. Успеть снять сливки пока окно не закрыли.


          1. yargolubev
            06.11.2025 16:07

            Приватизация доходов и национализация убытков.


    1. yargolubev
      06.11.2025 16:07

      Да это было смешно, вон на опенАи уже подали в суд что они в вводят в заблуждение что больше не 'опен' и вообще сменили формать с исследовательской команды, на комерческую


  1. olku
    06.11.2025 16:07

    Ожидаю рост до четверти ставки джуниора если подтянут качество. В статье не упомянут Argument Code, но смысл тот же.


    1. alhimik45
      06.11.2025 16:07

      Имелся в виду Augment Code? Они недавно тоже pricing поменяли, на реддите пишут что раз в 5-6 урезали лимиты за те же деньги


      1. olku
        06.11.2025 16:07

        Он самый, поздно заметил автозамену. Все они сейчас оптимум ищут...


  1. itt1b
    06.11.2025 16:07

    С Claude code Opus это уже произошло, когда вышла Sonnet 4.5. Реддит месяц с ума сходил, вайб-кодеры подписки отменяли.

    Думаю, это хорошо - в итоге получается зрелый умнейший инструмент для профессионалов. А генерировать десятками тысяч трэш-проекты становится нерентабельно.


    1. olku
      06.11.2025 16:07

      Есть закон развития технических систем - встраиваемость, функциональная полнота, контролируемость, влияние на человека. Так что специализация неизбежна, сейчас мы только на этапе тестирования прототипов продуктов. Компании кто схватит больше ресурсов смогут развить больше продуктов и имеют больше шансов пережить пузырь. Но за гонку гигантов заплатит все общество, как обычно.


      1. yargolubev
        06.11.2025 16:07

        Пузырь переживут те у кого есть реальное производство.

        Тот же амазон пережил пузырь доткомов потому что он имел реальные склады. А не виртуальные.


  1. tester37
    06.11.2025 16:07

    Вырастут не ставки джуноа, а ставки тех кто умеет экономить токены с сохранение перформанса как при безлимите


    1. yargolubev
      06.11.2025 16:07

      Просто переложа эту обязанность на сотрудника. Будет платить из своего кармана


  1. 2medic
    06.11.2025 16:07

    JB AI assistant та же ерунда с конца сентября. Тут либо появятся локальные модели адекватного качества, либо придётся вернуться к прежним паттернам разработки. Ну или платить, платить и ещё раз платить.


    1. yargolubev
      06.11.2025 16:07

      А мозги уже привыкли к халяве. Просто так вернуться не получится. Это будет буквально "больно"


    1. lgorSL
      06.11.2025 16:07

      128 Гб DDR4 RAM и можно увидеть что-то около 8 токенов в секунду от minimax-m2 на процессоре и квантизации в 4 бита. И немножко быстрее работает gpt-oss 120b, но она мне не нравится.

      Ещё есть всякие Qwen-Coder с экспертами, когда модели на 30миллиардов параметров из которых активных только 3 - они работают шустро даже на процессоре.

      По-моему локальные модели становятся всё круче, причём даже с жёсткой квантизацией до трёх бит модель как будто не становится радикально глупее.
      Из минусов только то, что скорость заметно ниже и если в формате "вопрос-ответ" это норм, то в формате "посмотри десять файлов" хочется что-то побыстрее - а тогда модель меньше и глупее.


      1. SabMakc
        06.11.2025 16:07

        Minimax-m2, gpt-oss 120b и Qwen3-Coder - они все MoE, с активностью только части параметров.
        Ну и есть смысл использовать квант UD-Q2 от unsloth - достаточно неплохо себя показывают )


      1. Suor
        06.11.2025 16:07

        Вот только они намного тупее. Т.е. требуют намного больше ручного управления, настолько, что там однозначно они снижают продуктивность.


  1. souls_arch
    06.11.2025 16:07

    Кто-то реально думал, что будет по другому? Подсадили всех, как на наркотики, бесплатными и условно бесплатными дозами, а цены поднимут еще не раз и лимиты ограничат. Ничего личного, - просто бизнес. Тестовая версия заканчивается. Причем те, кто на своих мощах(железе) купленных за много денех разворачивает AI, тоже имеют и фин издержки и проблемы и дальше будет только веселее. Бесплатный сыр бывает только в мышеловках, как бы избито это фраза не звучала. Тем не менее, многие люди, мелкие предприниматели и, даже, крупные бизнесы реально поверили, что наступила благодать, капитализм лично для них отменяется, и сейчас они начнут грести бабло только лично им подаренными/проданными за копейки волшебными лопатами/ковшами.


    1. obir
      06.11.2025 16:07

      Я тоже смотрю на этот дивный "AI рай" и диву дивлюсь, насколько ощущение очевидное, что они (бизнесы) из пробирок только недавно все повылезали


    1. yargolubev
      06.11.2025 16:07

      Он и отменяется добро пожаловать технофеодализм, где новые феодалы будут стричь тебя на подписки.

      Но да. Влияние иишки на мозг подобно наркотикам это буквально наблюдаемый факт


  1. Kapsa-sa
    06.11.2025 16:07

    Было ожидаемо. Пока Codex был тестовым, ресурсы тратили щедро. Теперь пошёл расчёт себестоимости, и OpenAI просто перевела эксперимент в коммерческий режим


    1. yargolubev
      06.11.2025 16:07

      Сэм Альтман говорил что по его расчетам справделивая цена подписки 2000$ в месяц.


  1. uranik
    06.11.2025 16:07

    Дождутся что народ станет скидываться на дорогие видюшки и разворачивать локальные llm


    1. Pemuul Автор
      06.11.2025 16:07

      Прикол Codex в том, что это не просто нейронка, это системный подход

      Наверное, это сравнимо с функцией Thinking (обдумывание) у нейронок

      С обдумыванием они подходя к задачи системно, с разных сторон, ставя сами себе задачи, а не в тупую генерят ответ

      Тут так же, Codex может от одного запроса сделать правки в 20 файлах и создать ещё 10, и это с большой вероятностью сразу заработает и тебе не надо будет руками вставлять код по кусочкам в свой

      Пока опенсорс подобных инструментов я не видел

      Вот как появятся, вот тогда можно будет подобное заявлять))

      И то, это как заявления, что "у себя можно запустить Chat GPT", а по факту запускают очень слабую и тупую нейронку, которую не стоит сравнивать с гигантами рынка


      1. 2medic
        06.11.2025 16:07

        Вы описываете функции ассистента. JB AI assistant может "делать правки в 20 файлах и создать ещё 10, и это с большой вероятностью сразу заработает" и использовать при этом локальную модель. Другой вопрос, устроит ли качество выдачи. Ну и ассистент у них стоит отдельных денег.


      1. BadNickname
        06.11.2025 16:07

        My sweet summer child.
        https://github.com/QwenLM/qwen-code
        Минмакс2, кстати, жует довольно бодро код. Хуже, конечно чем Клод, но достаточно для повседневного уровня, и в отличии от Клода в нем видно когда он начинает творить дичь.


        1. Suor
          06.11.2025 16:07

          Минимакс м2 лепит не работающую кашу. Gemini CLI, который пока бесплатный, намного лучше работает


          1. BadNickname
            06.11.2025 16:07

            Из моего опыта, для питона его хватает, для гошечки тоже, а ревьювать надо вдумчиво что после минимакса, что после gemini.


            1. Suor
              06.11.2025 16:07

              Есть разница всё время руку на пульсе держать и подпинывать или ревьюить, когда уже всё готово в целом. В первом случае, это однозначно роняет продуктивность.

              Я его на луа гонял.


      1. anonym0use
        06.11.2025 16:07

        https://huggingface.co/unsloth/Devstral-Small-2505-GGUF

        есть такая локальная штука, хз насколько хорошо кодит

        Key Features:

        • Agentic coding: Devstral is designed to excel at agentic coding tasks, making it a great choice for software engineering agents.

        • lightweight: with its compact size of just 24 billion parameters, Devstral is light enough to run on a single RTX 4090 or a Mac with 32GB RAM, making it an appropriate model for local deployment and on-device use.

        • Apache 2.0 License: Open license allowing usage and modification for both commercial and non-commercial purposes.

        • Context Window: A 128k context window.

        • Tokenizer: Utilizes a Tekken tokenizer with a 131k vocabulary size.


        1. no1D
          06.11.2025 16:07

          Плохо кодит, но хорошо Tool calling делает, с Cline дружит.
          Гонял на 3090, tok/s не замерял, но точно больше 20.

          Практика показывает что модели меньше 100b не годятся как замена современным проприетарным сеткам.
          100-250b ещё можно что-то поручать, ну и учитывая что сейчас многие большие сетки MoE - считаются они быстро, просто памяти много жрут. Из последнего хорошие сетки GLM-4.5-Air и GLM-4.6, подключал в Cursor через апишку OpenRouter - это уже вполне вариант.


        1. Shannon
          06.11.2025 16:07

          Такие маленькие модельки мало, что годного могут, особенно на 32к контексте.

          Можно запускать OpenAI GPT-OSS-120B или GLM-4.5-Air на домашнем ПК с адекватной скоростью, если есть 64 Гб ОЗУ.

          Запускаем GPT-OSS-120B на 6 Гб GPU и ускоряем до 30 t/s. Вам нужна RAM, а не VRAM. Параметр -cmoe для ускорения MoE LLM


          1. anonym0use
            06.11.2025 16:07

            Спасибо, нужно будет попробовать, у меня как раз такая ситуация, много RAM и слабое видео(8Gb)


        1. Suor
          06.11.2025 16:07

          SWE bench 53% на уровне Gemini Pro 2.5, это очень круто для небольшой модели. До 70-65 у соннета и гпт-5 далеко, конечно


    1. WizarDX
      06.11.2025 16:07

      Нвидия же выпускает какие-то специальные компьютеры для работы с ИИ. Типа Project DIGITS.


      1. Neikist
        06.11.2025 16:07

        На m3 ultra скорость инференса и то больше при вроде как сравнимой цене.


    1. nidalee
      06.11.2025 16:07

      Локальные все же туповаты.


    1. Hlad
      06.11.2025 16:07

      На сколько видюшек придётся скинуться, кто всё это будет обслуживать? Как будут разруливаться форс-мажоры и пики запросов? Там очень много вопросов вылезет.


      1. BadNickname
        06.11.2025 16:07

        На 8.
        Хватает одного радиоинженера с высшим образованием.
        Подменная мамка, пара цпу, полпачки памяти и два БП полностью закрывают потребности по ЗиПу.
        Пики запросов - да никак. Запустили агентов, пускай молотят.


        1. Suor
          06.11.2025 16:07

          Пики можно регулировать ценой как Яндекс такси/убер


    1. yargolubev
      06.11.2025 16:07

      В рейды на мацнинг центры что бы получить видеокарты которые все подчитую фермеры и скупают для выращивария ии.


  1. MountainGoat
    06.11.2025 16:07

    Тем временем DeepSeek: "Товарищи, мы уменьшаем цены для всех в 4 раза!" Я полностью на него перешёл – уходит до одного доллара в неделю.


    1. Ulyanov-Pavel
      06.11.2025 16:07

      Как можно вообще сравнивать? Кусок кода, возможно, он и сгенерирует, а нормально отдебажить написанный код и при этом, чтобы 10 раз его не пинать, точно нет.

      Ну либо я не пробовал какую-то из их моделей, которая "умная".


    1. BlackMokona
      06.11.2025 16:07

      Но ждать ответа нужно будет неделю, потому как сервер перенружен


      1. MountainGoat
        06.11.2025 16:07

        Это было весной. Нельзя в IT так долго просыпаться.


  1. obir
    06.11.2025 16:07

    А что вы хотели? Хотите повыёживаться - готовьте карту. Я конечно понимаю, что сейчас происходит жёсткий отсев сеньоров и джуниоров, но на так называемый "вайбкодинг" только полагаться - себя ненавидеть


    1. yargolubev
      06.11.2025 16:07

      Слабые падут, сильные останутся.


  1. green_fenix
    06.11.2025 16:07

    Странно что среди альтернатив claude code не привели.

    Клод это та же идея, только cli-first. Кодекс начинался как облачный инструмент, к которому потом прицепили cli, а клод наоборот - cli инструмент у которого недавно облачная версия появилась.

    Там та же самая история с лимитами (сессия 5 часов + недельный лимит), вроде антропик как раз первые ее придумали. Но в отличии от чатгпт есть "средняя" подписка за 100$, которой хватит большинству. Ну и за 200$ совсем мощная.

    Не так давно Sonnet 4.5 вышел, на момент выхода считался лучшей моделью для кода. Лучше gpt-5 и отдельной codex модели. Сейчас уже наверняка китайские модели и гугл обогнали, но все еще лучше чатгпт по идее.

    Вроде как большинство пользователей кто оба инструмента пробовали считают что клод лучше, но это не точно. Особенно учитывая что проекты у всех разные, и детали использования тоже.


    1. Anti2024
      06.11.2025 16:07

      Sonnet 4.5 на порядок лучше GPT-5 Codex High. Но дороже. Лимит, входящий в $200, заканчивается через 3 недели плотной работы, если совсем плотно - то хватает на 2 недели. Поэтому для мелких задач хватает auto, если затык - переключение на 4.5.


      1. green_fenix
        06.11.2025 16:07

        А вы точно про sonnet? Sonnet это как раз дефолтная модель. По заявлениям антропика 4.5 лучше опуса (дорогая очень большая модель), так что они теперь стараются всех перегнать на соннет, ибо ресурсов меньше сжигает.


    1. talassoft
      06.11.2025 16:07

      да, Claude Сode Max $100, пока вторую неделю полет нормальный, к утру пятницы потрачено всего 52% недельной квоты (впрочем, еще три дня и две ночи)


    1. krendelbok
      06.11.2025 16:07

      Есть opencode, полностью открытый и не привязанный к какому-то вендору, хочешь юзать - просто укажи api key. Или локальный урл к олламе/llama.cpp


      1. arantar
        06.11.2025 16:07

        И плати сотни/тысячи баксов за токены


    1. Suor
      06.11.2025 16:07

      Гугл свою Про не обновлял ещё, а китайские модели отстают всё-таки. Соннет 4.5 для кодинга сейчас самый топ.

      Есть нюансы:

      • для анализа и составления планов лучше будет gpt-5, опус или даже гемини 2.5 про

      • для ревью кода когда как

      • клод на соннете чаще пишет работающий код, но оверинденирит и добавляет много слопа из ненужных ифов и т.п. гпт-5/гемини и много других в этом отношении получше

      Однако работающий код со слопом - это неплохо потому что позволяет реже дергать человека, более крупные куски агент делает самостоятельно, и если инструкции сделаны, то и рефакторит, и тестирует, и отлаживает. А человек - это узкое место, так что чем реже его дергать, тем больше продуктивность. Таким образом модели/агенты пишущие код лучше, но менее железобетонно проигрывают.


  1. Anti2024
    06.11.2025 16:07

    Не надо печалиться. Год назад режим auto (бесплатный, безлимитный) не мог ничего. Сейчас - на уровне Sonnet 3.5. Через год будет на уровне Sonnet 4.5 - 5, когда будет какой-нибудь Sonnet 6-7.

    Кроме того, Minimax m2 очень горячо дышит им в спину - открытая модель, бери и хости самостоятельно, плати только за VPS, например. И дальше они будут умнее, их будет больше = удешевление, конкуренция, демпинг. Сейчас снимают сливки, пока это окно не закрылось, только и всего.


    1. BadNickname
      06.11.2025 16:07

      плати только за VPS, например.

      В варианте с нейронками это таки немножко дорого.


  1. ightingale
    06.11.2025 16:07

    Такая ровная синтетическая гладкость на протяжении всего текста. А формулировки по типу

    "Вайбкодинг - это поток. Разгоняешься, перекидываешься с моделью, только на 5-й запрос получаешь то, что просил."

    или

    " Это не про «не умеет», а про юридические риски - компания страхуется от исков."

    так и кричат о происхождении текста.

    Вот это грустно, читать уже тошно такое.


    1. winkyBrain
      06.11.2025 16:07

      Главное приплести хаб "программирование")


    1. Kelbon
      06.11.2025 16:07

      На хабре примерно 50% полностью чатгпт, ещё большая доля с большим "участием",но это не худшее, потому что есть комментарии на хабре/Ютубе от чатгпт. И это не боты, в люди общаются через прослойку, считая себя хуже ллм


      1. Idakopas
        06.11.2025 16:07

        Определять ЛЛМ‑статьи — ладно, ещё туда‑сюда, но как вы определяете «комментарии от чатгпт», ведь объем текста маловат для анализа? Когда‑то один «детектор» назвал сгенеренными мой коммент и текст «Капитала». Или вы имеете в виду случаи, когда человек сам заявляет «Я плох в выражении своих мыслей, поэтому вот вам копипаста из ЛЛМ»?


        1. Kelbon
          06.11.2025 16:07

          С одной фразы очевидно всегда

          Ну или например вот... https://habr.com/ru/articles/963748/comments/#comment_29076668


  1. Cryvage
    06.11.2025 16:07

    Что теперь делать - реальные альтернативы Codex

    Научиться программировать самому? Да не, фигня какая-то...


    1. Astrowalk
      06.11.2025 16:07

      Да, забавно выглядит эта паника ☺. Самое интересное, что никто из успешных вайбкодеров почему-то не показывает сам результат: конкретные проекты, программы, их исходный код...


      1. yargolubev
        06.11.2025 16:07

        Самые успешные нанимают спецов по очистке вайь кода за 200$ в час.


      1. JediPhilosopher
        06.11.2025 16:07

        У меня есть несколько успешных проектов, например:

        • Плагин для экспорта нужных мне данных для AutoCAD. Я никогда ничего не делал для нее раньше и последний раз писал на C# 15 лет назад. С ChatGPT я справился создать такой плагин за два дня, без него у меня бы неделя-другая ушли на изучение SDK и вспоминание шарпа

        • Сейчас делаю потихоньку новый фронт для своего проекта по моделированию пешеходных троп https://antroadplanner.ru, копилот за меня пишет весь фронтенд, так как я терпеть не могу JS, не знаю его и не знаю современных UI фреймворков на нем.

        • Мелкие скрипты, анализ данных на Python - тоже все вайбкодингом делаю. Например, небольшой веб-сервис, который принимает на вход IFC файл (это 3д модель здания) и выдает из него некоторую инфу. Потому что для Python есть актуальные библиотеки по работе с этим форматом, а для джавы - нет. Опять же пара часов вайбкодинга и сервис готов, у меня самого в разы больше времени бы ушло.

        Но это все мелкие проекты невидимые снаружи пользователю. Но оно прям работает и доставляет кайф отсутствием необходимости включать мозг и напрягаться. В 37 лет мне уже вообще не хочется напрягаться, меня программирование довольно сильно задолбало, я лучше освободившееся время с сыном проведу или в поход схожу. Поэтому если вайбкодинг исчезнет, я расстроюсь.


        1. Astrowalk
          06.11.2025 16:07

          Спасибо за развёрнутый ответ, теперь не буду ворчать по этому поводу.


        1. VVizard
          06.11.2025 16:07

          У меня такие же мелкие домашние проекты с chargpt которые решают всякие мелкие задачи.

          Но в рабочий проект практически не получается вставлять код из gpt, слишком сложно объяснить задачи и контекст, я часто сам понимаю что надо было сделать когда уже сделаю.

          Мне нравится проверять и улучшать свой рабочий код с помощью ИИ. Он находит не очевидные ошибки, иногда предлагает интересные оптимизации. Редко когда в работе появляются алгоритмически задачки удобно разбирать их.

          Но все же 9

          90% это именно мелкие инструменты. За такое жалко платить 200$ в месяц.


    1. Finesse
      06.11.2025 16:07

      Это же инструмент. Представьте, что у вас отняли IDE, и сказали «код можно писать в блокноте».


  1. AndrewBond
    06.11.2025 16:07

    Возможно, настало время алгоритмов "экономии токенов". Т.е., к примеру, не вайбкодить "в лоб", а отрабатывать промпт на дешевых/локальных моделях, и потом, уже готовый, скармливать дорогой LLM. Технология не секретная, конечно, но, многие пренебрегают, ибо "дешевые токены". были.


    1. Dmitry_604
      06.11.2025 16:07

      .е., к примеру, не вайбкодить "в лоб", а отрабатывать промпт на дешевых/локальных моделях, и потом, уже готовый, скармливать дорогой LLM.

      Мне кажется тогда уж точно проще самому :) И токенов сэкономишь много


      1. Hlad
        06.11.2025 16:07

        Мне кажется тогда уж точно проще самому

        "Шурик, это же не наш метод!" (с)


      1. AndrewBond
        06.11.2025 16:07

        Не, не проще. Сначала говоришь "а сделай мне план создания вот такой проги", берешь этот план, проверяешь, вписывешь уточнения, скармливаешь опять LLM на проверку, если всё норм, даешь ей задание по плану сгенерить промпт. Можно между несколькими моделями погонять, пока они не придут к какому-то общему решению.

        Самому - много писанины, а тут план вырисовывается постепенно, корректируешь в нужную сторону. Готовый - отдаешь на воплощение.


        1. Moog_Prodigy
          06.11.2025 16:07

          Так план это то, что должно быть у тебя в голове еще до написания промпта. Это же самое простое, можно не знать вообще никакого языка программирования, но примерно понимать, что ты хочешь от будущей программы. На входе вот это, на выходе должно быть вот так, кнопки и поля ввода такие-то. Это даже ребенок понимает. Если есть план, а еще лучше - алгоритм работы, то заложив его в промпт можно получить на выходе годноту без вот этих "ааа нейронки говно, не умеют нифига". Иногда получаются казусы, когда промпт длиннее самой целевой программы, но можно считать llm просто транслятором с человечьего языка на ЯП.

          Ладно что все типа на расслабоне, но это уже прям перебор. А нафига мозги тогда такому "вайберу"? Может его тоже заменить нейронкой, чтобы далеко не ходить?


          1. AndrewBond
            06.11.2025 16:07

            но примерно понимать, что ты хочешь от будущей программы.

            Фраза "должен понимать" может включать от "вообще уметь программировать" до "учитывать все детали". И каждый может защищать свою точку зрения, понимая фразу по-своему.

            Нейронка вот это "примерно" переводит в "подробно". Нейронка накатала план, ты посмотрел, добавил-убавил. Опять прогнал через нейронку, она добавила-убавила и тп. В конце концов говоришь "сделай из этого промпт", она делает, опять проверяешь-исправляешь. И в конце концов этой или другой нейронке скармливаешь промпт на генерацию.
            В последнем случае одним вот таким промптом, ИИ минут за 5 нагенерил кода столько, что только набивать его вручную ушло бы полдня.
            Пробежал глазами - ровно то, чего ожидал.
            Считаю, потраченное на предварительную работу время себя полностью оправдало.

            но можно считать llm просто транслятором с человечьего языка на ЯП.

            В общем да. Но не только.

            А нафига мозги тогда такому "вайберу"?

            Хороший вопрос. Сразу перекрывает любые аргументы в дискуссии.


  1. Tanasy
    06.11.2025 16:07

    Cloudflare SDK как аналог. Недавно вышел, довольно срочно работает и Cursor Composer 1, которая оперирует моделями. Но у них есть бесплатный пул, остальное за деньги. 20$ съедает где-то за 2-3 дня ярого кодинга


  1. Artemka1987
    06.11.2025 16:07

    Всё идёт по кругу. Ещё двадцать лет назад экономили байты программ. Сейчас экономим токены. Раньше писали код экономя место. Сейчас экономим слова промпта :)


    1. Astrowalk
      06.11.2025 16:07

      Мне кажется, есть существенная разница. Оптимизация кода программы "устойчива", малое изменение приводит к малым последствиям (не должно менять суть реализуемого алгоритма). А удаление части промпта может привести к изменению всех файлов всего проекта, добавлению и удалению файлов, короче — "неустойчиво".


  1. sloww
    06.11.2025 16:07

    Лимиты еще в сентябре были, автор придумал статью из ничего. Кому надо сидит на PRO и там выжрать лимиты достаточно проблематично, что то в районе 50 млн токенов в неделю.


  1. kenomimi
    06.11.2025 16:07

    Когда выйдет в прод полноценно, будет не только сама сетка ооочень платной, но и пунктик в лиц.соглашении появится о том, что сгенеренный код принадлежит барину, а вы жалкий гой арендатор, который с барского позволения может попользоваться написаным, пока оплачивает подписку. AOL в своем чатике (или аська, или что-то до нее) уже такой пункт имел, что на всё, что опубликовано в чате, AOL получает исключительные права - прокатило вполне, никто не засудил.

    Я молчу о том, что через такой "вайбкодинг" закрытый код корпоративного проекта расшаривается неограниченому числу заинтересованых лиц, и, скорее всего, будет продаваться так же, как сейчас торгуют персданные и прочую бигдату. Для мелких контор, что делают сайтики Васе Пупкину, оно безразлично, а вот средние и выше заденет очень сильно - стоит тебе придумать фичу, как большой жирный корпорат ее раньше тебя релизит.

    Так что любой приличной компании рано или поздно придется или руками писать, или локальную сетку разворачивать.


    1. yargolubev
      06.11.2025 16:07

      "Они украили мою идею что я обсуждал с ии!"

      Ты сто лицензионное соглашение не читал, все твои разговоры используются для обучения ии.


    1. 010011011000101110101
      06.11.2025 16:07

      руками всё, больше не вариант. никто сейчас не копает землекопами там, где может развернуться экскаватор. те, кто решит писать руками заведомо выберут себе путь лузера.


      1. Astrowalk
        06.11.2025 16:07

        Ну вот, уже заметны признаки деградации. Напомню, наши предки придумали разделение на строчные и заглавные буквы не просто так, от нечего делать.


        1. Neusser
          06.11.2025 16:07

          А для чего?


          1. Astrowalk
            06.11.2025 16:07

            Спросите ChatGPT, что вы как маленький.


            1. Neusser
              06.11.2025 16:07

              Он сказал, что разделение появилось просто так, буквально случайно.


              1. Astrowalk
                06.11.2025 16:07

                ...Что не совсем правильно, но допустим. Случайное эволюционное изменение привело к полезной (улучшает читаемость человеком) и прижившейся фиче. И что, теперь всё отменять и реформировать орфографию естественного языка только потому, что кто-то начал общаться только с алгоритмами?


        1. 010011011000101110101
          06.11.2025 16:07

          когда нечего сказать, придерись к чему угодно. "а ещё в очках!" :-)))


    1. MountainGoat
      06.11.2025 16:07

      уже такой пункт имел, что на всё, что опубликовано в чате, AOL получает исключительные права

      Много кто имел. Спасибо одному суду, который постановил, что одно то, что вы запостили картинку на сервис – не даёт этому сервису право показывать эту картинку другим пользователям. Тогда резко у всех появились такие пункты в соглашениях. Только DMCA помог разрулить эту гуакамолю, и тогда такие пункты стали пропадать.


  1. gun_dose
    06.11.2025 16:07

    А чем плохо? Выработал квоту — гуляй до завтра!


    1. Astrowalk
      06.11.2025 16:07

      https://cs16.pikabu.ru/s/2025/08/30/11/e3fsjhzr_s.jpg

      КДПВ к этой заметке.


    1. yargolubev
      06.11.2025 16:07

      До следующего месяца.


  1. panzerfaust
    06.11.2025 16:07

    Река уже пронесла труп промпт-инженера - величайшей профессии своего времени. На подходе труп вайбкодера - держателя богов за теститкулы. Продолжаем наблюдения, попкорн далеко не убираем.


  1. Overphase
    06.11.2025 16:07

    Сейчас можно докупить пакет за 40 баксов на 1000 токенов.

    Невообразимо дорого, или имелись в виду 1000к токенов (1 миллион токенов)?


    1. Pemuul Автор
      06.11.2025 16:07

      Мой косяк, не токены, а кредиты (щас поправлю).
      Какая-то внутренняя валюта для генерации.


  1. 010011011000101110101
    06.11.2025 16:07

    Может, пора поднимать ИИ на своих мощностях, благо это доступно? Да, тоже стоит денег и да, в открытом доступе не самые передовые модели. Но иметь своё по своему привлекательно


    1. Moog_Prodigy
      06.11.2025 16:07

      Ну у кого есть средства на это, те и поднимают. Есть чуваки, которым и контейнер А100 купить - как два пальца об асфальт. Но с вами делиться этим кластером они по понятным причинам не будут.


      1. kenomimi
        06.11.2025 16:07

        Чаще всего тому, кто не может развернуть у себя, оно и не надо. Для обучения кожаного использовать ИИ катастрофически вредно, мы сейчас видим, какое качество стажеров на рынке... Мелочевку для себя написать - хватит бесплатных лимитов. А хочешь регулярно для компании кодить, тут или свое покупай, или у поставщика услуг арендуй - какие еще варианты могут быть? Коммунизми давно закончился, а при капитализме халява бывает только чтобы посадить вас на иглу и потом от души доить.


    1. Einherjar
      06.11.2025 16:07

      А точно ли будет лучше и/или дешевле?


  1. fiftin_men
    06.11.2025 16:07

    Заблокируйте автору нейронку, пожалуйста


  1. dan_sw
    06.11.2025 16:07

    куда теперь идти разработчикам.

    Моё личное мнение (куда теперь идти разработчикам) - идти и учиться программировать самостоятельно, хотя бы без нейронных сетей и прочего чрезмерно упрощающего процесс разработки бустинга (компиляторы и текстовые редакторы не в счёт). Становится экспертом в программировании, а не "prompt engineering" или "vibe-coding". В таком случае ни одна компания не сможет вам навязать идею, будто без LLM "высокопроизводительная и высокоэффективная" разработка невозможна.

    Люди Linux, Windows писали без LLM, игры серии GTA (это очень большой труд), да сами LLM без LLM сделали, а сейчас стали появляться статьи, в которых обсуждают "проблемы" связанные с появлением платных лимитов на обращение к нейронным сетям.... И как справляться с этой "проблемой" "разработчикам"... Мда...

    Если все LLM в мире разом выйдут из под контроля, сломаются или вовсе будут каким-то образом удалены со всех хостов, что же вы будете делать, товарищ программист? Всем скажете, что вы "разработчик" и что не можете ничего разрабатывать без инструментов? Или, быть может, напишите эти инструменты заново, с нуля?


    1. MountainGoat
      06.11.2025 16:07

      Люди без бензина заселили Европу, без бензина заселили Америку, без бензина наладили торговлю с Китаем – а теперь жалуются, что цены на бензин дорогие.


      1. kenomimi
        06.11.2025 16:07

        Вот-вот, и совсем забыли, как называется вся лошадиная экипировка, не говоря уже о том, что никто не умеет ездить верхом и стрелять из лука... Эх, что за моложежь пошла! /s


    1. alex_lol
      06.11.2025 16:07

      Моё личное мнение (куда теперь идти разработчикам) - идти и учиться программировать самостоятельно

      Ну Вы просто светоч мысли! А то тут никто самостоятельно программировать не умеет!

      20 лет пишу код, последнее время - всё через LLM и вообще больше не хочу возвращаться к ручному написанию кода.

      Машина объективно лучше во всём: она не устаёт, она внимательна к каждой детали, она способна переваривать кучу информации.

      Зачем мне в 101 раз руками набирать текст, который за меня за считаные секунды набирает машина, а моя функция - лишь проверять написанное? Что мне даст это написание кода? Тренировку пальцев рук? Тренировку мозгов? Спасибо, я всю свою сознательную жизнь этим занимался и откровенно скажу, лучше бы тренировал мышцы на теле, а не пальцы - больше пользы было бы.

      Появление LLM можно сравнить с появлением трактора. Раньше люди делали тупую монотонную ручную работу - вспахивали поля киркой. Появился трактор и вам показали, что этот процесс можно упростить, не заниматься больше тупым монотонным трудом, а давать КПД в сотни раз больше. Но вы предлагаете всем и дальше учиться махать киркой. Зачем? ради чего? Ради того, что бы почувствовать себя "настоящим программистом". Ну ок, можете дальше заниматься этим самоутверждением, а профессионалы, которые не один год в разработке, уже не испытывают этих комплексов, нам главное работу сделать да побыстрее вернуться к своим личным делам и хобби.

      Если все LLM в мире разом выйдут из под контроля, сломаются или вовсе будут каким-то образом удалены со всех хостов, что же вы будете делать, товарищ программист?

      Уволюсь и пойду работать на условном тракторе. Потому, что обратного пути нет.

      Вот пример openAPI документации в формате Swagger, один из множества в проекте:

      Скрытый текст
      /**
       * Это эталонный образец схем ресурса для Get/Post/Patch методов.
       * Если ресурс имеет хотя бы один из методов Post/Patch, то необходимо описывать все схемы как в данном образце.
       *
       * В данной схеме мы указываем атрибуты и тип ресурса, она не используется явно в указаниях запросов и ответов:
       *
       * @OA\Schema(
       *     schema="JsonApiUserAttributesSchema",
       *     @OA\Property(property="type", type="string", example="users", description="Тип ресурса",),
       *     @OA\Property(property="attributes", type="object", description="Объект атрибутов ресурса",
       *         @OA\Property(property="creator-id", type="integer", description="ID пользователя-создателя", readOnly=true, example="123",),
       *         @OA\Property(property="last-name", type="string", description="Фамилия пользователя", example="Иванов",),
       *         @OA\Property(property="first-name", type="string", description="Имя пользователя", example="Иван",),
       *         @OA\Property(property="surname", type="string", description="Отчество пользователя", example="Иванович",),
       *         @OA\Property(
       *             property="phone",
       *             type="string",
       *             description="Номер телефона в любом допустимом виде, будет записан и отображён как последовательность из 10 цифр",
       *             example="9991112233",
       *         ),
       *         @OA\Property(
       *             property="phone-formatted",
       *             type="string",
       *             description="Номер телефона отформатированный в международный формат",
       *             pattern="^\+7 \(\d{3}\) \d{3}-\d{2}-\d{2}$",
       *             example="+7 (999) 111-22-33",
       *             readOnly=true,
       *         ),
       *         @OA\Property(
       *             property="email",
       *             type="string",
       *             format="email",
       *             description="Email пользователя",
       *             example="ivan@ivanov.ru",
       *         ),
       *         @OA\Property(property="created-at", type="string", format="date-time", readOnly=true,),
       *         @OA\Property(property="updated-at", type="string", format="date-time", readOnly=true,),
       *     ),
       * ),
       *
       * Данная схема предназначена для ответов, где запрашивается сам ресурс:
       *
       * @OA\Schema(
       *     schema="JsonApiUserSchema",
       *     description="Пользователь",
       *     required={"type", "id", "attributes"},
       *     allOf={
       *         @OA\Schema(ref="#/components/schemas/JsonApiUserAttributesSchema"),
       *         @OA\Schema(ref="#/components/schemas/JsonApiPropertyIdSchema"),
       *         @OA\Schema(ref="#/components/schemas/JsonApiPropertyLinksSchema"),
       *         @OA\Schema(
       *             @OA\Property(
       *                 property="relationships",
       *                 type="object",
       *                 description="Связанные ресурсы",
       *                 @OA\Property(
       *                     property="legal-entities",
       *                     ref="#/components/schemas/JsonApiLegalEntitiesRelationshipToMany",
       *                     readOnly=true
       *                 ),
       *                 @OA\Property(
       *                     property="product-import-files",
       *                     ref="#/components/schemas/JsonApiProductImportFilesRelationshipToMany",
       *                     readOnly=true
       *                 ),
       *                 @OA\Property(
       *                     property="files",
       *                     ref="#/components/schemas/JsonApiFilesRelationshipToMany",
       *                     readOnly=true
       *                 ),
       *                 @OA\Property(
       *                     property="feedbacks",
       *                     ref="#/components/schemas/JsonApiFeedbacksRelationshipToMany",
       *                     readOnly=true
       *                 )
       *             )
       *         )
       *     }
       * ),
       *
       * Данная схема предназначена для создания ресурса:
       *
       * @OA\Schema(
       *     schema="JsonApiUserPostRequestSchema",
       *     description="Запрос на создание пользователя",
       *     required={"type", "attributes"},
       *     allOf={
       *         @OA\Schema(ref="#/components/schemas/JsonApiUserAttributesSchema"),
       *     }
       *  ),
       *
       * Данная схема предназначена для обновления ресурса
       * (отличие от вышестоящей схемы в наличии свойства ID - оно необходимо при обновлении ресурса):
       *
       * @OA\Schema(
       *     schema="JsonApiUserPatchRequestSchema",
       *     description="Запрос на обновление данных пользователя",
       *     required={"id", "type"},
       *     allOf={
       *         @OA\Schema(ref="#/components/schemas/JsonApiUserAttributesSchema"),
       *         @OA\Schema(ref="#/components/schemas/JsonApiPropertyIdSchema"),
       *     }
       * ),
       *
       * Схему допустимых include-параметров ресурса и её описание см. в app/JsonApi/V1/Users/Validators.php
       *
       * Конкретные роуты:
       *
       * @OA\Get(
       *     path="/api/v1/users/{id}",
       *     summary="Получение данных пользователя по ID",
       *     tags={"Пользователи"},
       *     security={{"bearerAuth": {}}},
       *     description="Необходимое разрешение: User.view",
       *     @OA\Parameter(
       *         name="id", in="path", description="ID записи", required=true,
       *         @OA\Schema(type="integer", minimum=1)
       *     ),
       *     @OA\Parameter(
       *         name="include", in="query", description="Аргументы параметра include", style="form", explode=false,
       *         @OA\Schema(ref="#/components/schemas/JsonApiUserIncludeRequestParamsSchema"),
       *     ),
       *     @OA\Response(response=200, description="Данные авторизованного пользователя",
       *         @OA\MediaType(mediaType="application/vnd.api+json",
       *             @OA\Schema(
       *                 @OA\Property(
       *                     property="data", ref="#/components/schemas/JsonApiUserSchema",
       *                 )
       *             )
       *         ),
       *     ),
       *     @OA\Response(response=401, description="Отсутствие аутентификации",
       *         @OA\MediaType(mediaType="application/vnd.api+json",
       *             @OA\Schema(ref="#/components/schemas/JsonApiUnauthenticatedErrorResponse"),
       *         ),
       *     ),
       *     @OA\Response(response=403, description="Отсутствие авторизации",
       *         @OA\MediaType(mediaType="application/vnd.api+json",
       *             @OA\Schema(ref="#/components/schemas/JsonApiUnauthorizedErrorResponse"),
       *         ),
       *     ),
       *     @OA\Response(response=404, description="Запрашиваемый ресурс не найден",
       *         @OA\MediaType(mediaType="application/vnd.api+json",
       *             @OA\Schema(ref="#/components/schemas/JsonApiNotFoundResourceResponse"),
       *         ),
       *     ),
       * ),
       *
       * @OA\Post(
       *     path="/api/v1/users",
       *     tags={"Пользователи"},
       *     summary="Создание Пользователя",
       *     security={{"bearerAuth": {}}},
       *     description="Необходимое разрешение: User.create",
       *     @OA\RequestBody(
       *         required=true,
       *         @OA\MediaType(mediaType="application/vnd.api+json",
       *             @OA\Schema(
       *                 @OA\Property(
       *                     property="data", ref="#/components/schemas/JsonApiUserPostRequestSchema",
       *                 ),
       *             ),
       *         ),
       *     ),
       *     @OA\Response(response=201, description="Ресурс создан",
       *         @OA\MediaType(mediaType="application/vnd.api+json",
       *             @OA\Schema(
       *                 @OA\Property(
       *                     property="data", ref="#/components/schemas/JsonApiUserSchema",
       *                 )
       *             )
       *         ),
       *     ),
       *     @OA\Response(response=401, description="Отсутствие аутентификации",
       *         @OA\MediaType(mediaType="application/vnd.api+json",
       *             @OA\Schema(ref="#/components/schemas/JsonApiUnauthenticatedErrorResponse"),
       *         ),
       *     ),
       *     @OA\Response(response=403, description="Отсутствие авторизации",
       *         @OA\MediaType(mediaType="application/vnd.api+json",
       *             @OA\Schema(ref="#/components/schemas/JsonApiUnauthorizedErrorResponse"),
       *         ),
       *     ),
       *     @OA\Response(response=422, description="Ошибки валидации запроса",
       *         @OA\MediaType(mediaType="application/vnd.api+json",
       *             @OA\Schema(ref="#/components/schemas/JsonApiErrorResponse"),
       *         ),
       *     ),
       * ),
       *
       * @OA\Patch(
       *     path="/api/v1/users/{id}",
       *     tags={"Пользователи"},
       *     summary="Обновление данных Пользователя",
       *     security={{"bearerAuth": {}}},
       *     description="Необходимое разрешение: User.update",
       *     @OA\Parameter(
       *         name="id", in="path", description="ID записи", required=true,
       *         @OA\Schema(type="integer", minimum=1)
       *     ),
       *     @OA\RequestBody(
       *         required=true,
       *         @OA\MediaType(mediaType="application/vnd.api+json",
       *             @OA\Schema(
       *                 @OA\Property(
       *                     property="data", ref="#/components/schemas/JsonApiUserPatchRequestSchema",
       *                 ),
       *             ),
       *         ),
       *     ),
       *     @OA\Response(response=200, description="Ресурс обновлён",
       *         @OA\MediaType(mediaType="application/vnd.api+json",
       *             @OA\Schema(
       *                 @OA\Property(
       *                     property="data", ref="#/components/schemas/JsonApiUserSchema",
       *                 )
       *             )
       *         ),
       *     ),
       *     @OA\Response(response=401, description="Отсутствие аутентификации",
       *         @OA\MediaType(mediaType="application/vnd.api+json",
       *             @OA\Schema(ref="#/components/schemas/JsonApiUnauthenticatedErrorResponse"),
       *         ),
       *     ),
       *     @OA\Response(response=403, description="Отсутствие авторизации",
       *         @OA\MediaType(mediaType="application/vnd.api+json",
       *             @OA\Schema(ref="#/components/schemas/JsonApiUnauthorizedErrorResponse"),
       *         ),
       *     ),
       *     @OA\Response(response=404, description="Запрашиваемый ресурс не найден",
       *         @OA\MediaType(mediaType="application/vnd.api+json",
       *             @OA\Schema(ref="#/components/schemas/JsonApiNotFoundResourceResponse"),
       *         ),
       *     ),
       *     @OA\Response(response=422, description="Ошибки валидации запроса",
       *         @OA\MediaType(mediaType="application/vnd.api+json",
       *             @OA\Schema(ref="#/components/schemas/JsonApiErrorResponse"),
       *         ),
       *     ),
       * ),
       *
       * Relations:
       *
       * @OA\Get(
       *     path="/api/v1/users/{id}/legal-entities",
       *     summary="Получение списка данных юр. лиц по ID авторизованного пользователя",
       *     tags={"Юридические лица"},
       *     security={{"bearerAuth": {}}},
       *     description="Необходимое разрешение: без разрешения",
       *     @OA\Parameter(
       *         name="id", in="path", description="ID записи", required=true,
       *         @OA\Schema(type="integer", minimum=1)
       *     ),
       *     @OA\Parameter(
       *         name="include", in="query", description="Аргументы параметра include", style="form", explode=false,
       *         @OA\Schema(ref="#/components/schemas/JsonApiLegalEntityIncludeRequestParamsSchema"),
       *     ),
       *     @OA\Parameter(
       *         name="filter", in="query", description="Фильтры", style="deepObject", explode=true,
       *         @OA\Schema(ref="#/components/schemas/JsonApiLegalEntityFiltersSchema"),
       *     ),
       *     @OA\Response(response=200, description="Список данных юр. лиц авторизованного пользователя",
       *         @OA\MediaType(mediaType="application/vnd.api+json",
       *             @OA\Schema(
       *                 @OA\Property(property="data", type="array",
       *                     @OA\Items(ref="#/components/schemas/JsonApiLegalEntitySchema",),
       *                 )
       *             )
       *         ),
       *     ),
       *     @OA\Response(response=401, description="Отсутствие аутентификации",
       *         @OA\MediaType(mediaType="application/vnd.api+json",
       *             @OA\Schema(ref="#/components/schemas/JsonApiUnauthenticatedErrorResponse"),
       *         ),
       *     ),
       *     @OA\Response(response=403, description="Отсутствие авторизации",
       *         @OA\MediaType(mediaType="application/vnd.api+json",
       *             @OA\Schema(ref="#/components/schemas/JsonApiUnauthorizedErrorResponse"),
       *         ),
       *     ),
       *     @OA\Response(response=404, description="Запрашиваемый ресурс не найден",
       *         @OA\MediaType(mediaType="application/vnd.api+json",
       *             @OA\Schema(ref="#/components/schemas/JsonApiNotFoundResourceResponse"),
       *         ),
       *     ),
       * ),
       *
       * @OA\Get(
       *     path="/api/v1/users/{id}/product-import-files",
       *     summary="Получение списка данных файлов импорта продуктов юр. лиц по ID авторизованного пользователя",
       *     tags={"Файлы импорта продуктов поставщика"},
       *     security={{"bearerAuth": {}}},
       *     description="Необходимое разрешение: User.readRelationProductImportFiles",
       *     @OA\Parameter(
       *         name="id", in="path", description="ID записи", required=true,
       *         @OA\Schema(type="integer", minimum=1)
       *     ),
       *     @OA\Parameter(
       *         name="include", in="query", description="Аргументы параметра include", style="form", explode=false,
       *         @OA\Schema(ref="#/components/schemas/JsonApiProductImportFileIncludeRequestParamsSchema"),
       *     ),
       *     @OA\Parameter(ref="#/components/parameters/SortParameter"),
       *     @OA\Parameter(ref="#/components/parameters/PaginationParameter"),
       *     @OA\Response(
       *         response=200,
       *         description="Список данных файлов импорта продуктов юр. лица авторизованного пользователя",
       *         @OA\MediaType(mediaType="application/vnd.api+json",
       *             @OA\Schema(
       *                 allOf={
       *                     @OA\Schema(
       *                         @OA\Property(property="data", type="array",
       *                             @OA\Items(ref="#/components/schemas/JsonApiProductImportFileSchema"),
       *                         )
       *                     ),
       *                     @OA\Schema(ref="#/components/schemas/JsonApiPaginationSchema")
       *                 },
       *             ),
       *         ),
       *     ),
       *     @OA\Response(response=401, description="Отсутствие аутентификации",
       *         @OA\MediaType(mediaType="application/vnd.api+json",
       *             @OA\Schema(ref="#/components/schemas/JsonApiUnauthenticatedErrorResponse"),
       *         ),
       *     ),
       *     @OA\Response(response=403, description="Отсутствие авторизации",
       *         @OA\MediaType(mediaType="application/vnd.api+json",
       *             @OA\Schema(ref="#/components/schemas/JsonApiUnauthorizedErrorResponse"),
       *         ),
       *     ),
       *     @OA\Response(response=404, description="Запрашиваемый ресурс не найден",
       *         @OA\MediaType(mediaType="application/vnd.api+json",
       *             @OA\Schema(ref="#/components/schemas/JsonApiNotFoundResourceResponse"),
       *         ),
       *     ),
       * ),
       *
       * @OA\Get(
       *     path="/api/v1/users/{id}/files",
       *     summary="Получение списка данных загруженных файлов по ID авторизованного пользователя",
       *     tags={"Файлы данных"},
       *     security={{"bearerAuth": {}}},
       *     description="Необходимое разрешение: User.readRelationFiles",
       *     @OA\Parameter(
       *         name="id", in="path", description="ID записи", required=true,
       *         @OA\Schema(type="integer", minimum=1)
       *     ),
       *     @OA\Parameter(
       *         name="include", in="query", description="Аргументы параметра include", style="form", explode=false,
       *         @OA\Schema(ref="#/components/schemas/JsonApiFileIncludeRequestParamsSchema"),
       *     ),
       *     @OA\Response(
       *         response=200,
       *         description="Список данных загруженных файлов авторизованного пользователя",
       *         @OA\MediaType(mediaType="application/vnd.api+json",
       *             @OA\Schema(
       *                 @OA\Property(property="data", type="array",
       *                     @OA\Items(ref="#/components/schemas/JsonApiFileSchema",),
       *                 )
       *             )
       *         ),
       *     ),
       *     @OA\Response(response=401, description="Отсутствие аутентификации",
       *         @OA\MediaType(mediaType="application/vnd.api+json",
       *             @OA\Schema(ref="#/components/schemas/JsonApiUnauthenticatedErrorResponse"),
       *         ),
       *     ),
       *     @OA\Response(response=403, description="Отсутствие авторизации",
       *         @OA\MediaType(mediaType="application/vnd.api+json",
       *             @OA\Schema(ref="#/components/schemas/JsonApiUnauthorizedErrorResponse"),
       *         ),
       *     ),
       *     @OA\Response(response=404, description="Запрашиваемый ресурс не найден",
       *         @OA\MediaType(mediaType="application/vnd.api+json",
       *             @OA\Schema(ref="#/components/schemas/JsonApiNotFoundResourceResponse"),
       *         ),
       *     ),
       * ),
       */

      Когда я отписывал код проекта этой галиматьёй несколько лет назад, то просидел две недели по 8-12 часов. У меня таких схем ещё под 50 штук, не считая подсхем. Их нужно все держать в едином формате, проверять на корректность, дополнять и изменять. Без LLM сейчас я бы врос в стул, с LLM я кидаю эталонный образец схемы и схему, которую нужно поправить. И прошу LLM сделать рефаторинг по образу и подобию эталонной схемы. И она делает. Она находит ошибки. Она работает.

      Я не хочу больше выполнять роль машинстки и писать код. Мне гораздо интереснее тратить время на конечную реализацию, проектировать и вайбкодить, повелевать машиной, а не быть самому как машина по набору текста.


      1. orenty7
        06.11.2025 16:07

        она не устаёт, она внимательна к каждой детали, она способна переваривать кучу информации.

        Вы точно не путаете llm с компилятором?


        1. kostoms
          06.11.2025 16:07

          ИИшечка очень чётенько работает по образцу. Задачи, подобные описанной решать с её помощью - сплошное счастье и уже не понимаешь как мы жили в древности, в той далёкой эпохе, когда год назад ИИ был ещё глуповат...