Эта статья - личное мнение автора. Про «вайбкодинг», лимиты и куда теперь идти разработчикам.

Последние полгода мы жили в новой норме: описываешь идею - Codex берёт и делает. Хоть день напролёт. Хоть пять проектов параллельно. Запросы не заканчивались, ритм не ломался, за один вечер можно было уехать далеко.
Что такое Codex и почему это важно
Codex - инструмент для программирования от OpenAI (на базе ChatGPT).
Обычный чат - это когда ты сам вставляешь правки в код по кусочкам: скопировал, вставил, проверил, вернулся, ещё раз. Модель не держит весь проект в голове, сложно «перекинуть мостики» между файлами - особенно заметно на проектах, где больше 5 файлов.
Платформа уровня Codex - другой подход. Она видит проект как систему и проходит по нему шаг за шагом. Представьте книгу «Война и мир». Попросить «обычную нейросеть» переписать целую сюжетную линию - почти нереально: объём, связи, где что поменять - потеряется. А инструмент класса Codex способен зайти в любую главу и сделать всё последовательно: сначала вот здесь, потом там, затем поправить перекрёстные сцены и финал. Это и есть магия настоящего вайбкодинга: правишь всё целиком, а не кусочками.
Всё резко поменялось
С начала ноября 2025 появились лимиты.
Два вида: пятичасовое окно и недельная квота.
Эти лимиты чертовски быстро тают.
На форумах и в реддите в последние дни - типичная картина:
«за час плотной работы сгорело почти всё»,
«недельный лимит - за день»,
«после апдейта лимиты стали строже».
И это не единичные истории - таких тредов сейчас много.
А ведь раньше лимитов не было - теперь они часть продукта.

Почему так?
Железо и деньги. Генерация - это реальные мощности. Когда всем дали «почти безлимит», стало ясно: так платформа не вывезет. Лимиты - способ не положить сервис и не поднимать цену в космос.
Этап продукта. Раньше это было похоже на большой тест: проверяли поведение, собирали кейсы, выпускали фичи, прикинули среднее использование и где поставить ограничители, чтобы люди захотели докупать. Поэтому и казалось «бесплатно и бесконечно» - на деле это был аккуратный шаг, чтобы подсадить на удобство и чтобы уже не хотелось уходить, когда всё настроено и интегрировано.
Сейчас Codex - полноценный продукт. Значит, появляются правила, квоты, тарифы. И монетизация.
Это шире, чем Codex
OpenAI в целом стала осторожнее. Видно по ChatGPT: там, где нужны профильные специалисты, он всё чаще отказывается давать конкретные инструкции. Это не про «не умеет», а про юридические риски - компания страхуется от исков.
В Codex гайки - это про деньги и мощности. В ChatGPT - про ответственность. В сумме выходит общий тренд: пользователей постепенно ограничивают по разным осям.
Чем лимиты бьют по вайбкодингу
Вайбкодинг - это поток. Разгоняешься, перекидываешься с моделью, только на 5-й запрос получаешь то, что просил.
Лимиты ломают ритм:
- длинный рывок превращается в сессии с паузами;
- параллельные мини-проекты мешают друг другу - всё висит на одном счётчике;
- новичкам особенно больно: много лишних шагов - лимит сгорает сразу.
Если раньше я мог в фоне работать над своим стартапом, докидывая задачи периодически, то теперь надо расставлять приоритеты и очень тщательно продумывать каждый запрос - что точно не упрощает жизнь. И помним, что нейронкам свойственно ошибаться - значит, по факту usable-лимит в 3–5 раз меньше.
Что теперь делать - реальные альтернативы Codex

Смотрим по сторонам. Есть инструменты, которые понимают проект целиком и умеют править не один файл, а сразу всё, что нужно:
Cursor - отдельный IDE с ИИ. Понимает контекст проекта, помогает писать и править код «на лету». Быстро завоёвывает команды, в том числе в больших компаниях.
GitHub Copilot + Copilot Workspace - Copilot предлагает правки прямо в редакторе, а Workspace/agent может взять задачу, внести изменения и оформить Pull Request для ревью: по сути, «попросил - получил PR».
Sourcegraph Cody (Auto-edit) - понимает большую кодовую базу и предлагает пакетные правки сразу в нескольких местах и файлах. Удобно для рефакторингов и массовых замен.
JetBrains AI Assistant - встроен в IntelliJ/CLion/PyCharm и т. д. Умеет рефакторить и делать многофайловые диффы, чтобы принимать изменения выборочно.
Replit Agent - три режима: планирует работу, вносит правки и может «строить» фичи сам. Понимает связи между файлами и меняет проект согласованно.
Windsurf Editor - агентный IDE с упором на «поток»: задаёшь цель словами - получаешь последовательные правки по проекту.
Aider (CLI) - минимализм в терминале: ассистент вносит изменения прямо в git-репо, коммитит и двигается дальше. Хорош для быстрых правок без лишнего интерфейса.
И помимо всего перечисленного, можно собрать подобную платформу самому - на локальных нейросетях или через API популярных моделей.
Важно понимать: «писать через обычные нейросети» - можно. Но это ручная сборка: дольше, хлопотнее, меньше шансов аккуратно перетянуть сложный проект без косяков. Платформы типа Codex экономят силы и время именно на больших задачах.
Что будет дальше
Честно - не жду чудес. Возможно, лимиты поднимут или добавят режимы. Но, скорее всего, всё останется в рамках «взрослого» продукта: хочешь больше - плати, либо жди и постоянно думай, что это может и стоит своих денег.
Сейчас можно докупить пакет за 40 баксов на 1000 кредитов(какая-то внутренняя валюта для генерации Codex). На сколько это хватит - покажет только практика, но по предположительным подсчётам от самих же OpenAI, это не так уж и много.
И в этом нет трагедии. Рынок не пустой. Как только появляется ограничение - появляются и те, кто сделает похоже или даже лучше. Мы уже видели, как новые игроки взлетали и обгоняли старых. DeepSeek - живой пример: «вчера никого не знал, а сегодня все обсуждают». Значит, появятся и новые «кодексы» - может, даже с более щедрыми ограничениями.
Итог
Грустно? Да.
Конец вайбкодингу? Нет.
Codex стал зрелым продуктом - вместе с лимитами. «Халяву» замедлили, но не убили. Смотрим по сторонам, пробуем аналоги, комбинируем инструменты - и продолжаем делать проекты в новых реалиях. Будем надеяться, что тенденция «закручивания гаек» не коснётся всего мира нейросетей.
Так же приглашаю вас на свой Телеграмм канал, где я рассказываю про нейросети.
На этом всё! Дальше будет интереснее :) ?
Комментарии (157)

MAXH0
06.11.2025 16:07Замечательная статья от 07/07...и мой коммент ...
Кому лень идти, я ниже скопировал, но ветка обсуждения там интересная. Не знаю насколько правдивая, но интересная. Вывод... Локалка - дорого но можно.
Вы ещё не поняли, что работаете на закрытые корпоративные платформы тестеровщиками?И как только тестирование закончится тарифы сразу же поменяются... Но в разработку открытих инициатив почти ни кто не чешется.

orenty7
06.11.2025 16:07Но в разработку открытих инициатив почти ни кто не чешется.
Во-первых клиенты нейронок совсестимы. Чтобы переехать с закрытой OpenAI в открытую ollama меняется одна строчка:
from openai import ClientНа
from ollama import ClientИ это если не использовалась либа типа litellm скрывающая эти детали.
Во-вторых см. open-webui

MAXH0
06.11.2025 16:07Я имею ввиду несколько другое. Пока все пользуются обученной нейросетью "из каропки". Такой "бог из машины" который прийдет и решит все проблемы. ИМХО Обучение нейросетей не плохо бы не просто распределить, но и федерализировать. Т.е.100500 разных нейросетей, взаимодействующих по единому стандарту, из которых можно собирать "рецепты".
Пока процесс обучения не просто лежит под корпоратами. Он его определяет. Конечно в области программирования это не особенно заметно. Но там где субъективность рулит, там отсутствие идеологической нейтральности нейросети вполне очевидно. Что плохо.Надеюсь, что по мере того, как дотационный пробный период закончится, то сообщество озадачится не только тем, что нейросети нужно запускать, но и обучать. Пока такие решения на уровне прототипов только. Я не слышал ни об одной нейросети полностью обученной на распределенных мощностях за средства сообщества.

yargolubev
06.11.2025 16:07Потому что у пользователей на руках минимум мощностей. Да и загруженная 24/7 видеокарта выйдет из строя. Если не соблюдать тепловой режим, про счет на электрияество я и не говорю, желание поучаствовать в распределенном вычислении у тебя момннтально закончится как только увидишь счет за электричество.

MAXH0
06.11.2025 16:07Как бы люди майнящие биток имели и мощности и счета за электричество.
Точно так же как биток создавался для борьбы с банковской монополией, так и распределенные нейросети должны создаваться для борьбы с корпоративной олигополией на AI
PowerMetall
06.11.2025 16:07Но за биток давали монеты, которые можно было продать за фиат.
А тут предлагается просто так "ушатывать" своё железо, ради "всеобщего блага"Хотяяя, если прикрутить к этому криптомонету какую-нибудь, выйти на биржи, етц... )))

askharitonov
06.11.2025 16:07Есть проекты, где люди предоставляют ресурсы своих компьютеров просто так, потому что считают, что проект правильный. Просто для иллюстрации — distributed.net.

MAXH0
06.11.2025 16:07>>предлагается просто так "ушатывать" своё железо, ради "всеобщего блага"
<< И где вы это у меня прочли? Более того, чуть ниже я пояснил:Деньги идут оттуда же откуда все деньги - от конечных пользователей. Я подразумеваю что-то вроде анонсированного проекта Confidential Compute Open Network Дурова, но с возможностью обучения...
Свободное != Бесплатное. Свободное значит не принадлежащее корпорациям и не манипулирующее пользователем...

ovalsky
06.11.2025 16:07Долго ли они будут совместимы?
Открытый код - это процесс тестирования, поднятие цен это сигнал о конце тестирования. Кто будет развивать открытый код? откуда брать данные и мощности на обучение? Да и скоро выяснится что все модели будут заражены и станут бесполезными.
MAXH0
06.11.2025 16:07Биткоин благополучно доказал, что сообщество готово развивать код и вкладывать мощности в обучение. Деньги идут оттуда же откуда все деньги - от конечных пользователей. Я подразумеваю что-то вроде анонсированного проекта Confidential Compute Open Network Дурова, но с возможностью обучения...
И да, разумеется... Коду недостаточно быть открытым. Он должен быть свободным!
yargolubev
06.11.2025 16:07Всмысле ? Код биткоина поддерживается владельцем. Все остальные только майнят, хрен зная что считая для владельца сети. Ваша независимость это иллюзия.

MAXH0
06.11.2025 16:07и есть масса форков. Главное совместимость на уровне протоколов взаимодействия.

Hlad
06.11.2025 16:07Но в разработку открытих инициатив почти ни кто не чешется
Так проблема не в наличии/отсутствии открытых альтернатив, а в том, где это всё будет крутиться. Альтернатива может быть сколько угодно открытой, но если для нормальной работы нужны несколько десятков топовых видеокарт, бесплатной она не станет.

MAXH0
06.11.2025 16:07Свободное != Бесплатное.
Как раз сейчас корпораты осуществляют демпинг, мешая развитию альтернатив. Именно поэтому, я надеюсь на время "как дотационный пробный период закончится "
Если вас беспокоит, что вы перестаете быть товаром и вынуждены покупать, то это не та проблема, для которой я стал бы искать решение.Зато платность сделает ожидания бизнеса от внедрения ИИ более реалистичными.

Hlad
06.11.2025 16:07Если вас беспокоит, что вы перестаете быть товаром и вынуждены покупать, то это не та проблема, для которой я стал бы искать решение.
Меня как раз это не беспокоит. Но подозреваю, что у очень многих "вайб-кодеров" бизнес-модель строилась именно на бесплатности.

MAXH0
06.11.2025 16:07>> бизнес-модель строилась именно на бесплатности.
<< Это не бизнес модель. Это сиюминутный арбитраж возможностей. Успеть снять сливки пока окно не закрыли.

yargolubev
06.11.2025 16:07Да это было смешно, вон на опенАи уже подали в суд что они в вводят в заблуждение что больше не 'опен' и вообще сменили формать с исследовательской команды, на комерческую

olku
06.11.2025 16:07Ожидаю рост до четверти ставки джуниора если подтянут качество. В статье не упомянут Argument Code, но смысл тот же.

alhimik45
06.11.2025 16:07Имелся в виду Augment Code? Они недавно тоже pricing поменяли, на реддите пишут что раз в 5-6 урезали лимиты за те же деньги

itt1b
06.11.2025 16:07С Claude code Opus это уже произошло, когда вышла Sonnet 4.5. Реддит месяц с ума сходил, вайб-кодеры подписки отменяли.
Думаю, это хорошо - в итоге получается зрелый умнейший инструмент для профессионалов. А генерировать десятками тысяч трэш-проекты становится нерентабельно.

olku
06.11.2025 16:07Есть закон развития технических систем - встраиваемость, функциональная полнота, контролируемость, влияние на человека. Так что специализация неизбежна, сейчас мы только на этапе тестирования прототипов продуктов. Компании кто схватит больше ресурсов смогут развить больше продуктов и имеют больше шансов пережить пузырь. Но за гонку гигантов заплатит все общество, как обычно.

yargolubev
06.11.2025 16:07Пузырь переживут те у кого есть реальное производство.
Тот же амазон пережил пузырь доткомов потому что он имел реальные склады. А не виртуальные.

tester37
06.11.2025 16:07Вырастут не ставки джуноа, а ставки тех кто умеет экономить токены с сохранение перформанса как при безлимите

yargolubev
06.11.2025 16:07Просто переложа эту обязанность на сотрудника. Будет платить из своего кармана

2medic
06.11.2025 16:07JB AI assistant та же ерунда с конца сентября. Тут либо появятся локальные модели адекватного качества, либо придётся вернуться к прежним паттернам разработки. Ну или платить, платить и ещё раз платить.

yargolubev
06.11.2025 16:07А мозги уже привыкли к халяве. Просто так вернуться не получится. Это будет буквально "больно"

lgorSL
06.11.2025 16:07128 Гб DDR4 RAM и можно увидеть что-то около 8 токенов в секунду от minimax-m2 на процессоре и квантизации в 4 бита. И немножко быстрее работает gpt-oss 120b, но она мне не нравится.
Ещё есть всякие Qwen-Coder с экспертами, когда модели на 30миллиардов параметров из которых активных только 3 - они работают шустро даже на процессоре.
По-моему локальные модели становятся всё круче, причём даже с жёсткой квантизацией до трёх бит модель как будто не становится радикально глупее.
Из минусов только то, что скорость заметно ниже и если в формате "вопрос-ответ" это норм, то в формате "посмотри десять файлов" хочется что-то побыстрее - а тогда модель меньше и глупее.
SabMakc
06.11.2025 16:07Minimax-m2, gpt-oss 120b и Qwen3-Coder - они все MoE, с активностью только части параметров.
Ну и есть смысл использовать квант UD-Q2 от unsloth - достаточно неплохо себя показывают )

Suor
06.11.2025 16:07Вот только они намного тупее. Т.е. требуют намного больше ручного управления, настолько, что там однозначно они снижают продуктивность.

souls_arch
06.11.2025 16:07Кто-то реально думал, что будет по другому? Подсадили всех, как на наркотики, бесплатными и условно бесплатными дозами, а цены поднимут еще не раз и лимиты ограничат. Ничего личного, - просто бизнес. Тестовая версия заканчивается. Причем те, кто на своих мощах(железе) купленных за много денех разворачивает AI, тоже имеют и фин издержки и проблемы и дальше будет только веселее. Бесплатный сыр бывает только в мышеловках, как бы избито это фраза не звучала. Тем не менее, многие люди, мелкие предприниматели и, даже, крупные бизнесы реально поверили, что наступила благодать, капитализм лично для них отменяется, и сейчас они начнут грести бабло только лично им подаренными/проданными за копейки волшебными лопатами/ковшами.

obir
06.11.2025 16:07Я тоже смотрю на этот дивный "AI рай" и диву дивлюсь, насколько ощущение очевидное, что они (бизнесы) из пробирок только недавно все повылезали

yargolubev
06.11.2025 16:07Он и отменяется добро пожаловать технофеодализм, где новые феодалы будут стричь тебя на подписки.
Но да. Влияние иишки на мозг подобно наркотикам это буквально наблюдаемый факт

Kapsa-sa
06.11.2025 16:07Было ожидаемо. Пока Codex был тестовым, ресурсы тратили щедро. Теперь пошёл расчёт себестоимости, и OpenAI просто перевела эксперимент в коммерческий режим

yargolubev
06.11.2025 16:07Сэм Альтман говорил что по его расчетам справделивая цена подписки 2000$ в месяц.

uranik
06.11.2025 16:07Дождутся что народ станет скидываться на дорогие видюшки и разворачивать локальные llm

Pemuul Автор
06.11.2025 16:07Прикол Codex в том, что это не просто нейронка, это системный подход
Наверное, это сравнимо с функцией Thinking (обдумывание) у нейронок
С обдумыванием они подходя к задачи системно, с разных сторон, ставя сами себе задачи, а не в тупую генерят ответ
Тут так же, Codex может от одного запроса сделать правки в 20 файлах и создать ещё 10, и это с большой вероятностью сразу заработает и тебе не надо будет руками вставлять код по кусочкам в свой
Пока опенсорс подобных инструментов я не видел
Вот как появятся, вот тогда можно будет подобное заявлять))
И то, это как заявления, что "у себя можно запустить Chat GPT", а по факту запускают очень слабую и тупую нейронку, которую не стоит сравнивать с гигантами рынка

2medic
06.11.2025 16:07Вы описываете функции ассистента. JB AI assistant может "делать правки в 20 файлах и создать ещё 10, и это с большой вероятностью сразу заработает" и использовать при этом локальную модель. Другой вопрос, устроит ли качество выдачи. Ну и ассистент у них стоит отдельных денег.

BadNickname
06.11.2025 16:07My sweet summer child.
https://github.com/QwenLM/qwen-code
Минмакс2, кстати, жует довольно бодро код. Хуже, конечно чем Клод, но достаточно для повседневного уровня, и в отличии от Клода в нем видно когда он начинает творить дичь.
Suor
06.11.2025 16:07Минимакс м2 лепит не работающую кашу. Gemini CLI, который пока бесплатный, намного лучше работает

BadNickname
06.11.2025 16:07Из моего опыта, для питона его хватает, для гошечки тоже, а ревьювать надо вдумчиво что после минимакса, что после gemini.

Suor
06.11.2025 16:07Есть разница всё время руку на пульсе держать и подпинывать или ревьюить, когда уже всё готово в целом. В первом случае, это однозначно роняет продуктивность.
Я его на луа гонял.

anonym0use
06.11.2025 16:07https://huggingface.co/unsloth/Devstral-Small-2505-GGUF
есть такая локальная штука, хз насколько хорошо кодитAgentic coding: Devstral is designed to excel at agentic coding tasks, making it a great choice for software engineering agents.
lightweight: with its compact size of just 24 billion parameters, Devstral is light enough to run on a single RTX 4090 or a Mac with 32GB RAM, making it an appropriate model for local deployment and on-device use.
Apache 2.0 License: Open license allowing usage and modification for both commercial and non-commercial purposes.
Context Window: A 128k context window.
Tokenizer: Utilizes a Tekken tokenizer with a 131k vocabulary size.

no1D
06.11.2025 16:07Плохо кодит, но хорошо Tool calling делает, с Cline дружит.
Гонял на 3090, tok/s не замерял, но точно больше 20.
Практика показывает что модели меньше 100b не годятся как замена современным проприетарным сеткам.
100-250b ещё можно что-то поручать, ну и учитывая что сейчас многие большие сетки MoE - считаются они быстро, просто памяти много жрут. Из последнего хорошие сетки GLM-4.5-Air и GLM-4.6, подключал в Cursor через апишку OpenRouter - это уже вполне вариант.

Shannon
06.11.2025 16:07Такие маленькие модельки мало, что годного могут, особенно на 32к контексте.
Можно запускать OpenAI GPT-OSS-120B или GLM-4.5-Air на домашнем ПК с адекватной скоростью, если есть 64 Гб ОЗУ.


anonym0use
06.11.2025 16:07Спасибо, нужно будет попробовать, у меня как раз такая ситуация, много RAM и слабое видео(8Gb)

Suor
06.11.2025 16:07SWE bench 53% на уровне Gemini Pro 2.5, это очень круто для небольшой модели. До 70-65 у соннета и гпт-5 далеко, конечно

Hlad
06.11.2025 16:07На сколько видюшек придётся скинуться, кто всё это будет обслуживать? Как будут разруливаться форс-мажоры и пики запросов? Там очень много вопросов вылезет.

BadNickname
06.11.2025 16:07На 8.
Хватает одного радиоинженера с высшим образованием.
Подменная мамка, пара цпу, полпачки памяти и два БП полностью закрывают потребности по ЗиПу.
Пики запросов - да никак. Запустили агентов, пускай молотят.

yargolubev
06.11.2025 16:07В рейды на мацнинг центры что бы получить видеокарты которые все подчитую фермеры и скупают для выращивария ии.

MountainGoat
06.11.2025 16:07Тем временем DeepSeek: "Товарищи, мы уменьшаем цены для всех в 4 раза!" Я полностью на него перешёл – уходит до одного доллара в неделю.

Ulyanov-Pavel
06.11.2025 16:07Как можно вообще сравнивать? Кусок кода, возможно, он и сгенерирует, а нормально отдебажить написанный код и при этом, чтобы 10 раз его не пинать, точно нет.
Ну либо я не пробовал какую-то из их моделей, которая "умная".

obir
06.11.2025 16:07А что вы хотели? Хотите повыёживаться - готовьте карту. Я конечно понимаю, что сейчас происходит жёсткий отсев сеньоров и джуниоров, но на так называемый "вайбкодинг" только полагаться - себя ненавидеть

green_fenix
06.11.2025 16:07Странно что среди альтернатив claude code не привели.
Клод это та же идея, только cli-first. Кодекс начинался как облачный инструмент, к которому потом прицепили cli, а клод наоборот - cli инструмент у которого недавно облачная версия появилась.
Там та же самая история с лимитами (сессия 5 часов + недельный лимит), вроде антропик как раз первые ее придумали. Но в отличии от чатгпт есть "средняя" подписка за 100$, которой хватит большинству. Ну и за 200$ совсем мощная.
Не так давно Sonnet 4.5 вышел, на момент выхода считался лучшей моделью для кода. Лучше gpt-5 и отдельной codex модели. Сейчас уже наверняка китайские модели и гугл обогнали, но все еще лучше чатгпт по идее.
Вроде как большинство пользователей кто оба инструмента пробовали считают что клод лучше, но это не точно. Особенно учитывая что проекты у всех разные, и детали использования тоже.

Anti2024
06.11.2025 16:07Sonnet 4.5 на порядок лучше GPT-5 Codex High. Но дороже. Лимит, входящий в $200, заканчивается через 3 недели плотной работы, если совсем плотно - то хватает на 2 недели. Поэтому для мелких задач хватает auto, если затык - переключение на 4.5.

green_fenix
06.11.2025 16:07А вы точно про sonnet? Sonnet это как раз дефолтная модель. По заявлениям антропика 4.5 лучше опуса (дорогая очень большая модель), так что они теперь стараются всех перегнать на соннет, ибо ресурсов меньше сжигает.

talassoft
06.11.2025 16:07да, Claude Сode Max $100, пока вторую неделю полет нормальный, к утру пятницы потрачено всего 52% недельной квоты (впрочем, еще три дня и две ночи)

krendelbok
06.11.2025 16:07Есть opencode, полностью открытый и не привязанный к какому-то вендору, хочешь юзать - просто укажи api key. Или локальный урл к олламе/llama.cpp

Suor
06.11.2025 16:07Гугл свою Про не обновлял ещё, а китайские модели отстают всё-таки. Соннет 4.5 для кодинга сейчас самый топ.
Есть нюансы:
для анализа и составления планов лучше будет gpt-5, опус или даже гемини 2.5 про
для ревью кода когда как
клод на соннете чаще пишет работающий код, но оверинденирит и добавляет много слопа из ненужных ифов и т.п. гпт-5/гемини и много других в этом отношении получше
Однако работающий код со слопом - это неплохо потому что позволяет реже дергать человека, более крупные куски агент делает самостоятельно, и если инструкции сделаны, то и рефакторит, и тестирует, и отлаживает. А человек - это узкое место, так что чем реже его дергать, тем больше продуктивность. Таким образом модели/агенты пишущие код лучше, но менее железобетонно проигрывают.

Anti2024
06.11.2025 16:07Не надо печалиться. Год назад режим auto (бесплатный, безлимитный) не мог ничего. Сейчас - на уровне Sonnet 3.5. Через год будет на уровне Sonnet 4.5 - 5, когда будет какой-нибудь Sonnet 6-7.
Кроме того, Minimax m2 очень горячо дышит им в спину - открытая модель, бери и хости самостоятельно, плати только за VPS, например. И дальше они будут умнее, их будет больше = удешевление, конкуренция, демпинг. Сейчас снимают сливки, пока это окно не закрылось, только и всего.

BadNickname
06.11.2025 16:07плати только за VPS, например.
В варианте с нейронками это таки немножко дорого.

ightingale
06.11.2025 16:07Такая ровная синтетическая гладкость на протяжении всего текста. А формулировки по типу
"Вайбкодинг - это поток. Разгоняешься, перекидываешься с моделью, только на 5-й запрос получаешь то, что просил."или
" Это не про «не умеет», а про юридические риски - компания страхуется от исков."так и кричат о происхождении текста.
Вот это грустно, читать уже тошно такое.
Kelbon
06.11.2025 16:07На хабре примерно 50% полностью чатгпт, ещё большая доля с большим "участием",но это не худшее, потому что есть комментарии на хабре/Ютубе от чатгпт. И это не боты, в люди общаются через прослойку, считая себя хуже ллм

Idakopas
06.11.2025 16:07Определять ЛЛМ‑статьи — ладно, ещё туда‑сюда, но как вы определяете «комментарии от чатгпт», ведь объем текста маловат для анализа? Когда‑то один «детектор» назвал сгенеренными мой коммент и текст «Капитала». Или вы имеете в виду случаи, когда человек сам заявляет «Я плох в выражении своих мыслей, поэтому вот вам копипаста из ЛЛМ»?

Kelbon
06.11.2025 16:07С одной фразы очевидно всегда
Ну или например вот... https://habr.com/ru/articles/963748/comments/#comment_29076668

Cryvage
06.11.2025 16:07Что теперь делать - реальные альтернативы Codex
Научиться программировать самому? Да не, фигня какая-то...

Astrowalk
06.11.2025 16:07Да, забавно выглядит эта паника ☺. Самое интересное, что никто из успешных вайбкодеров почему-то не показывает сам результат: конкретные проекты, программы, их исходный код...

JediPhilosopher
06.11.2025 16:07У меня есть несколько успешных проектов, например:
Плагин для экспорта нужных мне данных для AutoCAD. Я никогда ничего не делал для нее раньше и последний раз писал на C# 15 лет назад. С ChatGPT я справился создать такой плагин за два дня, без него у меня бы неделя-другая ушли на изучение SDK и вспоминание шарпа
Сейчас делаю потихоньку новый фронт для своего проекта по моделированию пешеходных троп https://antroadplanner.ru, копилот за меня пишет весь фронтенд, так как я терпеть не могу JS, не знаю его и не знаю современных UI фреймворков на нем.
Мелкие скрипты, анализ данных на Python - тоже все вайбкодингом делаю. Например, небольшой веб-сервис, который принимает на вход IFC файл (это 3д модель здания) и выдает из него некоторую инфу. Потому что для Python есть актуальные библиотеки по работе с этим форматом, а для джавы - нет. Опять же пара часов вайбкодинга и сервис готов, у меня самого в разы больше времени бы ушло.
Но это все мелкие проекты невидимые снаружи пользователю. Но оно прям работает и доставляет кайф отсутствием необходимости включать мозг и напрягаться. В 37 лет мне уже вообще не хочется напрягаться, меня программирование довольно сильно задолбало, я лучше освободившееся время с сыном проведу или в поход схожу. Поэтому если вайбкодинг исчезнет, я расстроюсь.

VVizard
06.11.2025 16:07У меня такие же мелкие домашние проекты с chargpt которые решают всякие мелкие задачи.
Но в рабочий проект практически не получается вставлять код из gpt, слишком сложно объяснить задачи и контекст, я часто сам понимаю что надо было сделать когда уже сделаю.
Мне нравится проверять и улучшать свой рабочий код с помощью ИИ. Он находит не очевидные ошибки, иногда предлагает интересные оптимизации. Редко когда в работе появляются алгоритмически задачки удобно разбирать их.
Но все же 9
90% это именно мелкие инструменты. За такое жалко платить 200$ в месяц.

Finesse
06.11.2025 16:07Это же инструмент. Представьте, что у вас отняли IDE, и сказали «код можно писать в блокноте».

AndrewBond
06.11.2025 16:07Возможно, настало время алгоритмов "экономии токенов". Т.е., к примеру, не вайбкодить "в лоб", а отрабатывать промпт на дешевых/локальных моделях, и потом, уже готовый, скармливать дорогой LLM. Технология не секретная, конечно, но, многие пренебрегают, ибо "дешевые токены". были.

Dmitry_604
06.11.2025 16:07.е., к примеру, не вайбкодить "в лоб", а отрабатывать промпт на дешевых/локальных моделях, и потом, уже готовый, скармливать дорогой LLM.
Мне кажется тогда уж точно проще самому :) И токенов сэкономишь много

AndrewBond
06.11.2025 16:07Не, не проще. Сначала говоришь "а сделай мне план создания вот такой проги", берешь этот план, проверяешь, вписывешь уточнения, скармливаешь опять LLM на проверку, если всё норм, даешь ей задание по плану сгенерить промпт. Можно между несколькими моделями погонять, пока они не придут к какому-то общему решению.
Самому - много писанины, а тут план вырисовывается постепенно, корректируешь в нужную сторону. Готовый - отдаешь на воплощение.

Moog_Prodigy
06.11.2025 16:07Так план это то, что должно быть у тебя в голове еще до написания промпта. Это же самое простое, можно не знать вообще никакого языка программирования, но примерно понимать, что ты хочешь от будущей программы. На входе вот это, на выходе должно быть вот так, кнопки и поля ввода такие-то. Это даже ребенок понимает. Если есть план, а еще лучше - алгоритм работы, то заложив его в промпт можно получить на выходе годноту без вот этих "ааа нейронки говно, не умеют нифига". Иногда получаются казусы, когда промпт длиннее самой целевой программы, но можно считать llm просто транслятором с человечьего языка на ЯП.
Ладно что все типа на расслабоне, но это уже прям перебор. А нафига мозги тогда такому "вайберу"? Может его тоже заменить нейронкой, чтобы далеко не ходить?

AndrewBond
06.11.2025 16:07но примерно понимать, что ты хочешь от будущей программы.
Фраза "должен понимать" может включать от "вообще уметь программировать" до "учитывать все детали". И каждый может защищать свою точку зрения, понимая фразу по-своему.
Нейронка вот это "примерно" переводит в "подробно". Нейронка накатала план, ты посмотрел, добавил-убавил. Опять прогнал через нейронку, она добавила-убавила и тп. В конце концов говоришь "сделай из этого промпт", она делает, опять проверяешь-исправляешь. И в конце концов этой или другой нейронке скармливаешь промпт на генерацию.
В последнем случае одним вот таким промптом, ИИ минут за 5 нагенерил кода столько, что только набивать его вручную ушло бы полдня.
Пробежал глазами - ровно то, чего ожидал.
Считаю, потраченное на предварительную работу время себя полностью оправдало.но можно считать llm просто транслятором с человечьего языка на ЯП.
В общем да. Но не только.
А нафига мозги тогда такому "вайберу"?
Хороший вопрос. Сразу перекрывает любые аргументы в дискуссии.

Tanasy
06.11.2025 16:07Cloudflare SDK как аналог. Недавно вышел, довольно срочно работает и Cursor Composer 1, которая оперирует моделями. Но у них есть бесплатный пул, остальное за деньги. 20$ съедает где-то за 2-3 дня ярого кодинга

Artemka1987
06.11.2025 16:07Всё идёт по кругу. Ещё двадцать лет назад экономили байты программ. Сейчас экономим токены. Раньше писали код экономя место. Сейчас экономим слова промпта :)

Astrowalk
06.11.2025 16:07Мне кажется, есть существенная разница. Оптимизация кода программы "устойчива", малое изменение приводит к малым последствиям (не должно менять суть реализуемого алгоритма). А удаление части промпта может привести к изменению всех файлов всего проекта, добавлению и удалению файлов, короче — "неустойчиво".

sloww
06.11.2025 16:07Лимиты еще в сентябре были, автор придумал статью из ничего. Кому надо сидит на PRO и там выжрать лимиты достаточно проблематично, что то в районе 50 млн токенов в неделю.

kenomimi
06.11.2025 16:07Когда выйдет в прод полноценно, будет не только сама сетка ооочень платной, но и пунктик в лиц.соглашении появится о том, что сгенеренный код принадлежит барину, а вы
жалкий гойарендатор, который с барского позволения может попользоваться написаным, пока оплачивает подписку. AOL в своем чатике (или аська, или что-то до нее) уже такой пункт имел, что на всё, что опубликовано в чате, AOL получает исключительные права - прокатило вполне, никто не засудил.Я молчу о том, что через такой "вайбкодинг" закрытый код корпоративного проекта расшаривается неограниченому числу заинтересованых лиц, и, скорее всего, будет продаваться так же, как сейчас торгуют персданные и прочую бигдату. Для мелких контор, что делают сайтики Васе Пупкину, оно безразлично, а вот средние и выше заденет очень сильно - стоит тебе придумать фичу, как большой жирный корпорат ее раньше тебя релизит.
Так что любой приличной компании рано или поздно придется или руками писать, или локальную сетку разворачивать.

yargolubev
06.11.2025 16:07"Они украили мою идею что я обсуждал с ии!"
Ты сто лицензионное соглашение не читал, все твои разговоры используются для обучения ии.

010011011000101110101
06.11.2025 16:07руками всё, больше не вариант. никто сейчас не копает землекопами там, где может развернуться экскаватор. те, кто решит писать руками заведомо выберут себе путь лузера.

Astrowalk
06.11.2025 16:07Ну вот, уже заметны признаки деградации. Напомню, наши предки придумали разделение на строчные и заглавные буквы не просто так, от нечего делать.

Neusser
06.11.2025 16:07А для чего?

Astrowalk
06.11.2025 16:07Спросите ChatGPT, что вы как маленький.

Neusser
06.11.2025 16:07Он сказал, что разделение появилось просто так, буквально случайно.

Astrowalk
06.11.2025 16:07...Что не совсем правильно, но допустим. Случайное эволюционное изменение привело к полезной (улучшает читаемость человеком) и прижившейся фиче. И что, теперь всё отменять и реформировать орфографию естественного языка только потому, что кто-то начал общаться только с алгоритмами?

010011011000101110101
06.11.2025 16:07когда нечего сказать, придерись к чему угодно. "а ещё в очках!" :-)))

MountainGoat
06.11.2025 16:07уже такой пункт имел, что на всё, что опубликовано в чате, AOL получает исключительные права
Много кто имел. Спасибо одному суду, который постановил, что одно то, что вы запостили картинку на сервис – не даёт этому сервису право показывать эту картинку другим пользователям. Тогда резко у всех появились такие пункты в соглашениях. Только DMCA помог разрулить эту гуакамолю, и тогда такие пункты стали пропадать.

panzerfaust
06.11.2025 16:07Река уже пронесла труп промпт-инженера - величайшей профессии своего времени. На подходе труп вайбкодера - держателя богов за теститкулы. Продолжаем наблюдения, попкорн далеко не убираем.

010011011000101110101
06.11.2025 16:07Может, пора поднимать ИИ на своих мощностях, благо это доступно? Да, тоже стоит денег и да, в открытом доступе не самые передовые модели. Но иметь своё по своему привлекательно

Moog_Prodigy
06.11.2025 16:07Ну у кого есть средства на это, те и поднимают. Есть чуваки, которым и контейнер А100 купить - как два пальца об асфальт. Но с вами делиться этим кластером они по понятным причинам не будут.

kenomimi
06.11.2025 16:07Чаще всего тому, кто не может развернуть у себя, оно и не надо. Для обучения кожаного использовать ИИ катастрофически вредно, мы сейчас видим, какое качество стажеров на рынке... Мелочевку для себя написать - хватит бесплатных лимитов. А хочешь регулярно для компании кодить, тут или свое покупай, или у поставщика услуг арендуй - какие еще варианты могут быть? Коммунизми давно закончился, а при капитализме халява бывает только чтобы посадить вас на иглу и потом от души доить.

dan_sw
06.11.2025 16:07куда теперь идти разработчикам.
Моё личное мнение (куда теперь идти разработчикам) - идти и учиться программировать самостоятельно, хотя бы без нейронных сетей и прочего чрезмерно упрощающего процесс разработки бустинга (компиляторы и текстовые редакторы не в счёт). Становится экспертом в программировании, а не "prompt engineering" или "vibe-coding". В таком случае ни одна компания не сможет вам навязать идею, будто без LLM "высокопроизводительная и высокоэффективная" разработка невозможна.
Люди Linux, Windows писали без LLM, игры серии GTA (это очень большой труд), да сами LLM без LLM сделали, а сейчас стали появляться статьи, в которых обсуждают "проблемы" связанные с появлением платных лимитов на обращение к нейронным сетям.... И как справляться с этой "проблемой" "разработчикам"... Мда...
Если все LLM в мире разом выйдут из под контроля, сломаются или вовсе будут каким-то образом удалены со всех хостов, что же вы будете делать, товарищ программист? Всем скажете, что вы "разработчик" и что не можете ничего разрабатывать без инструментов? Или, быть может, напишите эти инструменты заново, с нуля?

MountainGoat
06.11.2025 16:07Люди без бензина заселили Европу, без бензина заселили Америку, без бензина наладили торговлю с Китаем – а теперь жалуются, что цены на бензин дорогие.

kenomimi
06.11.2025 16:07Вот-вот, и совсем забыли, как называется вся лошадиная экипировка, не говоря уже о том, что никто не умеет ездить верхом и стрелять из лука... Эх, что за моложежь пошла! /s

alex_lol
06.11.2025 16:07Моё личное мнение (куда теперь идти разработчикам) - идти и учиться программировать самостоятельно
Ну Вы просто светоч мысли! А то тут никто самостоятельно программировать не умеет!
20 лет пишу код, последнее время - всё через LLM и вообще больше не хочу возвращаться к ручному написанию кода.
Машина объективно лучше во всём: она не устаёт, она внимательна к каждой детали, она способна переваривать кучу информации.
Зачем мне в 101 раз руками набирать текст, который за меня за считаные секунды набирает машина, а моя функция - лишь проверять написанное? Что мне даст это написание кода? Тренировку пальцев рук? Тренировку мозгов? Спасибо, я всю свою сознательную жизнь этим занимался и откровенно скажу, лучше бы тренировал мышцы на теле, а не пальцы - больше пользы было бы.
Появление LLM можно сравнить с появлением трактора. Раньше люди делали тупую монотонную ручную работу - вспахивали поля киркой. Появился трактор и вам показали, что этот процесс можно упростить, не заниматься больше тупым монотонным трудом, а давать КПД в сотни раз больше. Но вы предлагаете всем и дальше учиться махать киркой. Зачем? ради чего? Ради того, что бы почувствовать себя "настоящим программистом". Ну ок, можете дальше заниматься этим самоутверждением, а профессионалы, которые не один год в разработке, уже не испытывают этих комплексов, нам главное работу сделать да побыстрее вернуться к своим личным делам и хобби.
Если все LLM в мире разом выйдут из под контроля, сломаются или вовсе будут каким-то образом удалены со всех хостов, что же вы будете делать, товарищ программист?
Уволюсь и пойду работать на условном тракторе. Потому, что обратного пути нет.
Вот пример openAPI документации в формате Swagger, один из множества в проекте:
Скрытый текст
/** * Это эталонный образец схем ресурса для Get/Post/Patch методов. * Если ресурс имеет хотя бы один из методов Post/Patch, то необходимо описывать все схемы как в данном образце. * * В данной схеме мы указываем атрибуты и тип ресурса, она не используется явно в указаниях запросов и ответов: * * @OA\Schema( * schema="JsonApiUserAttributesSchema", * @OA\Property(property="type", type="string", example="users", description="Тип ресурса",), * @OA\Property(property="attributes", type="object", description="Объект атрибутов ресурса", * @OA\Property(property="creator-id", type="integer", description="ID пользователя-создателя", readOnly=true, example="123",), * @OA\Property(property="last-name", type="string", description="Фамилия пользователя", example="Иванов",), * @OA\Property(property="first-name", type="string", description="Имя пользователя", example="Иван",), * @OA\Property(property="surname", type="string", description="Отчество пользователя", example="Иванович",), * @OA\Property( * property="phone", * type="string", * description="Номер телефона в любом допустимом виде, будет записан и отображён как последовательность из 10 цифр", * example="9991112233", * ), * @OA\Property( * property="phone-formatted", * type="string", * description="Номер телефона отформатированный в международный формат", * pattern="^\+7 \(\d{3}\) \d{3}-\d{2}-\d{2}$", * example="+7 (999) 111-22-33", * readOnly=true, * ), * @OA\Property( * property="email", * type="string", * format="email", * description="Email пользователя", * example="ivan@ivanov.ru", * ), * @OA\Property(property="created-at", type="string", format="date-time", readOnly=true,), * @OA\Property(property="updated-at", type="string", format="date-time", readOnly=true,), * ), * ), * * Данная схема предназначена для ответов, где запрашивается сам ресурс: * * @OA\Schema( * schema="JsonApiUserSchema", * description="Пользователь", * required={"type", "id", "attributes"}, * allOf={ * @OA\Schema(ref="#/components/schemas/JsonApiUserAttributesSchema"), * @OA\Schema(ref="#/components/schemas/JsonApiPropertyIdSchema"), * @OA\Schema(ref="#/components/schemas/JsonApiPropertyLinksSchema"), * @OA\Schema( * @OA\Property( * property="relationships", * type="object", * description="Связанные ресурсы", * @OA\Property( * property="legal-entities", * ref="#/components/schemas/JsonApiLegalEntitiesRelationshipToMany", * readOnly=true * ), * @OA\Property( * property="product-import-files", * ref="#/components/schemas/JsonApiProductImportFilesRelationshipToMany", * readOnly=true * ), * @OA\Property( * property="files", * ref="#/components/schemas/JsonApiFilesRelationshipToMany", * readOnly=true * ), * @OA\Property( * property="feedbacks", * ref="#/components/schemas/JsonApiFeedbacksRelationshipToMany", * readOnly=true * ) * ) * ) * } * ), * * Данная схема предназначена для создания ресурса: * * @OA\Schema( * schema="JsonApiUserPostRequestSchema", * description="Запрос на создание пользователя", * required={"type", "attributes"}, * allOf={ * @OA\Schema(ref="#/components/schemas/JsonApiUserAttributesSchema"), * } * ), * * Данная схема предназначена для обновления ресурса * (отличие от вышестоящей схемы в наличии свойства ID - оно необходимо при обновлении ресурса): * * @OA\Schema( * schema="JsonApiUserPatchRequestSchema", * description="Запрос на обновление данных пользователя", * required={"id", "type"}, * allOf={ * @OA\Schema(ref="#/components/schemas/JsonApiUserAttributesSchema"), * @OA\Schema(ref="#/components/schemas/JsonApiPropertyIdSchema"), * } * ), * * Схему допустимых include-параметров ресурса и её описание см. в app/JsonApi/V1/Users/Validators.php * * Конкретные роуты: * * @OA\Get( * path="/api/v1/users/{id}", * summary="Получение данных пользователя по ID", * tags={"Пользователи"}, * security={{"bearerAuth": {}}}, * description="Необходимое разрешение: User.view", * @OA\Parameter( * name="id", in="path", description="ID записи", required=true, * @OA\Schema(type="integer", minimum=1) * ), * @OA\Parameter( * name="include", in="query", description="Аргументы параметра include", style="form", explode=false, * @OA\Schema(ref="#/components/schemas/JsonApiUserIncludeRequestParamsSchema"), * ), * @OA\Response(response=200, description="Данные авторизованного пользователя", * @OA\MediaType(mediaType="application/vnd.api+json", * @OA\Schema( * @OA\Property( * property="data", ref="#/components/schemas/JsonApiUserSchema", * ) * ) * ), * ), * @OA\Response(response=401, description="Отсутствие аутентификации", * @OA\MediaType(mediaType="application/vnd.api+json", * @OA\Schema(ref="#/components/schemas/JsonApiUnauthenticatedErrorResponse"), * ), * ), * @OA\Response(response=403, description="Отсутствие авторизации", * @OA\MediaType(mediaType="application/vnd.api+json", * @OA\Schema(ref="#/components/schemas/JsonApiUnauthorizedErrorResponse"), * ), * ), * @OA\Response(response=404, description="Запрашиваемый ресурс не найден", * @OA\MediaType(mediaType="application/vnd.api+json", * @OA\Schema(ref="#/components/schemas/JsonApiNotFoundResourceResponse"), * ), * ), * ), * * @OA\Post( * path="/api/v1/users", * tags={"Пользователи"}, * summary="Создание Пользователя", * security={{"bearerAuth": {}}}, * description="Необходимое разрешение: User.create", * @OA\RequestBody( * required=true, * @OA\MediaType(mediaType="application/vnd.api+json", * @OA\Schema( * @OA\Property( * property="data", ref="#/components/schemas/JsonApiUserPostRequestSchema", * ), * ), * ), * ), * @OA\Response(response=201, description="Ресурс создан", * @OA\MediaType(mediaType="application/vnd.api+json", * @OA\Schema( * @OA\Property( * property="data", ref="#/components/schemas/JsonApiUserSchema", * ) * ) * ), * ), * @OA\Response(response=401, description="Отсутствие аутентификации", * @OA\MediaType(mediaType="application/vnd.api+json", * @OA\Schema(ref="#/components/schemas/JsonApiUnauthenticatedErrorResponse"), * ), * ), * @OA\Response(response=403, description="Отсутствие авторизации", * @OA\MediaType(mediaType="application/vnd.api+json", * @OA\Schema(ref="#/components/schemas/JsonApiUnauthorizedErrorResponse"), * ), * ), * @OA\Response(response=422, description="Ошибки валидации запроса", * @OA\MediaType(mediaType="application/vnd.api+json", * @OA\Schema(ref="#/components/schemas/JsonApiErrorResponse"), * ), * ), * ), * * @OA\Patch( * path="/api/v1/users/{id}", * tags={"Пользователи"}, * summary="Обновление данных Пользователя", * security={{"bearerAuth": {}}}, * description="Необходимое разрешение: User.update", * @OA\Parameter( * name="id", in="path", description="ID записи", required=true, * @OA\Schema(type="integer", minimum=1) * ), * @OA\RequestBody( * required=true, * @OA\MediaType(mediaType="application/vnd.api+json", * @OA\Schema( * @OA\Property( * property="data", ref="#/components/schemas/JsonApiUserPatchRequestSchema", * ), * ), * ), * ), * @OA\Response(response=200, description="Ресурс обновлён", * @OA\MediaType(mediaType="application/vnd.api+json", * @OA\Schema( * @OA\Property( * property="data", ref="#/components/schemas/JsonApiUserSchema", * ) * ) * ), * ), * @OA\Response(response=401, description="Отсутствие аутентификации", * @OA\MediaType(mediaType="application/vnd.api+json", * @OA\Schema(ref="#/components/schemas/JsonApiUnauthenticatedErrorResponse"), * ), * ), * @OA\Response(response=403, description="Отсутствие авторизации", * @OA\MediaType(mediaType="application/vnd.api+json", * @OA\Schema(ref="#/components/schemas/JsonApiUnauthorizedErrorResponse"), * ), * ), * @OA\Response(response=404, description="Запрашиваемый ресурс не найден", * @OA\MediaType(mediaType="application/vnd.api+json", * @OA\Schema(ref="#/components/schemas/JsonApiNotFoundResourceResponse"), * ), * ), * @OA\Response(response=422, description="Ошибки валидации запроса", * @OA\MediaType(mediaType="application/vnd.api+json", * @OA\Schema(ref="#/components/schemas/JsonApiErrorResponse"), * ), * ), * ), * * Relations: * * @OA\Get( * path="/api/v1/users/{id}/legal-entities", * summary="Получение списка данных юр. лиц по ID авторизованного пользователя", * tags={"Юридические лица"}, * security={{"bearerAuth": {}}}, * description="Необходимое разрешение: без разрешения", * @OA\Parameter( * name="id", in="path", description="ID записи", required=true, * @OA\Schema(type="integer", minimum=1) * ), * @OA\Parameter( * name="include", in="query", description="Аргументы параметра include", style="form", explode=false, * @OA\Schema(ref="#/components/schemas/JsonApiLegalEntityIncludeRequestParamsSchema"), * ), * @OA\Parameter( * name="filter", in="query", description="Фильтры", style="deepObject", explode=true, * @OA\Schema(ref="#/components/schemas/JsonApiLegalEntityFiltersSchema"), * ), * @OA\Response(response=200, description="Список данных юр. лиц авторизованного пользователя", * @OA\MediaType(mediaType="application/vnd.api+json", * @OA\Schema( * @OA\Property(property="data", type="array", * @OA\Items(ref="#/components/schemas/JsonApiLegalEntitySchema",), * ) * ) * ), * ), * @OA\Response(response=401, description="Отсутствие аутентификации", * @OA\MediaType(mediaType="application/vnd.api+json", * @OA\Schema(ref="#/components/schemas/JsonApiUnauthenticatedErrorResponse"), * ), * ), * @OA\Response(response=403, description="Отсутствие авторизации", * @OA\MediaType(mediaType="application/vnd.api+json", * @OA\Schema(ref="#/components/schemas/JsonApiUnauthorizedErrorResponse"), * ), * ), * @OA\Response(response=404, description="Запрашиваемый ресурс не найден", * @OA\MediaType(mediaType="application/vnd.api+json", * @OA\Schema(ref="#/components/schemas/JsonApiNotFoundResourceResponse"), * ), * ), * ), * * @OA\Get( * path="/api/v1/users/{id}/product-import-files", * summary="Получение списка данных файлов импорта продуктов юр. лиц по ID авторизованного пользователя", * tags={"Файлы импорта продуктов поставщика"}, * security={{"bearerAuth": {}}}, * description="Необходимое разрешение: User.readRelationProductImportFiles", * @OA\Parameter( * name="id", in="path", description="ID записи", required=true, * @OA\Schema(type="integer", minimum=1) * ), * @OA\Parameter( * name="include", in="query", description="Аргументы параметра include", style="form", explode=false, * @OA\Schema(ref="#/components/schemas/JsonApiProductImportFileIncludeRequestParamsSchema"), * ), * @OA\Parameter(ref="#/components/parameters/SortParameter"), * @OA\Parameter(ref="#/components/parameters/PaginationParameter"), * @OA\Response( * response=200, * description="Список данных файлов импорта продуктов юр. лица авторизованного пользователя", * @OA\MediaType(mediaType="application/vnd.api+json", * @OA\Schema( * allOf={ * @OA\Schema( * @OA\Property(property="data", type="array", * @OA\Items(ref="#/components/schemas/JsonApiProductImportFileSchema"), * ) * ), * @OA\Schema(ref="#/components/schemas/JsonApiPaginationSchema") * }, * ), * ), * ), * @OA\Response(response=401, description="Отсутствие аутентификации", * @OA\MediaType(mediaType="application/vnd.api+json", * @OA\Schema(ref="#/components/schemas/JsonApiUnauthenticatedErrorResponse"), * ), * ), * @OA\Response(response=403, description="Отсутствие авторизации", * @OA\MediaType(mediaType="application/vnd.api+json", * @OA\Schema(ref="#/components/schemas/JsonApiUnauthorizedErrorResponse"), * ), * ), * @OA\Response(response=404, description="Запрашиваемый ресурс не найден", * @OA\MediaType(mediaType="application/vnd.api+json", * @OA\Schema(ref="#/components/schemas/JsonApiNotFoundResourceResponse"), * ), * ), * ), * * @OA\Get( * path="/api/v1/users/{id}/files", * summary="Получение списка данных загруженных файлов по ID авторизованного пользователя", * tags={"Файлы данных"}, * security={{"bearerAuth": {}}}, * description="Необходимое разрешение: User.readRelationFiles", * @OA\Parameter( * name="id", in="path", description="ID записи", required=true, * @OA\Schema(type="integer", minimum=1) * ), * @OA\Parameter( * name="include", in="query", description="Аргументы параметра include", style="form", explode=false, * @OA\Schema(ref="#/components/schemas/JsonApiFileIncludeRequestParamsSchema"), * ), * @OA\Response( * response=200, * description="Список данных загруженных файлов авторизованного пользователя", * @OA\MediaType(mediaType="application/vnd.api+json", * @OA\Schema( * @OA\Property(property="data", type="array", * @OA\Items(ref="#/components/schemas/JsonApiFileSchema",), * ) * ) * ), * ), * @OA\Response(response=401, description="Отсутствие аутентификации", * @OA\MediaType(mediaType="application/vnd.api+json", * @OA\Schema(ref="#/components/schemas/JsonApiUnauthenticatedErrorResponse"), * ), * ), * @OA\Response(response=403, description="Отсутствие авторизации", * @OA\MediaType(mediaType="application/vnd.api+json", * @OA\Schema(ref="#/components/schemas/JsonApiUnauthorizedErrorResponse"), * ), * ), * @OA\Response(response=404, description="Запрашиваемый ресурс не найден", * @OA\MediaType(mediaType="application/vnd.api+json", * @OA\Schema(ref="#/components/schemas/JsonApiNotFoundResourceResponse"), * ), * ), * ), */Когда я отписывал код проекта этой галиматьёй несколько лет назад, то просидел две недели по 8-12 часов. У меня таких схем ещё под 50 штук, не считая подсхем. Их нужно все держать в едином формате, проверять на корректность, дополнять и изменять. Без LLM сейчас я бы врос в стул, с LLM я кидаю эталонный образец схемы и схему, которую нужно поправить. И прошу LLM сделать рефаторинг по образу и подобию эталонной схемы. И она делает. Она находит ошибки. Она работает.
Я не хочу больше выполнять роль машинстки и писать код. Мне гораздо интереснее тратить время на конечную реализацию, проектировать и вайбкодить, повелевать машиной, а не быть самому как машина по набору текста.

orenty7
06.11.2025 16:07она не устаёт, она внимательна к каждой детали, она способна переваривать кучу информации.
Вы точно не путаете llm с компилятором?

kostoms
06.11.2025 16:07ИИшечка очень чётенько работает по образцу. Задачи, подобные описанной решать с её помощью - сплошное счастье и уже не понимаешь как мы жили в древности, в той далёкой эпохе, когда год назад ИИ был ещё глуповат...

gonitrafik
Очевидно рано или поздно это должно было случится, будут лимиты и на запросы . Они уже есть, просто скрытые
Kapsa-sa
Это стандартная эволюция сервиса. Сначала тянут до упора, потом вводят квоты и делают их видимыми
yargolubev
А потом такие всмысле у клиента нет денег что оплачивать 10 подписок в месяц по 2000$!?
Remigrant
tsya.ru
lam0x86
Вообще не очевидно. Я заплатил за сервис на год и ожидаю, что он будет как минимум не ухудшаться. А вообще, были ожидания, что он наоборот будет улучшаться за счет конкуренции. Но похоже, что все сервисы стали закручивать гайки. С месяц назад у Клода была такая же резкая деградация. Посыпался топ - начали сыпаться остальные. Печаль.
Jacov911
Клод на 100$ подписке даёт лимитов за глаза
lam0x86
На реддите много жалоб, что даже по подписке за $200 люди постоянно утыкаются в лимиты. Вот пример: https://www.reddit.com/r/ClaudeAI/comments/1o139ew/claude_code_200_plan_limit_reached_and_cooldown/
Я тоже с этим столкнулся. Раньше лимиты были гораздо менее строгими, а когда вышел Опус, Сонет резко ухудшили.
Jacov911
Вы знаете, я вот юзаю очень активно соннет , и в десуктопе и в клодкоде, и лимиты выхватываю Только если переюзываю опус.
Более того, на мой взгляд в прикладных задачах опус стал проигрывать и ощутимо.
Просто надо с "автовыбора" модельки перейти на "ручку" - соннет.
Опус только для генерации claude md + prd txt использую или отладки чего-то объемного и сложного, что не смог переварить соннет