Итак, Cursor поменял тарифы.

Как они в действительности работают — это всё ещё загадка, потому что они указали примерное количество запросов, на которые можно рассчитывать, но почему-то каждый день это немного обновляется. То есть даже если ты попал на лимит, то на следующий день у тебя добавится ещё немного запросов. Но прозрачности тут нет

Кто не в курсе - раньше было 500 запросов за $20, что честно и понятно. Потом вдруг стал полный безлимит за $20, а затем Anysphere (разработчики Cursor) резко сказали, что якобы безлимит они давали только на режим авто (а там модель самая дешёвая), а в от на другие модели есть какие-то лимиты, но какие - не уточнили, пока коммьнити не разозлилось. В итоге оказалось, что за те же деньги сейчас можно себе позволит в 1.5-2 раза меньше, при этом появились тарифы за 60 и 200 usd.

• Кроме того, если у тебя кончились запросы Claude-4, то можно переключиться на grok-4 или gpt-o3 и ещё какое-то время пользоваться ими (но сколько запросов сверху — не ясно)

• Я переходил на тариф за $60 и далее целую неделю работал на Claude-4 sonnet Max, и было всё хорошо, но вот вчера я снова попал на лимиты. И если бы я взял тариф за $200, то скорее всего тоже бы попал на лимиты, только недели через 3–3,5, кроме того, он не даёт свободы использования Opus-4. Наверное, там ежедневно я бы мог рассчитывать на 15–20 запросов, а не 2–3, как сейчас, но это всё равно смешно (только что увидел, вот тут человек написал, что за 1 ночь достиг лимитов в тарифе за $200!)

Так что же делать? Если не идти во всякие веб-платформы, которых появилось немерено + codex/jules от OpenAI и Google, а хочется что-то типа IDE, то действительно проработанных вариантов несколько (как я вижу сам)

  1. Windsurf — эти ребята остались на концепте $15 = 500 запросов. Но у них Claude можно использовать только через свой API-ключ, что достаточно затратно. Кроме того, их интерфейс лично мне кажется менее удобным. Их модели субъективно хуже ориентируются в кодовой базе, чем Cursor

  2. Github Copilot — по качеству также ниже Cursor, а предлагает точно такую же непрозрачную модель с лимитами. Единственный плюс — полный безлимит на GPT-4.1, но я бы не назвал эту модель продвинутой для разработки, она заметно уступает sonnet-4 даже без max-режима и без режима размышлений

  3. Cline (устанавливается как расширение в VS Code или Cursor) сам по себе полностью бесплатен, но тут основной вариант работы — это использование своих API-ключей от разных поставщиков LLM-моделей. Самое удобное — использовать openrouter, там есть все доступные по API модели. Самое интересное — его можно использовать с Claude code ключами, но с ограничениями — не будет принимать картинки или искать в интернете
    Также удобен как расширение Traycer, но он скорее про планирование, чем про кодинг

  4. Claude code а вот это находка. Да, он существует в терминале, и это не так удобно (допустим, ты не видишь построчно, что поменялось, и не можешь в каждом файле откатывать изменения, как в Cursor), и многие пытаются что-то с этим сделать, создавая неофициальные расширения для IDE или веб-оболочку (Claudia), которые всё равно не дают удобства полноценного IDE

Однако:

Claude code даёт понятные лимиты (после 1–2 итераций ты понимаешь предел + он прогнозируемо сбрасывается через несколько часов)

Он работает лучше, чем Claude 4 в Cursor. Лучше понимает задачу, лучше понимает структуру кодовой базы, по умолчанию планирует и тестирует

На тарифе за $100 почти безлимитно (в течение ~5 часов подряд с перезагрузкой лимитов через несколько часов) можно гонять Claude sonnet 4, а на тарифе за $200 даже Claude Opus 4 можно почти без лимита гонять с такой же часовой логикой

На мой взгляд, сейчас оптимальный вариант для активного вайбкодера выглядит так —

  1. Claude Code от $100

  2. планирование traycer (1 раз в час бесплатно) или task-master (бесплатно на данный момент)

  3. Cursor за $20 для удобных безлимитных автодополнений + при необходимости он даёт доступ к gpt-o3 (хорош для дебаггинга) и gemini-2.5 (хорош в документации/планировании благодаря большому контекстному окну). Иметь 100-200 запросов на эти модели очень полезно

Ну и совсем идеально — coderabbit для код-ревью ($15 за 1 аккаунт) и lovable для быстрого создания фронтенда (тут 5 запросов в день бесплатно, что даже может хватать)

Итого от $135 в месяц (~11 тыс руб) — и ты в почти безлимитном всеоружии вайбкодинга

(если нравится новая Kimi2, то в Claude Code можно Claude заменить на Kimi, но пока такой вариант не тестировал)


Мой тг-канал по ии-стартапам и вайб-коду

Комментарии (77)


  1. MAXH0
    14.07.2025 16:24

    Вы ещё не поняли, что работаете на закрытые корпоративные платформы тестеровщиками?И как только тестирование закончится тарифы сразу же поменяются... Но в разработку открытих инициатив почти ни кто не чешется.


    1. peresvets12 Автор
      14.07.2025 16:24

      на крайний случай можно будет развернуть kimi или deepseek и через ollama подрубиться в cline и использовать это в обход тарифов всех платформ. В итоге это будет без корпоративных платформ, как вы сказали. Но это геморрно, поэтому это и крайний случай. А так, лично мне и моей команде это сильно помогает в тестах, документации, простых фичах, проектировании, багфиксинге и так далее

      Хотя, безусловно, они косячат и пока разработчиков не заменят, особенно когда речь идёт про сложные функции


      1. SabMakc
        14.07.2025 16:24

        Kimi или deepseek локально - нужно оперативы с пол-терабайта как минимум. Да и скорость работы будет очень "не очень". Вариант может и рабочий, но не сильно масштабируемый локально.


        1. peresvets12 Автор
          14.07.2025 16:24

          поэтому я и написал, что это крайний случай. Но у меня в канале как раз про такое человек в комментариях спрашивал, поэтому кому-то это видимо уже сейчас нужно


          1. SabMakc
            14.07.2025 16:24

            Да и на хабре уже неоднократно писали, так что рецепт известен - AMD EPYC 7002 + 512Gb DDR4 дает около 3-4 т/сек для deepseek в Q4 кванте, если не ошибаюсь.
            Добавить RTX 3090 - будет быстрее процентов на 50.

            Kimi v2, судя по всему, даст схожие цифры, может чуть быстрее даже - активных параметров у нее 32b вместо 37b у deepseek. Но и в 512Gb Kimi v2 Q4 не влезает уже...

            И стоит это порядка 250к на вторичном рынке.

            Для полноценной работы этого маловато будет, даже если экстремально малые кванты использовать (что еще может ускорить раза в 1.5, но и качество ниже, а главное - есть тесты, что ответы объемнее становятся, так что ждать приходится даже дольше, см https://habr.com/ru/articles/919452/).

            Альтернативный вариант (если бюджет позволяет) - смотреть на Mac Studio M3 Ultra на 512Gb, будет шустрее раза в 2-3 (но и дороже раза в 4-5).


            1. MANAB
              14.07.2025 16:24

              А если взять RTX PRO 6000 92GB? Да, дорого, но и шустро.


              1. SabMakc
                14.07.2025 16:24

                Нужно чтобы вся модель влезала в VRAM (и под кеши оставалось место) - тогда будет быстро. Для deepseek надо 5-6 таких карт (навскидку, скорее даже больше) - что сильно небюджетно получится.

                По цене одной RTX PRO 6000 как раз примерно выходит Mac Studio M3 Ultra на 512Gb - так что я бы Mac Studio предпочел (для личного использования).

                Если сравнивать пропускную способность памяти (где узкое место в выводе), то у Mac Studio она где-то в два раза ниже - так что RTX PRO 6000 не сказать что на порядок лучше будет. Но Mac Studio выйдет на порядок дешевле (или около того).

                Если речь о корпоративном использовании на много пользователей (и в пакетном режиме) - то 512Gb памяти не хватит, скорее всего. Так что в пачке RTX PRO 6000, возможно, и есть резон - но я не копал в этом направлении. Так что это оценка очень "на вскидку".


        1. max-daniels
          14.07.2025 16:24

          У меня RTX 4090 + Jetbrains Rider/Clion + LMStudio/Ollama + devstral. Работает локально, быстро, но по качеству конечно не сравнится с "большими" моделями. Но лично мне хватает, я использую нейросети чисто для помощи(аля stackoverflow) при затыках.


          1. SabMakc
            14.07.2025 16:24

            По моему опыту - devstral неплох, но у него проблемы с пониманием русского языка.
            Лично мой фаворит - Qwen3-30B-A3B с /no_think. Очень быстро работает даже на CPU, с русским проблем нет, по качеству если и уступает, то совсем немного.

            Иногда сравниваю один и тот же запрос на Qwen3 / devstral / deepseek (v3, иногда и r1 подключаю).
            И в большинстве случаев - или все проваливались в моем вопросе, или Qwen3 справлялся неплохо. Было достаточно немного ситуаций, где Qwen3 провалился, а deepseek справился.

            Devstral обычно именно на понимании языка заваливается - сделает как надо, но какой-то нюанс упорно не хочет понимать и делает по своему. Свежайший пример - попросил накидать bash-скрипт - справился отлично (лучше чем qwen3, к слову). Но не смог убрать комментарии из скрипта, когда его об этом попросили.


          1. Esmoret
            14.07.2025 16:24

            MCP сервер, что бы rider файлики проекта/выделенный текст/схемы бд в контекст запроса подгружал сами писали или уже готовые появились?


    1. vikarti
      14.07.2025 16:24

      Как вариант:Roocode(ну или Cline) + Deepseek R1-0528/V3 Free (1k запросов бесплатно в день с Openrouter'а. Я помню что там по умолчанию 50 запросов бесплатно, читайте внимательно условия) либо + Featherless AI план за 25 USD в меся(там R1-0528 есть но при этом - жестко лимит на 1 одновременный запрос дипсика и прочих тяжелых моделей, если что-то 7-13B то больше, и у того дисика - 32K лимит контекста).

      Ну и по желанию - через Docker ставим LibreChat c LiteLLM и прочим и цепляем Roocode через него. Имеем ChatGPT-style +интерфейс + логгирование/повторы запросов и прочее.

      Если надо Android - ProxyAI / AI Coding

      Если надо совсем свое - думаем как поднять Deepseek на своем (хоть в каком то смысле) железе или идем на Qwen3 хоть. "Свое" железо - может быть и Runpod например (есть там serverless интерфейс, с очень быстрым (секунды) запуском пода и посекундной тарификаций, другое дело что с single-user режиме - мне кажется дешевле будет хоть openrouter хоть requesty хоть vsegpt/proxyapi).


    1. SabMakc
      14.07.2025 16:24

      Открытых инициатив достаточно. Открытые LLM, открытые агенты - чего именно не хватает?
      Да, в чем-то хуже по качеству, не столь отточено работают. Но и сфера достаточно свежая, конкуренции хватает. Так что не вижу недостатка в открытых инициативах.


    1. defin85
      14.07.2025 16:24

      А где вы возьмёте 5000 GPU чтобы запускать открытую модель?


  1. DarthVictor
    14.07.2025 16:24

    допустим, ты не видишь построчно, что поменялось, и не можешь в каждом файле откатывать изменения, как в Cursor

    Я использую такой способ даже с запросами из Курсора:

    1. включаю правила на примение всех изменений и запрещаю Клоду трогать комманды гит (это можно один раз в правила прописать)

    2. добавляю все файлы в staging перед запросом Интерфейс просмотра изменений через гит-лесс мне тупо больше нравится, в сравнение с курсоровским.


  1. colombo07
    14.07.2025 16:24

    2025й год - разработчики разучились писать код самостоятельно.


    1. 0xC0CAC01A
      14.07.2025 16:24

      1975й год - разработчики разучились писать в машинных кодах
      2000й год - разработчики разучились писать на ассемблере


      1. bak
        14.07.2025 16:24

        3000й год до нашей эры - люди разучились выполнять арифметику в уме и начали использовать счеты


        1. edo1h
          14.07.2025 16:24

          люди уже давно разучились считать в уме.

          я сам в студенческие годы считал чеки в магазинах на автомате, сейчас так не могу.
          мешает ли это мне? да нисколько


      1. spirit1984
        14.07.2025 16:24

        Есть, однако, одна небольшая, но существенная разница. Разработчики разучились писать на низком уровне в массе своей, потому что они могли писать на языках высокого уровня, но все тулзы для этого не могли быть отключены по щелчку пальца. Невозможно представить ситуацию, что Керниган с Ричи вдруг заявят "Так, ребят, вы тут все теперь на Си пишете, а ну заносите нам бабла", и для пущего эффекта отключат всем компиляторы языка Си.


      1. suslovas
        14.07.2025 16:24

        40025 год - техножрецы поклоняются духу машины, совершая ритуалы эпохи темной эры технологий, смысл которых утерялся во времени.


        1. 0xC0CAC01A
          14.07.2025 16:24

          Дык уже: бессмысленно засовывают докер, ООП, ORM и ещё кучу всего куды ни попадя


    1. dan_sw
      14.07.2025 16:24

      Не, не говорите за всех разработчиков (кто-то ими даже не является в наше хAIповое время) :) Кому действительно нравится программирование, тот всё ещё пишет программный код (самостоятельно) и прекрасно себя чувствует, даже когда есть продвинутые LLM.


      1. bromzh
        14.07.2025 16:24

        Так а в чем кайф? Если буковки печатать - то можно просто перепечатывать книги. ЛЛМ сейчас - просто продвинутая печатная машинка со встроенным стековерфлоу.

        Набросал идею в одном файле - попросил нейронку порефактрить, чтобы красиво было. Потом попросил тесты накатать. Вся рутина компуктеру, тебе же остается только писать самую суть, не отвлекаясь на особенности языков. Ошибки лечатся быстрее. Сиди да давай команды - остается только кодревью сделать. Но вот давать осмысленные команды без опыта программирования не получится пока. Так что на мой взгляд, нейронки как раз таки оставляют весь кайф от программирования, при этом убирая скучные вещи


        1. dan_sw
          14.07.2025 16:24

          Так а в чем кайф?

          Ну, если Вы не видите в программировании "кайфа" (или оно просто не доставляет Вам особенного удовольствия), то Я, наверное, ничего тут Вам не объясню.

          Я просто из тех людей, кому сам этот процесс программирования доставляет удовольствие. С 9-го класса мечтаю стать "тем самым программистом" :) Пока что с переменным успехом. Ещё не стал, а уже профессию выкидывают за борт и лишают её будущего.

          Вся рутина компуктеру, тебе же остается только писать самую суть, не отвлекаясь на особенности языков

          Да многие так говорят... но, я не верю в это. Потому что рутиной человек может сделать всё что угодно. Рутину берёт на себя, рутину ИИ быстро решит, рутину, рутину... для кого рутина, а для кого - ценный коммерческий опыт. Скоро ничего кроме рутины такими темпами не останется. "Писать саму суть, а ИИ отдать рутину" - просто отговорка или идея, которая призвана адаптировать человека-программиста к неизбежному - ликвидации специализации как таковой.

          Так что на мой взгляд, нейронки как раз таки оставляют весь кайф от программирования, при этом убирая скучные вещи

          Ну... кому-как :) Не могу представить, чтобы мне нравилось копипастить код от LLM и гордо утверждать, что я решил какую-то задачу... лучше, когда сам обладаешь огромной базой знаний в своей голове, пишешь программный код решающий определённую задачу, понимаешь как устроены многие паттерны, алгоритмы и т.д. Но это моё мнение.


  1. cyberscoper
    14.07.2025 16:24

    В курсор все еще можно откатиться на старый формат тарифного плана)

    Через настройки в личном кабинете, держу в курсе


    1. LaserTower
      14.07.2025 16:24

      Есть ли возможность в курсор использовать локальную модель бесплатно?


      1. cyberscoper
        14.07.2025 16:24

        Вот прям сейчас взглянул и видимо это не возможно)


        1. holgw
          14.07.2025 16:24

          Пункт меню "Override OpenAI Base URL" наверняка позволяет прокинуть ссылку на http://127.0.0.1:1234 и подключиться к локальной модели, развернутой в Ollama\LM Studio (они оба совместимы с OpenAI).


          1. cyberscoper
            14.07.2025 16:24

            По идее да, но я не буду так заморачиваться да и железо у меня не то.


          1. MrCrooK
            14.07.2025 16:24

            Не получится. Не даёт он указать локалхост, только если она ь через какой то прокси, например ngrok


            1. Egrace
              14.07.2025 16:24

              /etc/hosts ?


              1. molnij
                14.07.2025 16:24

                Насколько я помню, запрос от вас идет на сервер курсора, там дополняется, идет на сервер LLM и потом только возвращается к вам, т.е. хост с LLM должен быть открыт для доступа снаружи


        1. dotnetfx40
          14.07.2025 16:24

          Это что за гуй такой ?


      1. dbahmatov
        14.07.2025 16:24

        Локальные модели как и свои api-ключи можно только с подпиской активной пользовать и локальные модели только в режиме чата, насколько я понял по причине недостачи каких-то методов в api, глубоко не копал


    1. peresvets12 Автор
      14.07.2025 16:24

      у меня это уже пропало, они закрыли дверь уже для многих


  1. Mixalloff
    14.07.2025 16:24

    Можно вернуться обратно на 500 запросов:

    1. Go to cursor.com/dashboard?tab=settings

    2. Look for "Advanced Account Settings"

    3. You can opt out of the unlimited usage model there


    1. peresvets12 Автор
      14.07.2025 16:24

      у меня уже этого нет, они это убирают у многих


      1. Mixalloff
        14.07.2025 16:24

        hi@cursor.com - напиши им в поддержку. Там можно договориться. Достаточно быстро отвечают и идут навстречу


  1. tiPoPizza
    14.07.2025 16:24

    Если рассматриваете cline для vsc, то почему не попробовать Gemini code assist? Фулл беслатаное, никаких лимитов, топовые модели (2.5 flash / pro, по моим наблюдениям, pro тоже часто используется). Да, гугл юзает нас, как данные для обучения (не в открытую, но всё же), и — не факт, что всегда будет бесплатно. Но пока что офигенный вариант


    1. peresvets12 Автор
      14.07.2025 16:24

      да, тоже классны вариант. Просто для js/ruby (мой случай) claude работает лучше. Но вот для java/kotlin, например, gemini лучше себя показывает


  1. JerleShannara
    14.07.2025 16:24

    Что делать? Научиться хотя бы писать на питоне, про раст и прочие c++ уже даже не говорю. Или выйти наконец из ай-ти.


  1. JBFW
    14.07.2025 16:24

    "Программист по подписке" - новая профессия )


  1. xsepsisx
    14.07.2025 16:24

    Курсор проходит классический этап становления стартапа - от работы в убыток до поиска удачной модели монетизации. Насколько выбранная ими ценовая политика будет успешной (как для самой Anysphere, так и для её клиентов) - покажет время, но серьёзно переломить ситуацию с выгодой для последних может появление нового и сильного конкурента, которого, пока, особо-то и не видно на горизонте, за исключением, пожалуй, Claude Code.


  1. Bonus2k
    14.07.2025 16:24

    Что делать вайбкодеру? — учить язык


    1. JerleShannara
      14.07.2025 16:24

      Тут один экс-вайбкодер(то есть тот, кто наконец смог осилить жабаскрипт+цсс) мне по секрету сказал, курсор та ещё дрянь, если после неё пытаться что-то исправлять.


    1. bak
      14.07.2025 16:24

      Вы какую-то фантастику предлагаете


  1. Kdg88
    14.07.2025 16:24

    Пользую Claude Code с подпиской за 200, благо компания компенсирует 70% на личную придурь. Но использую его больше ради забавы — посмотреть, насколько оно сможет хоть сколько-нибудь простую либу сделать, которую нет возможности скачать с интернета. При работе с легаси энтерпрайз от него толку разве что при флоу, когда есть пул реквест и его можно взять как паттерн. И то, всё же самому быстрее будет наплагиатить. А так, да, штука забавная, по сравнению с курсором и прочим — смотрится как мегапушка (для тех, у кого эмулятор терминала не вызывает дрожь). Наверное по флоу с ним мог бы сравниться разве что Cline. Но то для совсем богатых. Настроил флоу из нескольких агентов для того, чтобы либу пилили — архитектор, техлид, разраб и оркестратор. Даже без всяких MCP, Claude достаточно умный, чтобы самому выступать оркестратором.Так вот, при том что либа по сложности слегка выходит за пределы hello world, взаимодействие даже двух агентов довольно шустро сжирает лимиты на Opus. Ну и конечно, эти цифровые могут в итоге через 2 часа фикса свалившегося теста прийти консилиумом к тому, что тест этот и не так важен, и вообще есть не просит, так что воркфлоу завершён.Ну или линтер выдавал 500 ошибок, они пофиксили то, что можно автоматическим исправлением, а остальное им не мешает, ибо у нас так задумано, а переписывать правила для данного — плохая затея, ибо мы можем засайленсить реально важные проблемы. Поэтому пусть 100 предупреждений валятся, это к добру. Только эти долбодятлы, как оказалось, уже провели и первую брачную ночь, и первый медовый месяц с конфигами линтера и все как один решили, что целибат не так и плохо.


    1. Dominic_Kaine
      14.07.2025 16:24

      Нет такого ИБ в enterprise, которое позволило бы использовать курсор для легаси. Так, что, полагаю, вы только у себя в голове enterprise.


      1. Kdg88
        14.07.2025 16:24

        Я полагаю (верю), что вы сможете сделать усилие над собой, и так, вдумчиво, с расстановкой, прочитаете еще разок первые пару строк. Если не дойдет, постарайтесь осилить абзац, ну а если и тут смысл будет ускользать, то обращайтесь за пояснениями.


        1. Cerberuser
          14.07.2025 16:24

          При работе с легаси энтерпрайз от него толку разве что при флоу, когда есть пул реквест и его можно взять как паттерн.

          Вот эта фраза звучит как "я попробовал в enterprise - не получилось". Хотя задумывалось, я так понимаю, как "я попробовал для себя, экстраполировал на enterprise - предполагаю, что не получится".


          1. Kdg88
            14.07.2025 16:24

            Ваша изначальная гипотеза верна :) я так и написал, что на больших проектах толку от него не много. А что там у товарища выше не срослось с ентерпрайзом, для меня останется загадкой. Со времен первой версии курсора, время от времени, даю шанс очередной гениальной технологии заместить меня на рабочем месте. Думаю годик другой кожаные еще продержатся.


            1. Cerberuser
              14.07.2025 16:24

              А что там у товарища выше не срослось с ентерпрайзом, для меня останется загадкой.

              Рискну предположить, что "не срослось" банальное "нельзя отправлять энтерпрайзный код для обработки на стороне", судя по упоминанию ИБ. Скорее всего, во многих случаях это самое серьёзное препятствие, даже если сама по себе технология рабочая.