Итак, Cursor поменял тарифы.
Как они в действительности работают — это всё ещё загадка, потому что они указали примерное количество запросов, на которые можно рассчитывать, но почему-то каждый день это немного обновляется. То есть даже если ты попал на лимит, то на следующий день у тебя добавится ещё немного запросов. Но прозрачности тут нет
Кто не в курсе - раньше было 500 запросов за $20, что честно и понятно. Потом вдруг стал полный безлимит за $20, а затем Anysphere (разработчики Cursor) резко сказали, что якобы безлимит они давали только на режим авто (а там модель самая дешёвая), а в от на другие модели есть какие-то лимиты, но какие - не уточнили, пока коммьнити не разозлилось. В итоге оказалось, что за те же деньги сейчас можно себе позволит в 1.5-2 раза меньше, при этом появились тарифы за 60 и 200 usd.

• Кроме того, если у тебя кончились запросы Claude-4, то можно переключиться на grok-4 или gpt-o3 и ещё какое-то время пользоваться ими (но сколько запросов сверху — не ясно)
• Я переходил на тариф за $60 и далее целую неделю работал на Claude-4 sonnet Max, и было всё хорошо, но вот вчера я снова попал на лимиты. И если бы я взял тариф за $200, то скорее всего тоже бы попал на лимиты, только недели через 3–3,5, кроме того, он не даёт свободы использования Opus-4. Наверное, там ежедневно я бы мог рассчитывать на 15–20 запросов, а не 2–3, как сейчас, но это всё равно смешно (только что увидел, вот тут человек написал, что за 1 ночь достиг лимитов в тарифе за $200!)
Так что же делать? Если не идти во всякие веб-платформы, которых появилось немерено + codex/jules от OpenAI и Google, а хочется что-то типа IDE, то действительно проработанных вариантов несколько (как я вижу сам)

Windsurf — эти ребята остались на концепте $15 = 500 запросов. Но у них Claude можно использовать только через свой API-ключ, что достаточно затратно. Кроме того, их интерфейс лично мне кажется менее удобным. Их модели субъективно хуже ориентируются в кодовой базе, чем Cursor
Github Copilot — по качеству также ниже Cursor, а предлагает точно такую же непрозрачную модель с лимитами. Единственный плюс — полный безлимит на GPT-4.1, но я бы не назвал эту модель продвинутой для разработки, она заметно уступает sonnet-4 даже без max-режима и без режима размышлений
Cline (устанавливается как расширение в VS Code или Cursor) сам по себе полностью бесплатен, но тут основной вариант работы — это использование своих API-ключей от разных поставщиков LLM-моделей. Самое удобное — использовать openrouter, там есть все доступные по API модели. Самое интересное — его можно использовать с Claude code ключами, но с ограничениями — не будет принимать картинки или искать в интернете
Также удобен как расширение Traycer, но он скорее про планирование, чем про кодингClaude code — а вот это находка. Да, он существует в терминале, и это не так удобно (допустим, ты не видишь построчно, что поменялось, и не можешь в каждом файле откатывать изменения, как в Cursor), и многие пытаются что-то с этим сделать, создавая неофициальные расширения для IDE или веб-оболочку (Claudia), которые всё равно не дают удобства полноценного IDE
Однако:
Claude code даёт понятные лимиты (после 1–2 итераций ты понимаешь предел + он прогнозируемо сбрасывается через несколько часов)
Он работает лучше, чем Claude 4 в Cursor. Лучше понимает задачу, лучше понимает структуру кодовой базы, по умолчанию планирует и тестирует
На тарифе за $100 почти безлимитно (в течение ~5 часов подряд с перезагрузкой лимитов через несколько часов) можно гонять Claude sonnet 4, а на тарифе за $200 даже Claude Opus 4 можно почти без лимита гонять с такой же часовой логикой
На мой взгляд, сейчас оптимальный вариант для активного вайбкодера выглядит так —
Claude Code от $100
планирование traycer (1 раз в час бесплатно) или task-master (бесплатно на данный момент)
Cursor за $20 для удобных безлимитных автодополнений + при необходимости он даёт доступ к gpt-o3 (хорош для дебаггинга) и gemini-2.5 (хорош в документации/планировании благодаря большому контекстному окну). Иметь 100-200 запросов на эти модели очень полезно
Ну и совсем идеально — coderabbit для код-ревью ($15 за 1 аккаунт) и lovable для быстрого создания фронтенда (тут 5 запросов в день бесплатно, что даже может хватать)
Итого от $135 в месяц (~11 тыс руб) — и ты в почти безлимитном всеоружии вайбкодинга
(если нравится новая Kimi2, то в Claude Code можно Claude заменить на Kimi, но пока такой вариант не тестировал)
Мой тг-канал по ии-стартапам и вайб-коду
Комментарии (156)
DarthVictor
14.07.2025 16:24допустим, ты не видишь построчно, что поменялось, и не можешь в каждом файле откатывать изменения, как в Cursor
Я использую такой способ даже с запросами из Курсора:
включаю правила на примение всех изменений и запрещаю Клоду трогать комманды гит (это можно один раз в правила прописать)
добавляю все файлы в staging перед запросом Интерфейс просмотра изменений через гит-лесс мне тупо больше нравится, в сравнение с курсоровским.
colombo07
14.07.2025 16:242025й год - разработчики разучились писать код самостоятельно.
0xC0CAC01A
14.07.2025 16:241975й год - разработчики разучились писать в машинных кодах
2000й год - разработчики разучились писать на ассемблереbak
14.07.2025 16:243000й год до нашей эры - люди разучились выполнять арифметику в уме и начали использовать счеты
edo1h
14.07.2025 16:24люди уже давно разучились считать в уме.
я сам в студенческие годы считал чеки в магазинах на автомате, сейчас так не могу.
мешает ли это мне? да нисколько
Wesha
14.07.2025 16:24люди разучились выполнять арифметику в уме и начали использовать счеты
Проблема в том, что у тому времени они забыли, как использовать счёты
spirit1984
14.07.2025 16:24Есть, однако, одна небольшая, но существенная разница. Разработчики разучились писать на низком уровне в массе своей, потому что они могли писать на языках высокого уровня, но все тулзы для этого не могли быть отключены по щелчку пальца. Невозможно представить ситуацию, что Керниган с Ричи вдруг заявят "Так, ребят, вы тут все теперь на Си пишете, а ну заносите нам бабла", и для пущего эффекта отключат всем компиляторы языка Си.
bak
14.07.2025 16:24Видимо вы или забыли историю или не знаете её. До того как появились ПК - активно использовались мейнфреймы и терминалы. Дома у человека стоял терминал через который через телефонную сеть он подключался к мейнфрейму и программировал. А уже позже появились непосредственно ПК.
Уже сейчас есть решения (дорогие) которые вам тот-же полный deepseek позволяют гонять локально (m3 ultra). В будущем будет больше возможностей чтобы гонять локально LLM-ы.
SabMakc
14.07.2025 16:24Уже сейчас есть решения (дорогие) которые вам тот-же полный deepseek позволяют гонять локально (m3 ultra). В будущем будет больше возможностей чтобы гонять локально LLM-ы.
Не думаю, что эти возможности будут сильно дешевле - просто потому, что нужен очень мощный комп для этого (по памяти, по пропускной способности памяти, по вычислительной мощности), и принципиально этот момент меняться не будет. Это базовые ценности для ПК, которые в таких объемах нужны в очень специфичных случаях (если не брать LLM).
Другое дело, что развитие LLM идет вперед, появляются новые алгоритмы, подходы и т.д. Появятся открытые модели, который лучше заточены под конкретную задачу - и они хорошо будут ее решать на относительно слабых ПК.
bak
14.07.2025 16:24Не думаю, что эти возможности будут сильно дешевле
Ну у apple как-то получилось 512 гигов unified памяти сделать сильно дешевле чем у той-же nvidia видеокарты с таким числом памяти? Может и другие тоже подтянутся.
SabMakc
14.07.2025 16:24Да собственно уже появляются - вспомнить тот же AMD Ryzen AI Max+ 395 - устройство с 128 Gb быстрой RAM стоит около $2000. Может deepseek и не запустить, но что-нибудь попроще - вполне себе.
Nvidia собирается выпустить что-то с похожими характеристиками и специально под LLM (правда в 2 раза дороже).
Так что да, устройств будет больше. Но это явно не самые бюджетные решения.
Maccimo
14.07.2025 16:24мейнфреймы и терминалы. Дома у человека стоял терминал
Дома?! Только если у очень непростого человека, да и то сомнительно.
bak
14.07.2025 16:24Именно что дома. До появления ПК у профессоров университетов, у разработчиков работающих на крупные компании и тд были домашние терминалы, подключались к мейнфреймам через телефонную линию. Понятное дело не массово.
suslovas
14.07.2025 16:2440025 год - техножрецы поклоняются духу машины, совершая ритуалы эпохи темной эры технологий, смысл которых утерялся во времени.
0xC0CAC01A
14.07.2025 16:24Дык уже: бессмысленно засовывают докер, ООП, ORM и ещё кучу всего куды ни попадя
Portnov
14.07.2025 16:24В такой аналогии есть смысл, но всё-таки есть большая разница между компилятором с высокоуровневого языка (сколь угодно высокоуровневого, хоть пролог, хоть хаскель) и LLM как транслятором с "человеческого" языка на ЯВУ. С компилятором ЯВУ вы хотя в деталях и не контролируете машинный код, который будет сгенерирован, но точно знаете, что сгенерированный машинный код делает в точности то что вы описали на ЯВУ (исключения — баги компилятора, которые в последние 30-40 лет большая редкость, или UB в C++, над которым смеются не хуже чем над вайб-кодерами). LLM как транслятор... ну, можно встретить единичные истории, как 60+ лет назад люди писали на фортране, а потом перепроверяли ассемблерный выхлоп, "потому что мало ли что".
0xC0CAC01A
14.07.2025 16:24Ну подождите, "мало ли что" у ИИ тоже рано или поздно починят
Portnov
14.07.2025 16:24Подождать-то подождём, чего не подождать. Только мне кажется не починят, т.к. ИИ подражает не компилятору, а наоборот, человеку. А для человека ошибки скорее норма, чем исключение. Но да, подождём, посмотрим.
Portnov
14.07.2025 16:24Большие надежды у меня на специализированные смешанные системы. Т.е. например берёте разворачиваете локальную LLM в вашей инфраструктуре, пишете скрипты-обвязки вокруг LLM (ну наверное потом и коммерческие продукты будут с такой обвязкой), и потом LLM вам не просто пишет код; она же его вашим же сборочным скриптом компилирует, читает сообщения об ошибках, правит их, потом запускает это всё на вашем дженкинсе, читает сообщения об ошибках в тестах, правит код... И да, ещё чтобы под это не приходилось отдельное здание датацентра со своей электростанцией строить. Ждём :)
ahmpro
14.07.2025 16:24забавно, но именно такое уже существует) то что вы описали это тренд вокруг MCP
usiqwerty
14.07.2025 16:24LLM не детерминированна, в отличие от компилятора
Ndochp
14.07.2025 16:24Квантовые вычисления тоже, а вон как ими пугают, что пол криптографии накроется. (да, я знаю что там недерерминированность разная)
alexey_public
14.07.2025 16:24Это неверно. Как раз LLM строго детерминирована. Но - она может постоянно менять своё состояние, если это предусмотрено её конструкцией, плюс она может обращаться к внешним недетерминированным источникам данных.
Но при детерминированных источниках данных и идентичном внутреннем состоянии она всегда будет давать один и тот же ответ на одном и том же железе.
Wesha
14.07.2025 16:241975й год - разработчики разучились писать в машинных кодах
2000й год - разработчики разучились писать на ассемблере
dan_sw
14.07.2025 16:24Не, не говорите за всех разработчиков (кто-то ими даже не является в наше хAIповое время) :) Кому действительно нравится программирование, тот всё ещё пишет программный код (самостоятельно) и прекрасно себя чувствует, даже когда есть продвинутые LLM.
bromzh
14.07.2025 16:24Так а в чем кайф? Если буковки печатать - то можно просто перепечатывать книги. ЛЛМ сейчас - просто продвинутая печатная машинка со встроенным стековерфлоу.
Набросал идею в одном файле - попросил нейронку порефактрить, чтобы красиво было. Потом попросил тесты накатать. Вся рутина компуктеру, тебе же остается только писать самую суть, не отвлекаясь на особенности языков. Ошибки лечатся быстрее. Сиди да давай команды - остается только кодревью сделать. Но вот давать осмысленные команды без опыта программирования не получится пока. Так что на мой взгляд, нейронки как раз таки оставляют весь кайф от программирования, при этом убирая скучные вещи
dan_sw
14.07.2025 16:24Так а в чем кайф?
Ну, если Вы не видите в программировании "кайфа" (или оно просто не доставляет Вам особенного удовольствия), то Я, наверное, ничего тут Вам не объясню.
Я просто из тех людей, кому сам этот процесс программирования доставляет удовольствие. С 9-го класса мечтаю стать "тем самым программистом" :) Пока что с переменным успехом. Ещё не стал, а уже профессию выкидывают за борт и лишают её будущего.
Вся рутина компуктеру, тебе же остается только писать самую суть, не отвлекаясь на особенности языков
Да многие так говорят... но, я не верю в это. Потому что рутиной человек может сделать всё что угодно. Рутину берёт на себя, рутину ИИ быстро решит, рутину, рутину... для кого рутина, а для кого - ценный коммерческий опыт. Скоро ничего кроме рутины такими темпами не останется. "Писать саму суть, а ИИ отдать рутину" - просто отговорка или идея, которая призвана адаптировать человека-программиста к неизбежному - ликвидации специализации как таковой.
Так что на мой взгляд, нейронки как раз таки оставляют весь кайф от программирования, при этом убирая скучные вещи
Ну... кому-как :) Не могу представить, чтобы мне нравилось копипастить код от LLM и гордо утверждать, что я решил какую-то задачу... лучше, когда сам обладаешь огромной базой знаний в своей голове, пишешь программный код решающий определённую задачу, понимаешь как устроены многие паттерны, алгоритмы и т.д. Но это моё мнение.
bromzh
14.07.2025 16:24Ну я класса с 4-го программирую и в профессию пошел, потому что нравится. Уже как 20+ лет занимаюсь кодом, и все так же прикольно.
Я же спрашиваю, в чем кайф писать буквы самому? Вот мне надо тестом покрыть какой-то сервис. Раньше я для теста обычно больше время тратил, чтобы написать мок или тестовые данные подготовить, чем писал сам тест. Очень увлекательно, да. Или кусок кода выделить в отдельный сервис и подключить. Это тоже прям кайф.
Писать саму суть, а ИИ отдать рутину
Замените ИИ на джуна/стажера. Это тоже адаптация к тому, что всех сеньеров заменят стажеры?
сам обладаешь огромной базой знаний в своей голове
А пишешь банальную фигню, потому что не всегда интересные задачи по работе. Которую прекрасно можно автоматизировать.
bak
14.07.2025 16:24Решающий определённую задачу, понимаешь как устроены многие паттерны, алгоритмы и т.д
Использование LLM не сколько не уменьшает кайф. А наоборот увеличивает его. Потому что теперь ты не боишься потратить уйму времени на рефакторинг когда фича нужна еще вчера. А спокойно объясняешь LLM как именно сделать нормально, какую архитектуру и какие алгоритмы применить, и получаешь результат в течение 1-2 минут.
Наконец-то тебе не надо спорить с менеджментом и просить его выделять время на техдолг. Используя LLM ты наконец-то можешь сделать всё архитектурно хорошо и красиво и тебе не надо для этого неделю времени.
Потому что рутиной человек может сделать всё что угодно. Рутину берёт на себя, рутину ИИ быстро решит, рутину, рутину... для кого рутина, а для кого - ценный коммерческий опыт.
Дело не в рутине. LLM не может полностью делать и поддерживать в долгосроке крупные системы. Он ошибается, галюцинирует в простых вещах, берет не подходящую архитектуру, копипастит, делает кривой рефакторинг без нормальных указаний, правит тесты когда надо править бизнесс логику и наоборот. И это общая проблема, нейронки пока что не заменили ничего хоть сколько-нибудь интеллектуального. До создания полноценного AGI по прежнему нужен человек-в-середине.
ValiaIsNotProgrammer
14.07.2025 16:24Потому что теперь ты не боишься потратить уйму времени на рефакторинг когда фича нужна еще вчера. А спокойно объясняешь LLM как именно сделать нормально, какую архитектуру и какие алгоритмы применить, и получаешь результат в течение 1-2 минут
Редко когда сам редфакторинг занимает кучу времени. Обдумывание архитектуры и оптимальных решений - да, занимают время, но сам процесс написания кода - нет. LLM за вас не обдумает оптимальное решение, он максимум может подогнать код по уже созданное вами описание. Мне не страшно потерять 1-5 минуты на рутинные операции и рефакторинг, а если говорить и про то, что для хорошего промпта нужно время выделить, то примерно также и получается, что 1-5 минут описание почти ничего не компенсируют.
Наконец-то тебе не надо спорить с менеджментом и просить его выделять время на техдолг. Используя LLM ты наконец-то можешь сделать всё архитектурно хорошо и красиво и тебе не надо для этого неделю времени
Это вообще забавно читать. Т.е. без LLM нельзя сделать всё архитектурно хорошо и красиво за короткий срок? Я сколько LLM пользовался, так понял что в архитектурные истории и бизнес контекст они не умеют на prod уровне (уровня middle-senior). Я уже молчу что за техдолг такой, который состоит только LLM-level проблем. Почему нельзя сразу написать хорошо?) (вопрос извечный, понимаю, но всё же. Одно дело "забить" но комплексную проблему, решение которой будет либо долгим (сделать изменения в одной репе -> развернуть изменения, сделать изменения в другой репе и поднянуть новый сервис -> развернуть изменения, потратить время на девопсов, чтобы развернули то, что тебе нужно), другое дело игнорировать пустяк, который можно решить LLM (если ты видишь, что нет пагинации - добавь, это не сложно. Всё, что может делать LLM, можешь и ты, поэтому смысл вообще простые задачи оставлять на кого-то, если их можно не оставлять)?
LLM - круто, но это на данном этапе не "конкурентное преимущество", а просто одна из незначительных оптимизаций. Я пишу на vi-подобном редакторе коде и могу также говорить, что я продуктивный, что я не трачу время на mouse-use actions. Я действительно меньше времени трачу на рутины действия, но это не значит, что я продуктивнее людей, которые используют продвинутые IDE. Также касаемо и LLM. Да, если взять нескиллового эникея, то он может думать что он "офигеть как продвинулся в написании кода". Но по факту, если бы он просто также открыл поисковик и вписал то, что ему нужно: "развернуть сервер на <ваш фреймворк>", "написать месенджер без смс и регистрации", то он получил бы тот же самый результат, только в другом виде. Но тут дело вкуса. Я не против того, что люди предпочитают LLM вместо поисковика или документаций, но у меня дергается глаз, когда эти люди говорят про оптимизацию и продуктивность
Уже молчу про людей (вайб-кодеров), которые чаще всего не знают что пишут, доверяя от и до сгенерированному коду. Великое горе для современной IT индустрии сгенерированный непровалидированный код, что работает и который попадает на прод
Spyman
14.07.2025 16:24У меня препод по матану так говорила - программирование это ваше, это просто пальцами в кнопки тыкать, а матан - вот тут наука)))
А на деле - программирование, это что-то на уровне решения задачек из игр - логических головоломок (portal там, talos principal, the witness или viewfinder) - когда у тебя есть кусочки пазла, куча идей как его сложить, и нужно выбрать лучшую, сложить и чтобы работало.
Есть люди, которым это весело) и по соревноваться с машиной и убедиться, что все эти вайбкодерские штуки пока в реальных задачах весьма сомнительны - тоже весело) и когда llm тебе выдаёт крутой код - а ты такой "подиш ты, че могёшь" - и идею конечно подворовываешь, чтобы в будущем использовать - тоже.
А тем кто пришёл в программирование "деньги лутать" - им и промпты писать через два месяца тошно станет, и ломающийся непонятно почему код, и споры с машиной вида - "но выдаёт ошибку - исправил - но всё равно выдает - исправил - но теперь другую выдаёт" - осточертееют - они все равно обречены)
bromzh
14.07.2025 16:24А на деле - программирование, это что-то на уровне решения задачек из игр - логических головоломок
Спасибо, я знаю. Со школы по всяким олимпиадам гонял по своей воле. Но когда вырастаешь, то понимаешь, что в мире все немного не так. Интересно делать что-то уникальное. А в проектах 20% - это решение задач, а 80% - писанина очередного сервиса/компонента/контроллера, который похож на соседний, только немного другая логика и немного другие сущности. Когда ты пилишь свой пет-проект, то становился лень сотый раз с нуля писать примерно похожую архитектуру. Лень писать тесты, потому что там букв много (мокнуть кучу сервисов, данные подготовить) а смысла мало.
Почему-то вы решили, что надо либо все через промпт делать, либо все руками.
Spyman
14.07.2025 16:24Скорее всего вы ошиблись со специализацией. Есть направления где однотипные задачи, есть где разноплановые. Я намерено устраивался в компании, где "происходит какая то дичь" и намерено же брал все задачи, которые никто не знает как делать и не берет - и соотношение было куда веселее чем 20% на 80)) буквально 3 года у меня были только задачи уровня - "такое никто не делал, как сделать" или "похожий баг во всем интернете в поиске 1, он на китайском стаковерфлоу и без решения". После такого ещё и те задачи, в которых надо писать однотипный код - воспринимаются не как скука, а как моменты передышки перед новым эпическим сражением))
Я бы рекомендовал попробовать сменить либо направление либо работодателя и на бояться тех, кто на собеседовании говорит что у них свой фреймворк, 4 языка программирования в проекте и надо ещё немного уметь писать стихи - вот у таких будут самые интересные задачи - но будет сложно))
И да - про то, что нельзя использовать llm я не говорил, отвечал только на вопрос "в чем кайф".
k4ir05
14.07.2025 16:24Так суть не в буковках (сами по себе они смысла не имеют), а в "словах" и "предложениях" - более высокоуровневых конструкциях. И разница в том, что на ЯП формулировать чёткую мысль проще и от того приятнее, чем сочинять сложноподчинённые инструкции для БЯМ на естественном языке. Естественные языки плохо подходят для описания алгоритмов.
cyberscoper
14.07.2025 16:24В курсор все еще можно откатиться на старый формат тарифного плана)
Через настройки в личном кабинете, держу в курсе
LaserTower
14.07.2025 16:24Есть ли возможность в курсор использовать локальную модель бесплатно?
cyberscoper
14.07.2025 16:24Вот прям сейчас взглянул и видимо это не возможно)
holgw
14.07.2025 16:24Пункт меню "Override OpenAI Base URL" наверняка позволяет прокинуть ссылку на http://127.0.0.1:1234 и подключиться к локальной модели, развернутой в Ollama\LM Studio (они оба совместимы с OpenAI).
MrCrooK
14.07.2025 16:24Не получится. Не даёт он указать локалхост, только если она ь через какой то прокси, например ngrok
dbahmatov
14.07.2025 16:24Локальные модели как и свои api-ключи можно только с подпиской активной пользовать и локальные модели только в режиме чата, насколько я понял по причине недостачи каких-то методов в api, глубоко не копал
Mixalloff
14.07.2025 16:24Можно вернуться обратно на 500 запросов:
1. Go to cursor.com/dashboard?tab=settings
2. Look for "Advanced Account Settings"
3. You can opt out of the unlimited usage model there
peresvets12 Автор
14.07.2025 16:24у меня уже этого нет, они это убирают у многих
Mixalloff
14.07.2025 16:24hi@cursor.com - напиши им в поддержку. Там можно договориться. Достаточно быстро отвечают и идут навстречу
tiPoPizza
14.07.2025 16:24Если рассматриваете cline для vsc, то почему не попробовать Gemini code assist? Фулл беслатаное, никаких лимитов, топовые модели (2.5 flash / pro, по моим наблюдениям, pro тоже часто используется). Да, гугл юзает нас, как данные для обучения (не в открытую, но всё же), и — не факт, что всегда будет бесплатно. Но пока что офигенный вариант
peresvets12 Автор
14.07.2025 16:24да, тоже классны вариант. Просто для js/ruby (мой случай) claude работает лучше. Но вот для java/kotlin, например, gemini лучше себя показывает
JerleShannara
14.07.2025 16:24Что делать? Научиться хотя бы писать на питоне, про раст и прочие c++ уже даже не говорю. Или выйти наконец из ай-ти.
usiqwerty
14.07.2025 16:24Учитесь. Будете за вайбкодерами всё исправлять, на вес золота станете. Тем более что с нейронками код быстрее не пишется, за ними нужно всё перерабатывать самому
JBFW
14.07.2025 16:24"Программист по подписке" - новая профессия )
AntonLarinLive
14.07.2025 16:24Какая она новая... Индусы, галеры - всё уже придумано до нас.
JBFW
14.07.2025 16:24Тут прикол в том, что сам программист - по подписке. А когда не оплатил - превращается в разнорабочего, потому что сам не.
xsepsisx
14.07.2025 16:24Курсор проходит классический этап становления стартапа - от работы в убыток до поиска удачной модели монетизации. Насколько выбранная ими ценовая политика будет успешной (как для самой Anysphere, так и для её клиентов) - покажет время, но серьёзно переломить ситуацию с выгодой для последних может появление нового и сильного конкурента, которого, пока, особо-то и не видно на горизонте, за исключением, пожалуй, Claude Code.
Bonus2k
14.07.2025 16:24Что делать вайбкодеру? — учить язык
JerleShannara
14.07.2025 16:24Тут один экс-вайбкодер(то есть тот, кто наконец смог осилить жабаскрипт+цсс) мне по секрету сказал, курсор та ещё дрянь, если после неё пытаться что-то исправлять.
talassoft
14.07.2025 16:24в том то и дело, что языки мы знаем, у меня 20+ лет коммерческой разработки; но за последние три месяца я не написал ни строчки кода (и практически не имел выходных), только правлю то что создает Claude code. Сейчас ситуация такая - либо ты изучаешь все современные инструменты генерации кода, либо уходишь из профессии.
Dmitry_604
14.07.2025 16:24А правка за Calude это разве - не написание кода? По опыту править за кем-то сложнее чем новое писать :) И как оцениваете лично для себя ускорение, которое я так понимаю есть раз 3 месяца пользуете для всей работы?
talassoft
14.07.2025 16:24Правки незначительные. Пока все офигенно, буквально за пару месяцев сделали образовательную платформу, который скоро выкатим на арабский рынок. Причем, там будут и user analytics, и engagement tracking, и marketing analytics и много других крутых слов. Вручную мы бы это допиливали пару лет. Посмотрим, надеюсь заработает, иншаллах
Kdg88
14.07.2025 16:24Пользую Claude Code с подпиской за 200, благо компания компенсирует 70% на личную придурь. Но использую его больше ради забавы — посмотреть, насколько оно сможет хоть сколько-нибудь простую либу сделать, которую нет возможности скачать с интернета. При работе с легаси энтерпрайз от него толку разве что при флоу, когда есть пул реквест и его можно взять как паттерн. И то, всё же самому быстрее будет наплагиатить. А так, да, штука забавная, по сравнению с курсором и прочим — смотрится как мегапушка (для тех, у кого эмулятор терминала не вызывает дрожь). Наверное по флоу с ним мог бы сравниться разве что Cline. Но то для совсем богатых. Настроил флоу из нескольких агентов для того, чтобы либу пилили — архитектор, техлид, разраб и оркестратор. Даже без всяких MCP, Claude достаточно умный, чтобы самому выступать оркестратором.Так вот, при том что либа по сложности слегка выходит за пределы hello world, взаимодействие даже двух агентов довольно шустро сжирает лимиты на Opus. Ну и конечно, эти цифровые могут в итоге через 2 часа фикса свалившегося теста прийти консилиумом к тому, что тест этот и не так важен, и вообще есть не просит, так что воркфлоу завершён.Ну или линтер выдавал 500 ошибок, они пофиксили то, что можно автоматическим исправлением, а остальное им не мешает, ибо у нас так задумано, а переписывать правила для данного — плохая затея, ибо мы можем засайленсить реально важные проблемы. Поэтому пусть 100 предупреждений валятся, это к добру. Только эти долбодятлы, как оказалось, уже провели и первую брачную ночь, и первый медовый месяц с конфигами линтера и все как один решили, что целибат не так и плохо.
Dominic_Kaine
14.07.2025 16:24Нет такого ИБ в enterprise, которое позволило бы использовать курсор для легаси. Так, что, полагаю, вы только у себя в голове enterprise.
Kdg88
14.07.2025 16:24Я полагаю (верю), что вы сможете сделать усилие над собой, и так, вдумчиво, с расстановкой, прочитаете еще разок первые пару строк. Если не дойдет, постарайтесь осилить абзац, ну а если и тут смысл будет ускользать, то обращайтесь за пояснениями.
Cerberuser
14.07.2025 16:24При работе с легаси энтерпрайз от него толку разве что при флоу, когда есть пул реквест и его можно взять как паттерн.
Вот эта фраза звучит как "я попробовал в enterprise - не получилось". Хотя задумывалось, я так понимаю, как "я попробовал для себя, экстраполировал на enterprise - предполагаю, что не получится".
Kdg88
14.07.2025 16:24Ваша изначальная гипотеза верна :) я так и написал, что на больших проектах толку от него не много. А что там у товарища выше не срослось с ентерпрайзом, для меня останется загадкой. Со времен первой версии курсора, время от времени, даю шанс очередной гениальной технологии заместить меня на рабочем месте. Думаю годик другой кожаные еще продержатся.
Cerberuser
14.07.2025 16:24А что там у товарища выше не срослось с ентерпрайзом, для меня останется загадкой.
Рискну предположить, что "не срослось" банальное "нельзя отправлять энтерпрайзный код для обработки на стороне", судя по упоминанию ИБ. Скорее всего, во многих случаях это самое серьёзное препятствие, даже если сама по себе технология рабочая.
MAXH0
Вы ещё не поняли, что работаете на закрытые корпоративные платформы тестеровщиками?И как только тестирование закончится тарифы сразу же поменяются... Но в разработку открытих инициатив почти ни кто не чешется.
peresvets12 Автор
на крайний случай можно будет развернуть kimi или deepseek и через ollama подрубиться в cline и использовать это в обход тарифов всех платформ. В итоге это будет без корпоративных платформ, как вы сказали. Но это геморрно, поэтому это и крайний случай. А так, лично мне и моей команде это сильно помогает в тестах, документации, простых фичах, проектировании, багфиксинге и так далее
Хотя, безусловно, они косячат и пока разработчиков не заменят, особенно когда речь идёт про сложные функции
SabMakc
Kimi или deepseek локально - нужно оперативы с пол-терабайта как минимум. Да и скорость работы будет очень "не очень". Вариант может и рабочий, но не сильно масштабируемый локально.
peresvets12 Автор
поэтому я и написал, что это крайний случай. Но у меня в канале как раз про такое человек в комментариях спрашивал, поэтому кому-то это видимо уже сейчас нужно
SabMakc
Да и на хабре уже неоднократно писали, так что рецепт известен - AMD EPYC 7002 + 512Gb DDR4 дает около 3-4 т/сек для deepseek в Q4 кванте, если не ошибаюсь.
Добавить RTX 3090 - будет быстрее процентов на 50.
Kimi v2, судя по всему, даст схожие цифры, может чуть быстрее даже - активных параметров у нее 32b вместо 37b у deepseek. Но и в 512Gb Kimi v2 Q4 не влезает уже...
И стоит это порядка 250к на вторичном рынке.
Для полноценной работы этого маловато будет, даже если экстремально малые кванты использовать (что еще может ускорить раза в 1.5, но и качество ниже, а главное - есть тесты, что ответы объемнее становятся, так что ждать приходится даже дольше, см https://habr.com/ru/articles/919452/).
Альтернативный вариант (если бюджет позволяет) - смотреть на Mac Studio M3 Ultra на 512Gb, будет шустрее раза в 2-3 (но и дороже раза в 4-5).
MANAB
А если взять RTX PRO 6000 92GB? Да, дорого, но и шустро.
SabMakc
Нужно чтобы вся модель влезала в VRAM (и под кеши оставалось место) - тогда будет быстро. Для deepseek надо 5-6 таких карт (навскидку, скорее даже больше) - что сильно небюджетно получится.
По цене одной RTX PRO 6000 как раз примерно выходит Mac Studio M3 Ultra на 512Gb - так что я бы Mac Studio предпочел (для личного использования).
Если сравнивать пропускную способность памяти (где узкое место в выводе), то у Mac Studio она где-то в два раза ниже - так что RTX PRO 6000 не сказать что на порядок лучше будет. Но Mac Studio выйдет на порядок дешевле (или около того).
Если речь о корпоративном использовании на много пользователей (и в пакетном режиме) - то 512Gb памяти не хватит, скорее всего. Так что в пачке RTX PRO 6000, возможно, и есть резон - но я не копал в этом направлении. Так что это оценка очень "на вскидку".
pronkin
MACUltra не юзабельно - будут те же 3tok/s. Единственный юзабельный вариант 2TB DDR5 Ram+4(8)H200 по 10-25$ в час
SabMakc
Откуда такие цифры?
Тесты показывают 18 ток/сек для deepseek-r1 в q4-кванте.
max-daniels
У меня RTX 4090 + Jetbrains Rider/Clion + LMStudio/Ollama + devstral. Работает локально, быстро, но по качеству конечно не сравнится с "большими" моделями. Но лично мне хватает, я использую нейросети чисто для помощи(аля stackoverflow) при затыках.
SabMakc
По моему опыту - devstral неплох, но у него проблемы с пониманием русского языка.
Лично мой фаворит - Qwen3-30B-A3B с
/no_think
. Очень быстро работает даже на CPU, с русским проблем нет, по качеству если и уступает, то совсем немного.Иногда сравниваю один и тот же запрос на Qwen3 / devstral / deepseek (v3, иногда и r1 подключаю).
И в большинстве случаев - или все проваливались в моем вопросе, или Qwen3 справлялся неплохо. Было достаточно немного ситуаций, где Qwen3 провалился, а deepseek справился.
Devstral обычно именно на понимании языка заваливается - сделает как надо, но какой-то нюанс упорно не хочет понимать и делает по своему. Свежайший пример - попросил накидать bash-скрипт - справился отлично (лучше чем qwen3, к слову). Но не смог убрать комментарии из скрипта, когда его об этом попросили.
Esmoret
MCP сервер, что бы rider файлики проекта/выделенный текст/схемы бд в контекст запроса подгружал сами писали или уже готовые появились?
Spyman
Так есть дистиляты, которые не сильно хуже по качеству но и в 48гб озу влезают и даже в 12vram. Я с такими и работаю на связке idea + continue + ollama и в качестве помошника они отлично справляются. Правда сам continue как будто вайбкодерами написан (как кстати большая часть новомодных ai инструментов, которые кривые косые) и безбожно глючный, замену бы ему.
SabMakc
Да, есть модели попроще, кто же спорит.
Лично я использую Qwen3-30B-A3B на CPU - и доволен результатами.
Ну а что "дистиляты не сильно уступают" - уступают и заметно. Это просто еще один вариант модели определенной размерности, сравнивать ее надо с моделями этой же размерности.
Spyman
Неправильно выразился. Я имел ввиду, скорее что падение качества с дистилятами не линейное, и есть ощущение, что "достаточное качество" наступает уже где-то на уровне 48b моделей. И не обязательно сразу упарываться в полную модель, можно постепенно докупая железо остановиться на устраивающем уровне.
Как с принципом паретто - если 20% модели дают 80% результата, то может те оставшиеся 20% результата и нафиг не нужны)
Politura
А какие есть модели на 48b? 32, потом 70, 48 не знаю, тем более заточенных под кодинг.
В целом, по ощущениям, 32b отстают от лидеров (claude/gemini/openai) примерно на год.
apcs660
90 процентов проектов по ai оставляют впечатление что созданы вайбкодингом. PoC, часто устаревшие, написанные без понимания как писать правильно (для использования) а не просто как демонстрашку... API тоже меняется быстро.
Сейчас прохожу huggingface курсы, voice agent API - запускаю демо проект - работает, запускаю рекомендацию из readme проекта с компиляцией модели - падает. Начинаю копаться в питоне (в котором новичок) - нахожу баг, смотрю в проекте - он висит с декабря 2024. Сел, покопался, исправил, написал коммент в тикете, приложил патч (кривоватый но рабочий, там еще одну библиотеку надо пропатчить). Нет ребята, качество низкое. LM Studio, Ollama, LangChain - нормально, но почти вся мелочь это минное поле.
vikarti
Как вариант:Roocode(ну или Cline) + Deepseek R1-0528/V3 Free (1k запросов бесплатно в день с Openrouter'а. Я помню что там по умолчанию 50 запросов бесплатно, читайте внимательно условия) либо + Featherless AI план за 25 USD в меся(там R1-0528 есть но при этом - жестко лимит на 1 одновременный запрос дипсика и прочих тяжелых моделей, если что-то 7-13B то больше, и у того дисика - 32K лимит контекста).
Ну и по желанию - через Docker ставим LibreChat c LiteLLM и прочим и цепляем Roocode через него. Имеем ChatGPT-style +интерфейс + логгирование/повторы запросов и прочее.
Если надо Android - ProxyAI / AI Coding
Если надо совсем свое - думаем как поднять Deepseek на своем (хоть в каком то смысле) железе или идем на Qwen3 хоть. "Свое" железо - может быть и Runpod например (есть там serverless интерфейс, с очень быстрым (секунды) запуском пода и посекундной тарификаций, другое дело что с single-user режиме - мне кажется дешевле будет хоть openrouter хоть requesty хоть vsegpt/proxyapi).
SabMakc
Открытых инициатив достаточно. Открытые LLM, открытые агенты - чего именно не хватает?
Да, в чем-то хуже по качеству, не столь отточено работают. Но и сфера достаточно свежая, конкуренции хватает. Так что не вижу недостатка в открытых инициативах.
defin85
А где вы возьмёте 5000 GPU чтобы запускать открытую модель?
Spyman
Дистиляты
defin85
даже дистиляты с нормальной скоростью на обычном компе не работают, контекстное окно нужно на размещать на GPU
Alex20129
Смотря какую модель. Для большинства из них хватит и пары стареньких карточек на 24Gb vRAM, типа RTX3090. Если хочется запустить "топовую" модель, тогда извольте платить соответственно.
Wesha
Как вам скажет любой дилер, «первая доза — бесплатно!»
Maccimo
Подскажите, где такие щедрые автомобильные дилеры водятся.
Dmitry_604
Если бы все ТО стоило как сам авто я думаю подобные предложения бы были :)
Wesha
В любом приличном автосалоне, конечно же. «Тест‑драйв» называется.
Haizer
Ну слушай, я конечно не на стороне вайбкодеров. Но этот тезис такой себе. У меня нет цели разрабатывать какие-то открытые инициативы. Моя цель сделать нужный МНЕ проект. Если какая-то платформа временно предлагает что-то, что может помочь мне сделать мой проект (пусть даже на условиях бета-теста) - я буду ее использовать.
Ну и собственно базовое - Иди чеши делать свои открытые инициативы. А, что ? Компетентность не позволяет? Нет финансирования? Личные проблемы? Занятость? Принципиальная сложность илм невозможность осуществить задуманное с которой надо что-то делать? Ну так мой дорогой у всех так, никто не обязан тебе воплощать твои хотелки, ценой своих интересов.