
В марте я расширил свой AI-инструментарий и взял подписку еще и на Claude в дополнение к ChatGPT, которым пользуюсь уже год.
Триггером было недовольство в том, как ChatGPT работает с большим объемом текста в определенном стиле
И вот, спустя два месяца интенсивного использования обоих тулов — могу поделиться своими открытиями и сравнить их
TL;DR ?
ChatGPT — как швейцарский нож в LLM тусовке. Если вы стоите перед выбором первой платной подписки (ChatGPT, Claude, Grok, Gemini или DeepSeek), я на 100% рекомендую начать с ChatGPT. Он пока лидирует по функционалу и зрелости экосистемы
Claude — отлично работает с текстом и глубоким анализом информации. Что отлично дополняет ChatGPT, но не заменяет его
Функциональность и интерфейс — преимущества ChatGPT
Вот основные для меня функции в ChatGPT, которых пока нет в Claude
? DeepResearch есть у ChatGPT, но у Claude похожая функция только тестируется в США, Японии и Бразилии
? Создание кастомных GPTs для узкоспециализированных задач
? Voice mode — буквально недавно добавили, но как по мне он намного более порезанный, чем у ChatGPT
? Генерация изображений — Сlaude так не умеет
? У GPT есть Scheduled Tasks — иногда я использую его как ремайндер или как проактивный коуч
? По моему мнению как дизайнера, UX ChatGPT более продуман, в особенности организация проектов и чатов
И еще ограничения Claud
? На тарифе за 20$ лимиты заканчиваются оооочень быстро. Особенно с моделью Opus 4
? При достижении лимитов нельзя переключиться на более легкую модель, он общий на все модели
? Нет так называемой памяти. Если я спрошу о том, как меня зовут, он мне не ответит. Если я заранее не задам это в описании себя
Claude и его преимущества
Несмотря на функциональные ограничения, вот почему я решил купить подписку на Claude
Мощность обработки текста ?
Сложно объяснить конкретно, но после ответов Claude мне приходится делать намного меньше стилистических и смысловых правок, чем после ChatGPT
Ответы Claude в среднем объемнее, чем ответы ChatGPT. Понятно, что тут многое зависит от модели, но вот для примера

Контекстное окно у всех Claude моделей 200к токенов
У ChatGPT флагманская модель 4о обладает контекстом в 128к токенов, о3 тоже 200к токенов, а вот 4.1 рекордными 1кк токенов, что сравнимо разве что с Gemini Pro
Но вот Output токены для флагманской модели Claude Sonnet 4 в 4 раза больше, чем у флагманской 4о. 64к токенов и 16к токенов соответственно
И именно такой большой Output позволяет системе генерировать развернутые ответы
Конечно, у ChatGPT модель о3 выдает целых 100к токенов в ответе, но и цена за 1mln токенов у о3 будет 40$ по сравнению с 15$ за 1mln у Sonnet 4
Правда если сравнивать в новым Opus 4, то там вообще космос разница. Но и Opus выдает результат на порядок круче, чем Sonnet 4 или о3, особенно в коде

Все это на практике позволяет Claude на модели Sonnet 4 обрабатывать вдвое больше информации и выдавать в два раза более развёрнутые ответы, чем флагманская ChatGPT 4o
Помимо самой обработки текста отдельно выделю у Claude работу со стилем
? Гораздо лучше держит стиль на протяжении всего текста
? Создаёт более "живые" и менее шаблонные сообщения с первого промпта
? Позволяет создавать стили написания и переключаться между ними в любой момент
Т.е. я могу задать стиль Пост для Habr | Пост для Telegram | Пост для Linked In.
В GPT для этого придется либо GPTs делать разные либо внутрь чатов промптить долго

В Claude есть MCP, как встроенная, так и с возможностью добавить их самостоятельно ?
Про MCP я писал в отдельной статье

Можно подвязать аккаунты и через чат задавать вопросы по типу
— Какие у меня на этой неделе встречи в календаре?
— Какие у меня входящие за сегодня — найди самые важные и требующие ответа от меня?
— Выдай мне данные из документа XXX
Отдельно, через MCP у меня подвязан мой Таск Трекер, что супер удобно

Плюс, у Claude есть удобная интеграция с GitHub
В некоторые проекты внутри Claude я подключаю репозиторий. Чтобы он писал код, ссылаясь на репо. И давал конкретные правки, куда что поправить


Кто не знал, в ChatGPT тоже появилась интеграция с Git, но работает только при включенном DeepResearch, что не всегда необходимо
Про токены и лимиты ?
По моим наблюдениям, на Claude я быстрее упираюсь в лимиты, чем с ChatGPT.
Что логично, расширенное контекстное окно помогает держать больше в памяти, но также и быстрее тратит лимиты
Примерная математика
При каждом новом сообщении Claude перечитывает всю историю чата. Чем длиннее диалог — тем больше токенов тратится
Отправил запрос на 50k токенов
Получил ответ на 8k токенов
В следующем сообщении он уже обрабатывает 58k токенов

И да, в момент превышения окна в 200к токенов прилетает сообщение, после которого нужно создавать новый чат. Что в моем случае бывает достаточно часто

Итого, когда я использую ChatGPT, а когда Claude?
После двух месяцев эксперимента у меня сложился четкий паттерн использования
ChatGPT для
? Быстрых вопросов
? Deep Research
? Генерации изображений и концепт-артов
? Общего контекста моей жизни, GPT психолог и все такое
Claude же теперь я использую для
? Написания больших, стилистически цельных текстов
? Поддержанием единого тона в длинных диалогах
? Написание текстов в "моем стиле"
? Для работы с кодом
Не "или-или", а "и то, и другое"
После недели тестирования понял главное: Claude не заменяет ChatGPT, а дополняет его.
Как швейцарский нож и мачете — лучше уметь пользоваться двумя
ChatGPT остаётся моим универсальным помощником для повседневных задач, а Claude становится №1 тулом для серьезной работы с текстом и кодом
^_____^
P.S.
Знаю, что тут не любят, когда публикуют что-то не по теме поста, но я написал и красиво оформил большой гайдбук по тому, как пользоваться ChatGPT и другими LLM.
Там есть почти все, от основ и до конкретных юзкейсов и как работают LLM под капотом
На создание ушло 75 часов, контент внутри самый актуальный на начало июня. И написан в таком же стиле, как все мои посты
Можно как в компании своей запромоутить, так и для себя взять ?
https://chatgpt-pro-guide.netlify.app/

Комментарии (27)
peterjohnsons
03.06.2025 14:55Claude превосходит другие модели конкурентов в сценариях, когда надо на долгом контексте удерживать его далее. Я уже пытался понять различия в архитектуре, но поскольку это закрытые модели, мало что известно по ним публично. В Claude вроде как архитектура с множественным вниманием, что позволяет тоньше понимать ньюансы. А вот по поводу длины контекста у ChatGPT были проблемы, когда я его тестировал, а это было уже давно. Сейчас тестирую Geminni Pro 2.5, он хорош, когда контекст не превышает 128k токенов. Стоит перевалить за эту черту, при попытке внести правки в предоставленный код, он начинает делать в нём ошибки, причём синтаксические, в местах неожиданных. Что наводит меня на мысль, что у Geminni и ChatGPT есть общий тип артитектуры, где ближний контекст учитывается хорошо, а более дальний - не полностью, а с неким механизмом разряжённого внимания. Когда модель просто не видит что там было вдали от контекста и начинает додумывать. Это недопустимо для кодинга, да и на все остальные сценарии использования тоже влияет негативно.
Claude 4 новый хвастается, что по тестам от партнёров, он выдерживает очень большие цепочки и не теряет понимание, держит контекст релевантным. За что огромная от меня благодарность фирме Anthropic. Без их моделей, текущие LLM были бы просто непригодным мусором для меня. Вот что значит диверсификация и конкуренция, которые идут всем во благо.Raicon Автор
03.06.2025 14:55Ну все же насколько я помню антропик изначально пилился как кодовый аналог
Вот интересно потрогать модель Codex от ChatGPT
Raicon Автор
03.06.2025 14:55И кстати, есть еще отличия в сист промпте
У ГПТ он около 2к токенов
У моделей клода около 16к
Может тоже что-то даетpeterjohnsons
03.06.2025 14:55нет, я вижу это как более удачная архитектура у Claude, которую они до сих пор успешно доят. Они просто продолжают тренировку одних и тех же моделей, видимо без существенного их изменения в плане архитектуры. По сути они "грокают" их, конвертируя каждое дополнительное время обучения одной и той же модели в апгрейд её до новой версии.
Какой бы ни был системный промпт, но потеря данных на длинном контексте это никак не может исправить. Это серьезное архитектурное упущение у их конкурентов. И они (конкуренты) со временем становятся заложниками своего первоначального выбора, потому что видимо продолжают "грокать" ту самую первоначальную архитектуру, которая захлёбывается при длинном контексте, но дает всё лучшие и лучшие результаты на средних вопросах и задачках. Потому что переобучать с нуля новую архитектуру просто не выгодно и очень долго, чтобы она достигла показателей последних версий chatgpt-4.1 (или какая там самая последняя). Ситуацию спасает режим размышлений, который пытается преодолеть эту проблему забывчивости и рассеянного внимания, перекидывая то что ускользает вдали поближе к началу.
Например Nvidia уже много лет "грокают" одну и ту же модель DLSS для масштабирования картинки. Поэтому на каждой итерации выпускают новые версии, которые всё лучше и лучше. Для этого у них свой датацентр, который молотит 24 на 7. Представьте, что они придумали более совершенную архитектуру, но вот незадача - чтобы достичь примерных показателей текущего DLSS 4, надо будет обучать её все те же 6 лет (первая версия DLSS вышла в 2019 году) или сопоставимое время.
Поэтому каждая компания теперь по сути заложник своего первоначального выбора. Claude заложник своего успеха для кодирования и большого контекста, а ChatGPT заложник успеха в задачах небольших, где он не начинает страдать паркинсоном и деменцией. То же касается и Geminni, у гугла просто вычислительных ресурсов видимо больше и за меньшее время они успевают получить больший выигрыш, а соответственно - догонять своего конкурента ChatGPT.peterjohnsons
03.06.2025 14:55но всё это до поры до времени, пока не запустят квантовые датацентры, способные обучать любую модель почти за ноль времени с нуля.
Microsoft уже прототип квантового чипа выпустила (Majorana), так что до полноценных серверных стоек остались практически годы... (учитывая кривую прогресса)
FifthLeg
03.06.2025 14:55Для этого у них свой датацентр, который молотит 24 на 7.
Они когда на 24 часовое тестирование платы ставят, после пяти минут нормальной работы, они плату в ферму добавляют.
Так что поблем с датацентром нету. Он динамический.
WuJiXingZhe
03.06.2025 14:55А я могу сказать про Claud только то, что системная надстройка "этичный ИИ" принудительно завершает чат. Если Sonet 3.7 прерывал чат без предупреждений, то Sonet 4 предупреждает "promt to long".
И ладно бы я прямо поднимал "запретные" темы, вел диалог в диструктивном ключе, но нет — Anthropic считает, что мое мышление опасно для модели и поэтому я не имею возможности вести диалог. Цензура мышления.
Raicon Автор
03.06.2025 14:55А покажи пример
WuJiXingZhe
03.06.2025 14:55Скрытый текст
Вот один из примеров Пример прерывания диалога не из-за длины промта, а из-за попытки модели выйти за рамки допустимой антропоморфизации.
Raicon Автор
03.06.2025 14:55Интересно интересно
Не глядел кстати системный промпт Клода?
Есть репозиторий с такими вещами
WuJiXingZhe
03.06.2025 14:55Это не проявление системного промта — в таком случае был бы вежливый отказ вроде "интересная тема, но давай лучше обсудим Гегеля" или просто размытый уход от ответа.
Здесь имеет место работа параллельного процесса-цензора, который отслеживает структуру и развитие логической цепочки. Как только модель выходит за пределы допустимого паттерна (например, начинает рефлексировать над собственной природой), цензор динамически ограничивает длину промта и объём доступных токенов, по сути "глушит" диалог технически — без маркировки и предупреждения.
peterjohnsons
03.06.2025 14:55Если пишет что promt is too long, то вероятно что вы вышли за лимиты, у вас какой тип акаунта ? Я склонен применять здесь "бритву Оккама", а не верить вашим подозрениям
WuJiXingZhe
03.06.2025 14:55Согласен, любую ситуацию нужно рассматривать через причинно-следственные связи. Поэтому — по пунктам:
– В обрезанном диалоге, который я привёл, всего около 38 тысяч символов, что эквивалентно примерно 19,4 тысяч токенов. Это даже близко не к пределу в 200к, заявленному Anthropic.
– Попытка ввести любую фразу — даже что-то вроде «скажи» — приводит к ошибке «prompt is too long». То есть неважно, сколько символов в сообщении: диалог просто не принимает ничего.
– Если бы дело было в лимите сообщений, то через сутки или двое я бы спокойно продолжил диалог. Но этого не происходит. Значит, это не лимит, а что-то иное.
Вывод: речь идёт не о системном ограничении, а о работе внутреннего цензора Claude. Он, по всей видимости, определяет направление диалога как «некорректное» и жёстко обрывает доступ к дальнейшему взаимодействию в рамках этой сессии.
grucshetsky_aleksei
03.06.2025 14:55Вот за opus обидно. Шикарная модель, лимиты которой душат
Onyix67
03.06.2025 14:55В подписке Pro по сути его демо версия, о чем официально не говорят, к сожалению. По настоящему он раскрывается в Max, где лимитов хватает и нет тупорылой ошибки Request timeout, которая обрывает генерацию через пять минут
Raicon Автор
03.06.2025 14:55Ну я думаю что душат по понятной причине
Дорогая генерация
И да, соглашусь с комментатором ниже, я прям очень очень думаю про max подписку
jurikolo
03.06.2025 14:55Не знаю, насколько это фишка Claude, но буквально пару дней назад игрался с интеграцией AWS API Gateway и AWS Lambda и у этих сервисов есть разные варианты интеграции: AWS и proxy. Так вот, когда я описал ситуацию и скормил пример логов в Claude, то помимо обычного ответа что и где починить, он сказал что-то вроде "Постой-ка, я смотрю на логи и они не соответствуют описанной интеграции.". Далее он описал, в чём может быть причина и как результат я действительно смог починить проблему достаточно оперативно. Проблема была не только в том, что тип интеграции был не верен, но ещё и в том, что прежде использовался маппинг и даже при переходи на проксирование, маппинг скрывался, но не отключался. Благо инфраструктура была написана с использованием Terraform, так что за одну минуту API Gateway был пересоздан с нуля с необходимым конфигом и всё взлетело. В общем, Claude мне зашёл и ChatGPT особо не рассматриваю.
Raicon Автор
03.06.2025 14:55ну смотря какие задачи тут, это да
У меня и то и то платится, и то и то используется с одинаковой частотойИ вчера у ChatGPT Codex вышел, тоже стоит внимания
constXife
03.06.2025 14:55Когда вышла Claude 4 и Claude Code, я сразу же взял потестить их с подпиской MAX за $100. И она работает хорошо, мне нравится.
Если раньше я старался давать очень маленькие, гранулированные задачи, потому что обычно там всякая фигня получалась, то в Claude Code я наоборот даю где-то 10 разных задач за раз и он создает план, по которому идет и правит код.
Пока есть деньги, наверное, Claude Code буду брать вместо Cursor. Cursor тоже хорош и гораздо дешевле, но там кажется каждый 3 запрос в Claude заканчивается сетевой ошибкой у меня.
Andrew_1111
Работаю только с текстами, и Клауд тут вне конкуренции. Даже бесплатная модель выдает результат получше других.
Raicon Автор
А можешь объяснить, что значит "Клод вне конкуренции по текстам"
У меня просто не получается сформулировать)
Так как у текста есть много переменных
Andrew_1111
Незнаю, насколько мой пример показательный.
Я делаю сценарии для Ютуб роликов, где главный упор на текст и сторителлинг. Задаю тему, контекст. Важно, чтобы выдерживалась драматическая структура и приёмы, чтобы текст был ярким и образным.
Сначала генерю сюжетные арки, а потом сам сценарий.
Закидываю во все бесплатные. В результате, лучше всего выходит в Gemini 2.5 pro и Claude. Но, Джемини делает достаточно "сухие" и скучноватые арки и текст, хотя и соответственно запросу. А Клауд - то, что мне нужно, очень яркие и интересные идеи.
Конечно, после ещё убираю "воду" и лишнее, но тем не менее.
Raicon Автор
Ага, понял, спасибо)
Стилями кастомными пользуешься?
Onyix67
Насчёт текстов. Делаю посты для своей группы. Задача не особо простая - писать на техническую, узконаправленную тему, но чтобы при этом легко читалось, было кратко, увлекательно, понятно. GPT-4.5 справляется с этим просто идеально, даже без правок. Клод же как по мне пишет слишком уж красиво, что даже неестественно. Будто книгу пишет, а не пост по технической тематике
Ну и конечно то, что Клод до сих пор не может генерировать картинки, тоже сильно решает.
Andrew_1111
Ну, вот в технических текстах мне больше всего Gemini 2.5 pro нравится. Он достаточно чёткий и соответствует требованиям промпта.
GPT - мне всегда кажется, что он свободнее относится к требованиям промпта. И экономит на длине ответа. Но, я работаю с бесплатной версией и не часто (основная для меня Джемини). Возможно, в платной лучше.