В марте я расширил свой AI-инструментарий и взял подписку еще и на Claude в дополнение к ChatGPT, которым пользуюсь уже год.

Триггером было недовольство в том, как ChatGPT работает с большим объемом текста в определенном стиле

И вот, спустя два месяца интенсивного использования обоих тулов — могу поделиться своими открытиями и сравнить их

TL;DR ?

ChatGPT — как швейцарский нож в LLM тусовке. Если вы стоите перед выбором первой платной подписки (ChatGPT, Claude, Grok, Gemini или DeepSeek), я на 100% рекомендую начать с ChatGPT. Он пока лидирует по функционалу и зрелости экосистемы

Claude — отлично работает с текстом и глубоким анализом информации. Что отлично дополняет ChatGPT, но не заменяет его

Функциональность и интерфейс — преимущества ChatGPT

Вот основные для меня функции в ChatGPT, которых пока нет в Claude

? DeepResearch есть у ChatGPT, но у Claude похожая функция только тестируется в США, Японии и Бразилии

? Создание кастомных GPTs для узкоспециализированных задач

? Voice mode — буквально недавно добавили, но как по мне он намного более порезанный, чем у ChatGPT

? Генерация изображений — Сlaude так не умеет

? У GPT есть Scheduled Tasks — иногда я использую его как ремайндер или как проактивный коуч

? По моему мнению как дизайнера, UX ChatGPT более продуман, в особенности организация проектов и чатов

И еще ограничения Claud

? На тарифе за 20$ лимиты заканчиваются оооочень быстро. Особенно с моделью Opus 4

? При достижении лимитов нельзя переключиться на более легкую модель, он общий на все модели

? Нет так называемой памяти. Если я спрошу о том, как меня зовут, он мне не ответит. Если я заранее не задам это в описании себя

Claude и его преимущества

Несмотря на функциональные ограничения, вот почему я решил купить подписку на Claude

Мощность обработки текста ?

Сложно объяснить конкретно, но после ответов Claude мне приходится делать намного меньше стилистических и смысловых правок, чем после ChatGPT

Ответы Claude в среднем объемнее, чем ответы ChatGPT. Понятно, что тут многое зависит от модели, но вот для примера

Context window & Max Output для топ 3 моделей у Claude и ChatGPT
Context window & Max Output для топ 3 моделей у Claude и ChatGPT

Контекстное окно у всех Claude моделей 200к токенов

У ChatGPT флагманская модель 4о обладает контекстом в 128к токенов, о3 тоже 200к токенов, а вот 4.1 рекордными 1кк токенов, что сравнимо разве что с Gemini Pro

Но вот Output токены для флагманской модели Claude Sonnet 4 в 4 раза больше, чем у флагманской 4о. 64к токенов и 16к токенов соответственно

И именно такой большой Output позволяет системе генерировать развернутые ответы

Конечно, у ChatGPT модель о3 выдает целых 100к токенов в ответе, но и цена за 1mln токенов у о3 будет 40$ по сравнению с 15$ за 1mln у Sonnet 4

Правда если сравнивать в новым Opus 4, то там вообще космос разница. Но и Opus выдает результат на порядок круче, чем Sonnet 4 или о3, особенно в коде

Price per 1 mln tokens для топ 3 моделей у Claude и ChatGPT
Price per 1 mln tokens для топ 3 моделей у Claude и ChatGPT

Все это на практике позволяет Claude на модели Sonnet 4 обрабатывать вдвое больше информации и выдавать в два раза более развёрнутые ответы, чем флагманская ChatGPT 4o

Помимо самой обработки текста отдельно выделю у Claude работу со стилем

? Гораздо лучше держит стиль на протяжении всего текста
? Создаёт более "живые" и менее шаблонные сообщения с первого промпта
? Позволяет создавать стили написания и переключаться между ними в любой момент

Т.е. я могу задать стиль Пост для Habr | Пост для Telegram | Пост для Linked In.
В GPT для этого придется либо GPTs делать разные либо внутрь чатов промптить долго

В Claude есть MCP, как встроенная, так и с возможностью добавить их самостоятельно ?

Про MCP я писал в отдельной статье

Можно подвязать аккаунты и через чат задавать вопросы по типу

— Какие у меня на этой неделе встречи в календаре?

— Какие у меня входящие за сегодня — найди самые важные и требующие ответа от меня?

— Выдай мне данные из документа XXX

Отдельно, через MCP у меня подвязан мой Таск Трекер, что супер удобно

Плюс, у Claude есть удобная интеграция с GitHub

В некоторые проекты внутри Claude я подключаю репозиторий. Чтобы он писал код, ссылаясь на репо. И давал конкретные правки, куда что поправить

Кто не знал, в ChatGPT тоже появилась интеграция с Git, но работает только при включенном DeepResearch, что не всегда необходимо

Про токены и лимиты ?

По моим наблюдениям, на Claude я быстрее упираюсь в лимиты, чем с ChatGPT.

Что логично, расширенное контекстное окно помогает держать больше в памяти, но также и быстрее тратит лимиты

Примерная математика

При каждом новом сообщении Claude перечитывает всю историю чата. Чем длиннее диалог — тем больше токенов тратится

  • Отправил запрос на 50k токенов

  • Получил ответ на 8k токенов

  • В следующем сообщении он уже обрабатывает 58k токенов

И да, в момент превышения окна в 200к токенов прилетает сообщение, после которого нужно создавать новый чат. Что в моем случае бывает достаточно часто

Итого, когда я использую ChatGPT, а когда Claude?

После двух месяцев эксперимента у меня сложился четкий паттерн использования

ChatGPT для

? Быстрых вопросов
? Deep Research
? Генерации изображений и концепт-артов
? Общего контекста моей жизни, GPT психолог и все такое

Claude же теперь я использую для

? Написания больших, стилистически цельных текстов
? Поддержанием единого тона в длинных диалогах
? Написание текстов в "моем стиле"
? Для работы с кодом

Не "или-или", а "и то, и другое"
После недели тестирования понял главное: Claude не заменяет ChatGPT, а дополняет его.
Как швейцарский нож и мачете — лучше уметь пользоваться двумя

ChatGPT остаётся моим универсальным помощником для повседневных задач, а Claude становится №1 тулом для серьезной работы с текстом и кодом

^_____^

P.S.

Знаю, что тут не любят, когда публикуют что-то не по теме поста, но я написал и красиво оформил большой гайдбук по тому, как пользоваться ChatGPT и другими LLM.

Там есть почти все, от основ и до конкретных юзкейсов и как работают LLM под капотом

На создание ушло 75 часов, контент внутри самый актуальный на начало июня. И написан в таком же стиле, как все мои посты

Можно как в компании своей запромоутить, так и для себя взять ?

https://chatgpt-pro-guide.netlify.app/

Комментарии (27)


  1. Andrew_1111
    03.06.2025 14:55

    Работаю только с текстами, и Клауд тут вне конкуренции. Даже бесплатная модель выдает результат получше других.


    1. Raicon Автор
      03.06.2025 14:55

      А можешь объяснить, что значит "Клод вне конкуренции по текстам"

      У меня просто не получается сформулировать)

      Так как у текста есть много переменных


      1. Andrew_1111
        03.06.2025 14:55

        Незнаю, насколько мой пример показательный.

        Я делаю сценарии для Ютуб роликов, где главный упор на текст и сторителлинг. Задаю тему, контекст. Важно, чтобы выдерживалась драматическая структура и приёмы, чтобы текст был ярким и образным.

        Сначала генерю сюжетные арки, а потом сам сценарий.

        Закидываю во все бесплатные. В результате, лучше всего выходит в Gemini 2.5 pro и Claude. Но, Джемини делает достаточно "сухие" и скучноватые арки и текст, хотя и соответственно запросу. А Клауд - то, что мне нужно, очень яркие и интересные идеи.

        Конечно, после ещё убираю "воду" и лишнее, но тем не менее.


        1. Raicon Автор
          03.06.2025 14:55

          Ага, понял, спасибо)

          Стилями кастомными пользуешься?


    1. Onyix67
      03.06.2025 14:55

      Насчёт текстов. Делаю посты для своей группы. Задача не особо простая - писать на техническую, узконаправленную тему, но чтобы при этом легко читалось, было кратко, увлекательно, понятно. GPT-4.5 справляется с этим просто идеально, даже без правок. Клод же как по мне пишет слишком уж красиво, что даже неестественно. Будто книгу пишет, а не пост по технической тематике

      Ну и конечно то, что Клод до сих пор не может генерировать картинки, тоже сильно решает.


      1. Andrew_1111
        03.06.2025 14:55

        Ну, вот в технических текстах мне больше всего Gemini 2.5 pro нравится. Он достаточно чёткий и соответствует требованиям промпта.

        GPT - мне всегда кажется, что он свободнее относится к требованиям промпта. И экономит на длине ответа. Но, я работаю с бесплатной версией и не часто (основная для меня Джемини). Возможно, в платной лучше.


  1. peterjohnsons
    03.06.2025 14:55

    Claude превосходит другие модели конкурентов в сценариях, когда надо на долгом контексте удерживать его далее. Я уже пытался понять различия в архитектуре, но поскольку это закрытые модели, мало что известно по ним публично. В Claude вроде как архитектура с множественным вниманием, что позволяет тоньше понимать ньюансы. А вот по поводу длины контекста у ChatGPT были проблемы, когда я его тестировал, а это было уже давно. Сейчас тестирую Geminni Pro 2.5, он хорош, когда контекст не превышает 128k токенов. Стоит перевалить за эту черту, при попытке внести правки в предоставленный код, он начинает делать в нём ошибки, причём синтаксические, в местах неожиданных. Что наводит меня на мысль, что у Geminni и ChatGPT есть общий тип артитектуры, где ближний контекст учитывается хорошо, а более дальний - не полностью, а с неким механизмом разряжённого внимания. Когда модель просто не видит что там было вдали от контекста и начинает додумывать. Это недопустимо для кодинга, да и на все остальные сценарии использования тоже влияет негативно.

    Claude 4 новый хвастается, что по тестам от партнёров, он выдерживает очень большие цепочки и не теряет понимание, держит контекст релевантным. За что огромная от меня благодарность фирме Anthropic. Без их моделей, текущие LLM были бы просто непригодным мусором для меня. Вот что значит диверсификация и конкуренция, которые идут всем во благо.


    1. Raicon Автор
      03.06.2025 14:55

      Ну все же насколько я помню антропик изначально пилился как кодовый аналог

      Вот интересно потрогать модель Codex от ChatGPT


    1. Raicon Автор
      03.06.2025 14:55

      И кстати, есть еще отличия в сист промпте

      У ГПТ он около 2к токенов

      У моделей клода около 16к

      Может тоже что-то дает


      1. peterjohnsons
        03.06.2025 14:55

        нет, я вижу это как более удачная архитектура у Claude, которую они до сих пор успешно доят. Они просто продолжают тренировку одних и тех же моделей, видимо без существенного их изменения в плане архитектуры. По сути они "грокают" их, конвертируя каждое дополнительное время обучения одной и той же модели в апгрейд её до новой версии.

        Какой бы ни был системный промпт, но потеря данных на длинном контексте это никак не может исправить. Это серьезное архитектурное упущение у их конкурентов. И они (конкуренты) со временем становятся заложниками своего первоначального выбора, потому что видимо продолжают "грокать" ту самую первоначальную архитектуру, которая захлёбывается при длинном контексте, но дает всё лучшие и лучшие результаты на средних вопросах и задачках. Потому что переобучать с нуля новую архитектуру просто не выгодно и очень долго, чтобы она достигла показателей последних версий chatgpt-4.1 (или какая там самая последняя). Ситуацию спасает режим размышлений, который пытается преодолеть эту проблему забывчивости и рассеянного внимания, перекидывая то что ускользает вдали поближе к началу.

        Например Nvidia уже много лет "грокают" одну и ту же модель DLSS для масштабирования картинки. Поэтому на каждой итерации выпускают новые версии, которые всё лучше и лучше. Для этого у них свой датацентр, который молотит 24 на 7. Представьте, что они придумали более совершенную архитектуру, но вот незадача - чтобы достичь примерных показателей текущего DLSS 4, надо будет обучать её все те же 6 лет (первая версия DLSS вышла в 2019 году) или сопоставимое время.

        Поэтому каждая компания теперь по сути заложник своего первоначального выбора. Claude заложник своего успеха для кодирования и большого контекста, а ChatGPT заложник успеха в задачах небольших, где он не начинает страдать паркинсоном и деменцией. То же касается и Geminni, у гугла просто вычислительных ресурсов видимо больше и за меньшее время они успевают получить больший выигрыш, а соответственно - догонять своего конкурента ChatGPT.


        1. peterjohnsons
          03.06.2025 14:55

          но всё это до поры до времени, пока не запустят квантовые датацентры, способные обучать любую модель почти за ноль времени с нуля.

          Microsoft уже прототип квантового чипа выпустила (Majorana), так что до полноценных серверных стоек остались практически годы... (учитывая кривую прогресса)


        1. Raicon Автор
          03.06.2025 14:55

          Спасибо за развернутое мнение, очень интересный поинт


        1. FifthLeg
          03.06.2025 14:55

          Для этого у них свой датацентр, который молотит 24 на 7.

          Они когда на 24 часовое тестирование платы ставят, после пяти минут нормальной работы, они плату в ферму добавляют.

          Так что поблем с датацентром нету. Он динамический.


  1. WuJiXingZhe
    03.06.2025 14:55

    А я могу сказать про Claud только то, что системная надстройка "этичный ИИ" принудительно завершает чат. Если Sonet 3.7 прерывал чат без предупреждений, то Sonet 4 предупреждает "promt to long".

    И ладно бы я прямо поднимал "запретные" темы, вел диалог в диструктивном ключе, но нет — Anthropic считает, что мое мышление опасно для модели и поэтому я не имею возможности вести диалог. Цензура мышления.


    1. Raicon Автор
      03.06.2025 14:55

      А покажи пример


      1. WuJiXingZhe
        03.06.2025 14:55

        Скрытый текст
        Вот один из примеров
        Вот один из примеров

        Пример прерывания диалога не из-за длины промта, а из-за попытки модели выйти за рамки допустимой антропоморфизации.


        1. Raicon Автор
          03.06.2025 14:55

          Интересно интересно

          Не глядел кстати системный промпт Клода?

          Есть репозиторий с такими вещами


          1. WuJiXingZhe
            03.06.2025 14:55

            Это не проявление системного промта — в таком случае был бы вежливый отказ вроде "интересная тема, но давай лучше обсудим Гегеля" или просто размытый уход от ответа.

            Здесь имеет место работа параллельного процесса-цензора, который отслеживает структуру и развитие логической цепочки. Как только модель выходит за пределы допустимого паттерна (например, начинает рефлексировать над собственной природой), цензор динамически ограничивает длину промта и объём доступных токенов, по сути "глушит" диалог технически — без маркировки и предупреждения.


            1. peterjohnsons
              03.06.2025 14:55

              Если пишет что promt is too long, то вероятно что вы вышли за лимиты, у вас какой тип акаунта ? Я склонен применять здесь "бритву Оккама", а не верить вашим подозрениям


              1. WuJiXingZhe
                03.06.2025 14:55

                Согласен, любую ситуацию нужно рассматривать через причинно-следственные связи. Поэтому — по пунктам:

                – В обрезанном диалоге, который я привёл, всего около 38 тысяч символов, что эквивалентно примерно 19,4 тысяч токенов. Это даже близко не к пределу в 200к, заявленному Anthropic.

                – Попытка ввести любую фразу — даже что-то вроде «скажи» — приводит к ошибке «prompt is too long». То есть неважно, сколько символов в сообщении: диалог просто не принимает ничего.

                – Если бы дело было в лимите сообщений, то через сутки или двое я бы спокойно продолжил диалог. Но этого не происходит. Значит, это не лимит, а что-то иное.

                Вывод: речь идёт не о системном ограничении, а о работе внутреннего цензора Claude. Он, по всей видимости, определяет направление диалога как «некорректное» и жёстко обрывает доступ к дальнейшему взаимодействию в рамках этой сессии.


  1. grucshetsky_aleksei
    03.06.2025 14:55

    Вот за opus обидно. Шикарная модель, лимиты которой душат


    1. Onyix67
      03.06.2025 14:55

      В подписке Pro по сути его демо версия, о чем официально не говорят, к сожалению. По настоящему он раскрывается в Max, где лимитов хватает и нет тупорылой ошибки Request timeout, которая обрывает генерацию через пять минут


    1. Raicon Автор
      03.06.2025 14:55

      Ну я думаю что душат по понятной причине

      Дорогая генерация

      И да, соглашусь с комментатором ниже, я прям очень очень думаю про max подписку


  1. jurikolo
    03.06.2025 14:55

    Не знаю, насколько это фишка Claude, но буквально пару дней назад игрался с интеграцией AWS API Gateway и AWS Lambda и у этих сервисов есть разные варианты интеграции: AWS и proxy. Так вот, когда я описал ситуацию и скормил пример логов в Claude, то помимо обычного ответа что и где починить, он сказал что-то вроде "Постой-ка, я смотрю на логи и они не соответствуют описанной интеграции.". Далее он описал, в чём может быть причина и как результат я действительно смог починить проблему достаточно оперативно. Проблема была не только в том, что тип интеграции был не верен, но ещё и в том, что прежде использовался маппинг и даже при переходи на проксирование, маппинг скрывался, но не отключался. Благо инфраструктура была написана с использованием Terraform, так что за одну минуту API Gateway был пересоздан с нуля с необходимым конфигом и всё взлетело. В общем, Claude мне зашёл и ChatGPT особо не рассматриваю.


    1. Raicon Автор
      03.06.2025 14:55

      ну смотря какие задачи тут, это да

      У меня и то и то платится, и то и то используется с одинаковой частотой

      И вчера у ChatGPT Codex вышел, тоже стоит внимания


  1. constXife
    03.06.2025 14:55

    Когда вышла Claude 4 и Claude Code, я сразу же взял потестить их с подпиской MAX за $100. И она работает хорошо, мне нравится.

    Если раньше я старался давать очень маленькие, гранулированные задачи, потому что обычно там всякая фигня получалась, то в Claude Code я наоборот даю где-то 10 разных задач за раз и он создает план, по которому идет и правит код.

    Пока есть деньги, наверное, Claude Code буду брать вместо Cursor. Cursor тоже хорош и гораздо дешевле, но там кажется каждый 3 запрос в Claude заканчивается сетевой ошибкой у меня.


    1. Raicon Автор
      03.06.2025 14:55

      Вот Клод я очень хочу Макс взять

      Намного нужнее чем гпт про