Достаточно нервный запуск GPT-5 подошел к концу, OpenAI определилась с лимитами использования и настройками, поэтому самое время поделиться некоторыми нюансами работы с новинкой. В первую очередь я буду ориентироваться на пользователей ChatGPT Plus: 20-долларовая подписка наиболее массовая, кроме того, именно на ней возникают сложности с выбором модели.

Напомню, что одной из главных фишек GPT-5 назывался "роутер" — алогритм, который анализирует запрос, а затем решает, какой версии модели его передать. Считалось, что роутер позволит избавиться от легендарного меню выбора модели в старой ChatGPT, но в итоге он доставил больше всего проблем. Посмотрите на картинку ниже:

Всего существует четыре версии GPT-5. При этом "минимальная" GPT-5 отстает даже от GPT-4.1, а достойную производительность показывают рассуждающие варианты GPT-5 — они помечены как low, normal и high и отличаются максимальным временем, которое модель тратит на рассуждения. В ChatGPT Plus есть три модели: normal, low и minimal (не путаем последнюю c GPT-5-mini). Посмотрим на каждую из них.

GPT-5 Minimal

Является базовой моделью в ChatGPT Plus:

Все просто и сложно. Если вы зададите вопрос ChatGPT без дополнительных настроек, то с большой вероятностью его обработает GPT-5 Minimal, но есть шанс, что роутер направит его рассуждающей модели. Распознать это просто: Minimal отвечает моментально, рассуждающая — некоторое время думает, что видно по сообщению в чате.

Как я уже отмечал, это — простая версия модели. Именно она делает ошибки в простых математических и логических задачках, неправильно считает буквы в словах и т. д. Есть ли от нее польза? Да, если нужен быстрый ответ на не сложный вопрос, простой поиск в сети или перевод текста. С текстами модель работает лучше чем с кодом и математикой — можно поручать проверку грамотности, написание рассказов, подбор заголовков.

С GPT-5 связана еще одна забавная история. Изначально эта модель настроена на короткие ответы, из-за чего ее стали критиковать в сравнении с "болтливой" GPT-4o. Это можно исправить с помощью настройки длины ответа ("добавить детали" и "более кратко"), которую OpenAI запрятали достаточно далеко:

Кстати, здесь же можно сменить модель на Thinking для создания более качественного ответа. Но об этом позже.

GPT-5, думай глубже!

Если GPT-5 так слаба, то использование вместо нее GPT-5 Thinking напрашивается само собой. Но в момент запуска ручной выбор "думающей" версии был ограничен всего 200 запросами в неделю, чего явно недостаточно для активного использования. Поэтому подписчики быстро нашли способ переключать роутер в думающий режим — в такой ситуации счетчик ручного выбора не уменьшался. Для этого достаточно было добавить в запрос к модели think harder, а если на русском, то "думай глубже". В моих экспериментах роутер в 95% случаев переходил к рассуждающему режиму.

Сейчас этим трюком пользоваться не рекомендуется. Во-первых, лимиты на ручной выбор GPT-5 Thinking увеличены до 3000 запросов, то есть практически сняты. Во-вторых, сотрудники OpenAI в X признали, что автоматически роутер включает low-версию режима рассуждений, в которой модель тратит меньше всего времени на решение задачи. Если же выбирать GPT-5 Thinking вручную, то в этом режиме модель работает в medium, показывая куда лучшие результаты. К ней и перейдем.

GPT-5 Thinking

Простая математика: 3000 запросов в неделю значат, что один запрос можно делать примерно раз в 3 минуты и 22 секунды. Рассуждающая модель легко может работать над задачей 1-2 минуты, плюс время на написание запроса и чтение ответа — в итоге мы получаем возможность пользоваться практически круглые сутки. Несмотря на некоторую иронию выше, признаю, что это — щедрый шаг со стороны OpenAI.

Так как потратить текущие лимиты GPT-5 Thinking практически нереально, я рекомендую выставить ее моделью по умолчанию в селекторе ChatGPT. Этот вариант дает лучшие ответы, но тратит от 10 секунд до нескольких минут — если ответ нужен быстро, то можно нажать на "Получить быстрый ответ" под запросом, включив "минимальную" GPT-5.

Лично мне не нравится русский язык модели по умолчанию. Исправить это можно, добавив фразу "пиши на русском без англицизмов и не переведенных слов" в "Настройки > Персонализация > Пользовательские инструкции > Что ChatGPT должен знать о вас?".

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.

Комментарии (8)


  1. AlexanderBz
    11.08.2025 22:09

    Нефига не понял, как контекстное меню с выбором модели вызвать. Вижу только 4о легаси вверху. Вообще меня этот селектор бесит -- раз 10 уже забывал контекст и начинал как будто бы сначала "что я могу сделать для тебя" и вводное блабла, хотя проект есть, файлы приложены, контекста уже дофига в чате. Мне кажется, они тупо на пофиг ввели такую оптимизацию своих ресурсов, типа как в гугле: когда перегруз тебе выдают degraded результат. Попробую в thinking, потому как обычная пятая это вообще какое-то издвевательство.

    А сами при этом вешают лапшу на уши что "вот это прорыв ололо". А еще эти заявления, что "AGI готов и кожанным пришла попа" :))) Все о бабках, а не об удобстве тут.

    Но! Cпасибо, что поделились инфой как теперь этим пользоваться ;)


    1. vaslobas
      11.08.2025 22:09

      Такие же ощущения, что есть несколько версий 5 модели. Одна у них участвует в соревнованиях и "рвет" рейтинги, а другую выдали пользователям и она ближе к обычной 4о, но только жрет меньше ресурсов и отвечает быстро.


  1. cless75
    11.08.2025 22:09

    Да проектная модель не докручена

    А есть адекватное руководство как добиться использования полного контекстного окна через API ?


  1. zmiuko
    11.08.2025 22:09

    "Это нога у того у кого надо нога"


  1. rebug
    11.08.2025 22:09

    Ни коем образом не получилось приблизиться к уровню о3. Однозначно решил, что на текущий момент придется отказаться от подписки и перейти на апи.


    1. AlexanderBz
      11.08.2025 22:09

      API дороже ощутимо (


  1. Onyix67
    11.08.2025 22:09

    Меня больше всего смущает размер контекстного окна. 32к? Серьезно? У всех конкурентов не меньше 128к. У некоторых 200к+ (лям у Gemini в расчет не берём ибо уже после 200к он начинает бредить).

    32к это крайне мало. С этим только на простые вопросики отвечать. Но для них я могу спокойно использовать Grok-4 или Gemini. Зачем мне с таким контекстным окном подписка? Можно сказать, что для большего контекста юзай API. При том что у Gemini сейчас по API 100 бесплатных запросов в день и его вполне хватает для большинства задач.

    Лучше всего сейчас купить подписку на Claude и миксовать с Gemini через Ai studio


    1. runaway_llm Автор
      11.08.2025 22:09

      Оказывается, OpenAI допустили ошибку: 32K только для базовой GPT-5, а GPT-5 Thinking обладает контекстным окном в 192K. Вот новость, в тексте сейчас тоже исправлю - https://habr.com/ru/news/936350/