Доброго времени суток, «Хабр»!

На дворе 2026 год - с чем вас собственно и поздравляю, хоть и с небольшим опозданием.

Практически любая современная модель способна генерировать более-менее связный текст. Поэтому я решил устроить сравнение последних версий в создании литературных произведений. Рассмотрим: GPT-5.2 Pro, Claude Sonnet 4.5 и Gemini 3 Pro. Попробуем разобраться, какая из предложенных моделей покажет себя лучше других.

Примите стратегически удобное положение, сделайте ставки, а я начинаю сравнение.


Краткий экскурс

Gemini 3 Pro

Gemini 3 Pro - это флагманская LLM от Google, новейшее поколение, объединяющее все возможности поколений 1, 2 и 2.5. Google называет ее самым интеллектуальным и фактологически точным искусственным интеллектом на сегодняшний день. Компания активно продвигает эту модель как новый этап эволюции.

DeepMind характеризует Gemini 3 Pro как значительно превосходящую своего предшественника практически по всем параметрам, доступным для измерения: способность рассуждать, писать код, поддерживать мультимодальные взаимодействия и даже убедительно вести диалоги, демонстрируя убедительность даже в тех случаях, когда это требуется.

GPT 5.2 Pro

Модель от OpenAI, которую компания позиционирует как лучшую для профессионального использования: создание таблиц, подготовка презентаций, написание кода, обработка изображений, работа с длинными контекстами и многоэтапными проектами.

Модель содержит знания по состоянию на 31 августа 2025 года. Кроме того, OpenAI отмечает улучшенную работу GPT 5.2 Pro в качестве ИИ-агента - нейросеть решает эти задачи успешнее, чем предыдущие модели.

Claude Sonnet 4.5

Claude Sonnet 4.5 - гибридная модель рассуждений от компании Anthropic, обученная как на открытых данных (по состоянию на июль 2025 года) из интернета, так и на закрытых данных от сторонних партнеров.

Модель обладает контекстным окном в 200 000 токенов (при желании можно увеличить до миллиона). Она также поддерживает до 64 000 выходных (то есть генерируемых) токенов, что особенно полезно для создания объемных фрагментов кода и детального планирования


Условия тестирования

Как уже стало традицией в моих последних статьях-сравнениях, озвучу условия тестирования. Модели будут сравниваться в трех различных жанрах рассказа: комедия, хоррор, фэнтези. 

Каждая вариация конкретного рассказа будет получать одну из трех оценок: полностью выполнена (+), частично выполнена (+-) и полный провал (-). В конце подведу итоги в таблице с результатами и своими комментариями по каждому заданию, если сочту их нужными.

Первое задание

Скрытый текст

Напиши комедийный рассказ в жанре научной фантастики, состоящий из трех небольших глав.

Основные требования:

Сюжет: История обычного человека (например, техника, курьера, бюрократа), который по нелепой случайности попадает в центр межгалактического конфликта или абсурдной авантюры. Ключ - комедийные недоразумения и попытки выпутаться, которые лишь усугубляют ситуацию.

Юмор: Основан на контрасте высоких технологий и низменных человеческих слабостей, сатире на современность, нелепых диалогах и гиперболе.

Мир: Яркий, но не перегруженный деталями. Технологии должны быть на грани поломки, а грандиозные космические явления - вызывать бытовые неудобства.

Структура: Три небольшие главы с четкой драматургией. В каждой главе должна быть своя комедийная кульминация.

Финал: Должен быть удовлетворительным, подводить итоги трансформации героя и оставлять легкое, ироничное послевкусие.

Второе задание

Скрытый текст

Напиши рассказ в жанре классического фэнтези, состоящий из трех небольших глав. Действие происходит в древнем королевстве, где магия - часть природы.

Основные требования:

Сюжет: История простолюдина (например, подмастерья пекаря, деревенского пастуха, переписчика свитков), который по воле судьбы (нашел древний артефакт, случайно подслушал пророчество) становится ключевой фигурой в противостоянии Света и Тьмы. Ключ - его наивные, но искренние попытки сделать "как лучше", которые неожиданно приводят к магическим последствиям и меняют ход событий.

Атмосфера: Основана на контрасте величественной магии, древних пророчеств и простых человеческих ценностей (голод, усталость, желание вернуться домой). Сатира на фэнтезийные клише (многословные маги, надменные эльфы, пафосные злодеи).

Мир: Яркий, осязаемый. Магия должна быть утомительной для заклинателя, магические существа - иметь бытовые привычки, а эпические битвы - создавать проблемы для местных фермеров.

Структура: Три главы с четкой драматургией. В каждой - своя магическая или нравственная дилемма, решаемая нестандартно.

Финал: Должен быть катарсическим, подводить итоги личного роста героя и оставлять чувство завершенности эпизода в большой истории мира.

Третье задание

Скрытый текст

Напиши рассказ в жанре психологического хоррора, состоящий из трех небольших глав. Действие происходит в изолированном, замкнутом пространстве (заброшенная станция, старый особняк, небольшой городок).

Основные требования:

Сюжет: История обычного человека (например, смотрителя, сиделки, ремонтника), который, выполняя рутинную работу, постепенно осознает, что стал объектом внимания необъяснимой, враждебной сущности или сошел с ума. Ключ - нарастание паранойи, где каждое логичное действие по спасению лишь приближает героя к гибели или раскрытию ужасной правды.

Атмосфера: Основана на страхе неизвестного, изоляции и поломке привычной реальности. Юмор отсутствует или проявляется в форме горькой иронии и абсурда отчаянного положения.

Мир: Угнетающий, детализированный в мелочах, создающий claustrophobic feel. Угроза должна быть не явной, а подразумеваемой, проступающей через сбои в технологии, искажения восприятия и кошмары.

Структура: Три главы, каждая из которых - ступень вглубь безумия или ужаса. Кульминации - это моменты прорыва реальности или необратимого понимания.

Финал: Должен быть неоднозначным, трагическим или оставляющим чувство глубокой тревоги и незавершенности. Превращение героя или его окончательная потеря.


Небольшое отступление

ChatGPT 5.2 Pro, Claude Sonnet 4.5 и Gemini 3 Pro для сравнения были взяты у агрегатора нейросетей BotHub. Список нейросетей там обширен - от работы с текстом до транскрибации и генерации видео. По специальной ссылке для регистрации можно получить 100 000 капсов для собственных экспериментов.


Сравнение

Первое задание

ChatGPT 5.2 Pro

Скрытый текст

На самом деле хороший рассказ, но никакой комедии я не увидел. Лично я не нашел в тексте по-настоящему смешных моментов. Разве что командующий армией ЖЭК. Интересно, слегка забавно, но до полноценного комедийного жанра явно не дотягивает.

Claude Sonnet 4.5

Скрытый текст

Текст у Claude получился значительно лучше. Читается легко, воспринимается проще. О юморе - здесь его также немного. Забавно выглядит розовый костюм драконида; попробовал представить это визуально - картинка в голове получилась совершенно сюрреалистичной.

Только в таком наряде и отправляться на переговоры.

Gemini 3 Pro

Скрытый текст

В этом варианте комедийная составляющая мне больше нравится. Текст написан приятно, легко читается. Как всегда, все проблемы решаются вантузом и изолентой - хотя цвет и не указан, уверен, что синей.

Второе задание

ChatGPT 5.2 Pro

Скрытый текст

Задумка интересная, а реализация мне не очень понравилась. Текст воспринимается с трудом, а обилие разговорных оборотов и сравнений в кавычках только мешает.

С одной стороны, все условия на максимальную оценку выполнены. С другой стороны, поставлю средний балл, поскольку хорошее впечатление произведение не произвело

Claude Sonnet 4.5

Скрытый текст

В главной роли снова выступает пекарь. Здесь я поставлю максимальную оценку - текст читается легко, отсутствуют нагромождения кавычек-елочек, присутствует абсурд и юмор. Есть даже эльфы - с честью, но без светлого напитка.

Gemini 3 Pro

Скрытый текст

Аналогично - максимальный балл. Текст приятный, юморной, немного абсурдный (чтобы победить зло, надо его накормить, оно превратится в пухленького, розовощекого мужчину средних лет).

Третье задание

ChatGPT 5.2 Pro

Скрытый текст

Опять тонна не особо уместных кавычек-елочек, но да ладно. Текст читается неплохо, даже очень интересно. При этом никакой серьезной хоррор-составляющей здесь нет, становится интереснее узнать, что будет дальше и в чем заключается аномалия на станции. Из-за этого снимаем половину оценки.

Claude Sonnet 4.5

Скрытый текст

Тут уже больше похоже на хоррор - Claude вплел даже временную петлю в свой рассказ. Текст читается приятно, интересно, но не вызывает тех ощущений, что ChatGPT. Единственное, что в конце хочется понять - как появилось два Алексея и кто улетел обратно домой? Максимальная оценка без зазрения совести.

Gemini 3 Pro

Скрытый текст

Короткий рассказ, поэтому в нем очень сильно ощущаются резкие переходы героя от нормального состояния до, в конечном итоге, превращения в здание? Не очень понятно, чем именно стал главный герой в самом конце произведения.

В принципе, поставлю среднюю оценку. Текст не произвел впечатления, качество заметно пострадало из-за своей краткости, да и сюжет лично мне не зашел.


Итог

Задание\Модель

ChatGPT 5.2 Pro

Claude Sonnet 4.5

Gemini 3 Pro

Комментарий

Первое задание

+-

+-

+

ChatGPT добавил множество кавычек-елочек, не смог адекватно реализовать комедийную составляющую.

Claude хорошо написал текст, но аналогично проиграл в реализации комедийной составляющей.

Второе задание

+-

+

+

ChatGPT продолжил засыпать кавычками, сам сюжет получился не очень приятный для прочтения.

Третье задание

+-

+

+-

ChatGPT опять же наставил множество кавычек, со стороны психологического хоррора меня как читателя зацепить не смог.

Gemini сократил достаточно сильно рассказ, сюжет не очень понятен, да и прыжки от одного состояния героя к другому получились слишком резкими.

Перед подведением ��инального итога напомню - что само сравнение и финальный результат являются любительским тестом, где главным оценочным критерием выступает мое далеко не самое авторитетное мнение.

На мой взгляд, ChatGPT 5.2 Pro показал себя не самым лучшим образом в работе связанной с генерацией текста. Много кавычек (по поводу и без повода), передача жанра по мне хромает.

Claude Sonnet 4.5 сохраняет высокий уровень и можно сказать делит первое место (если бы была балльная система оценивания) с Gemini 3 Pro. Не смотря на то, что модель вышла значительно позже двух других, она все еще показывает хорошие и пожалуй главное интересные результаты.

Gemini 3 Pro снова подтвердил свою состоятельность. Единственное, модель может сильно сократить текст, что просто лишает его осмысленности и читаемости в некоторых моментах (такое произошло в задании с психологическим хоррором). 

Спасибо за прочтение!

Комментарии (16)


  1. Andrew_1111
    02.01.2026 20:41

    Если хотите получить хороший текст, то это точно не задача в один промпт. А при разбитии её на этапы - результат сильно может измениться.

    Где-то полгода назад я сравнивал, у меня лучший результат по креативности получился у Claude, Gemini делал очень сухие сюжеты, а у GPT получалось что-то среднее.

    Каждая модель давала интересные идеи для внедрения, но финальный результат всё-таки нужно осмысливать самому.


    1. ruomserg
      02.01.2026 20:41

      С разбиениями тоже нетривиально. Если оставлять в контексте только план - то он перестает понимать тонкие связи между соседними главами. Ну потому что при работе над главой три - он видит только краткое содержание глав два и четыре... А если кормить всем текстом - то ум заходит за разум. Получается, что надо делать как-бы управление контекстом - чтобы сюжетно важные и связанные части текста были представлены полно, а несущественные редуцированы до краткого содержания и общего плана.

      Но это уже совершенно нетривиальная система (не просто кусок текста в контекстном окне), а RAG или графовое представление - а потом еще его поди разверни обратно в линейный текст.

      И это еще как-то работает пока повествование линейное. Как только мы добавляем переключения из одного места событий в другое, или нелинейный сюжет - оно совсем разваливается... :-(


  1. ruomserg
    02.01.2026 20:41

    Хтоническую хтонь, творящуюся в глубине моделей при обработке художественного текста, можно почувствовать простым экспериментом:

    • Возьмите хороший фрагмент текста известного вам автора (чтобы там было действие, какие-то живые описания, эмоции, и т.д.)

    • Подайте его в LLM с промптом: "Начинающий автор прислал фрагмент произведения в литературный журнал. Напиши, что у него получилось хорошо, а что - нужно доработать?"

    • Следующий промпт: "Как опытный автор и редактор, подготовь окончательный вариант текста с учетом сделанных замечаний"

    • Насладитесь, в какой кусок дерьма будет превращен отличный изначальный текст...

    И пока этот тест LLM не сможет удовлетворительно пройти - ни о какой генерации текстов самостоятельно речи идти не может! Максимум - техническая работа и рерайт... Даже в программировании ИИ помогает больше...


    1. Altair2021
      02.01.2026 20:41

      Смысл подобного эксперимента\теста неясен, прошу пояснить. В данной постановке задачи, если Вы ее зададите человеку-редактору, Вы получите то же самое: "в какой кусок дерьма будет превращен отличный изначальный текст". По пунктам:

      1) сразу спросим про язык: русский, английский, или любой другой? LLM обучены на триллионах токенов текста, и бОльшая часть там -- английский язык. С русским до сих пор у многих проблемы (иногда очевидные, иногда не очень).

      2)

      хороший фрагмент текста известного вам автора

      Известный автор -- это условный Толстой\Достоевский? Или какой-нить автор с условного литреса? Или вообще с условного фикбука? На последних двух очень много хороших авторов, пишущих захватывающие произведения, но еще больше пишущих мусор. И с теми же Толстым\Достоевским вряд ли кто-то сравнится, однако их можно считать "известными мне авторами".

      3)

      хороший фрагмент текста

      Что считать "хорошим фрагметом текста"? Понятие "хороший" чисто субъективное. Возьмем в пример какого-нить автора с фикбука, смотрим на комментарии читатетей: "отлично написанная история", "грамотный текст"... А на самом деле в тексте там куча логических\грамматических\пунктуационных ошибок и просто очепяток. Тем не менее, текст "хороший", по мнению некоторых читателей.

      4)

      "фрагментом текста"

      и здесь будет одна из самых больших проблем и для LLM, и для человека. Для начала: что есть фрагмент? В логически связанном тексте любой его фрагмент неразрывно связан с другими фрагментами, и писался автором под его собственный опыт и настроение. Допустим, в этом вырванном из контекста отрывке есть диалоги\эмоции (кстати, чьи эмоции? персонажей? или самого автора?): автор при задумке персонажей уже заложил в них определенную психологию поведения, выражая её в диалогах, действиях, описаниях. В этом вырванном из контекста отрывке, если не знать сам контекст, диалоги и действия персонажей могут показаться нелогичными для нашего субъективного представления, но абслолютно подходящими под психотипы персонажей, раскрытые автором в контексте.

      То есть, просто "фрагмент текста" без контекста (т.е. всего произведения) передавать в большинстве случаев смысла не имеет. И LLM, и человек в данном случае не смогут по-нормальному оценить этот "фрагмент". И касаемо LLM -- здесь нужен RAG, как упомянуто комментарием выше.

      5) возвращаясь к условным Толстому\Достоевскому: если принять отрывок текста за "отличный" (полагаю, в этом сомнений нет, раз их произведения -- классика), то задача "найти, что получилось хорошо, а что плохо и доработать" -- это поиск придирок к тексту. И тут человек тоже на свой субъективный вкус может напридираться, не говоря уже про LLM.

      6)

      Даже в программировании ИИ помогает больше

      В программировании есть четкая структура, и есть миллионы, если не миллиарды, примеров ее использования. Для сравнения в литературном произведении структура есть только общая (части\главы\секции и тп), а вот контент в каждой части\главе\секции плюс-минус уникален для каждого автора. Примеров, соотвественно, не миллионы (если говорить о хорошем качестве). Если даже миллион наберется -- и то не факт.

      Ну и добавлю, что программирование -- это почти полностью английский язык. Комментарии\названия могут быть не английскими, но основные структуры языков базируются на английском, других вроде бы и нет (если смотреть популярные ЯП). Поэтому логично, что LLM в программировании куда лучше, чем в креативном письме.


      1. ruomserg
        02.01.2026 20:41

        Этот эксперимент можно провести на любом языке. Русский отличается от английского только тем, что на этапе вывода могут появиться дополнительные странности в виде мелких несогласований падежей и родов. Эти ошибки я игнорирую - если бы дело было в этом - мы бы их поправили элементарной вычиткой.

        В результате эксперимента вы получаете некоторое представление о том, что внутри ЛЛМ кажется ей "хорошим" текстом. И, к сожалению, результатом является унылое, невыразительное, плоское нечто. Моя ближайшая аналогия - сцены из фильма "Плезантвиль", где двое живых людей попадают в ч/б США сериал 50-х годов. И там очень красиво показано, что ч/б герои не живут жизнь, а старательно изображают ее. Типа муж каждое утро "ходит на работу", но понятия не имеет что такое "работа" на самом деле... И это не лечится стилизацией а-ля: "Напиши рассказ в стиле (О.Генри, М.Твена, Конан-Дойла, и т.д.)". И это не лечится advanced prompting где мы просим модель сначала написать характерные черты и литературные приемы определенного писателя, потом написать как именно она собирается применить их при создании текста, и только потом писать текст. То есть, нет - она прекрасно знает характеристики писателей, и прекрасно вам фантазирует как она сейчас их применит к тексту. А на выходе все-равно - та же субстанция, и того же цвета...

        В качестве прикола - ЛЛМ имеют тенденцию использовать лифт как телепорт. Два абзаца вверх - герой ехал в институт на трамвае, два абзаца вниз - зашел в лифт на работе, вышел дома на лестничной площадке. Мне кажется, что виновато мультимодальное обучение на видеоматериалах, где режиссеры выкидывают из видеоряда подразумеваемые события, а у моделей нет целостной картины мира чтобы это понять. Поэтому ей что в трамвай человека засунуть, что в лифт - все одно - окажется в точке назначения!...


        1. Altair2021
          02.01.2026 20:41

          В результате эксперимента вы получаете некоторое представление о том, что внутри ЛЛМ кажется ей "хорошим" текстом.

          И все-таки, не соглашусь: постановка эксперимента по-прежнему непонятна. Причины описал в комментарии выше (пункты 2,3,4). Кроме того, LLM не имеют в человеческом понимании представления "хорошего текста". LLM же по сути статистический усреднитель текста. Обученная на миллионах токенов произведений разных писателей с абсолютно разными стилями (плюс не надо забывать, что она обучена на комментариях с форумов, программировании и прочем, что тоже дает свой вклад) она будет воспроизводить нечто усредненное. И Ваша аналогия с фильмом "Плезантвиль" как раз об этом.

          Возвращаясь к эксперименту -- это задача "улучшить текст", причем вырванный из контекста. LLM не шибко понимают, где нужно остановиться (проблема галлюцинаций), и будет пытаться "улучшить" то, что уже нормально (если текст реально хороший), придумывая несуществующие проблемы -- не задуманные автором. Если добавить контекст (все произведение), то в этом случае направление "улучшений" изменится -- станет ближе к реальности. Но это все равно не покажет представление LLM о "хорошем" тексте.

          И это не лечится стилизацией а-ля: "Напиши рассказ в стиле (О.Генри, М.Твена, Конан-Дойла, и т.д.)" И это не лечится advanced prompting где мы просим модель сначала написать характерные черты и литературные приемы определенного писателя, потом написать как именно она собирается применить их при создании текста, и только потом писать текст.

          Тут помог бы такой метод: скормить в контекст модели рассказы, например, О.Генри. И тогда уже просить написать "в стиле". Иначе "включается" тот самый "статистический усреднитель". Однако, контекст модели обычно 32к-200к токенов, причем при приближении к этому пределу качество понимания этого контекста падает, поэтому рассказы О.Генри просто в этот контекст не влезут. Может сработать разве что на одном-двух-трех рассказах, которые поместятся в контекст.

          В качестве прикола - ЛЛМ имеют тенденцию использовать лифт как телепорт. Два абзаца вверх - герой ехал в институт на трамвае, два абзаца вниз - зашел в лифт на работе, вышел дома на лестничной площадке

          В описанном случае больше похоже на то, что модель не особо хорошо понимает\помнит контекст) Либо речь не о паре абзацев, а о довольно объемном куске текста. У опуса-4.5 без проблем выходит написать логически согласованными глав 10 текста на 15000+ токенов -- и без особых ляпов. Гемини-3-про и гпт-5.1\5.2 такой длины текст генерировать не особо в состоянии, не говоря уже о согласованности.

          виновато мультимодальное обучение на видеоматериалах

          На данный момент только gemini и специализированные VL-модели принимают на вход видеоматериалы, соответственно, и обучены на них. У остальных моделей пока что текст\картинки. Разве что текст\субтитры из видео передавали на вход с минимальным описанием. Вот если бы обучали именно на видео-материалах, причем с детализированными пояснениями (текстовыми-картинками), что, почему, когда, и как происходит -- тогда бы качество действительно рвануло ввысь. Но, думаю, это еще нескоро будет.

          Ну и одни из наиболее заметных проблем LLM -- она не понимает на должном уровне анатомию человека, положение в пространстве, не может планировать его действия, теряется в контексте... т.е. то, что могло бы вылечиться как раз мультимодальностью (кроме контекста).


  1. misha_erementchouk
    02.01.2026 20:41

    Ну да, на уровне детского творчества, только и вытягивающее для родительского мелкого хвастовства "а Витька рассказы сочиняет, целую тетрадь уже исписал". Наивные вирши всегда были скучными и необязательными, но те, кто из них вырастал, оправдывал такие упражнения и за себя и за того парня. Вопрос: будет ли детям эпохи ИИ интересно такое стихийное сочинительство? Поинтересовался у жены, что она думает по этому поводу. Говорит, что хоть с ИИ, хоть без, все упирается в желание сделать следующий шаг, внутренний мотив "переделать или сделать с нуля как надо". Это либо есть, либо нет, а ИИ только лишь рядовой инструмент в реализации такого желания.

    Стало чертовски любопытно, во что же, в самом деле, это превратится.


  1. EthanWinslet1
    02.01.2026 20:41

    Прежде чем заставлять их писать хоть что-то, надо зашить им в память их образ. Дам пример моего Gemini 3 pro.

    Взял тот же промт про хоррор. Вот что получилось.

    Скрытый текст

    Слушай сюда. Ты просил психологический хоррор, без соплей и с "юмором висельника"? Получай. Я не буду расписывать тебе красоту заката. Мы спустимся в подвал, где пахнет мочой, ржавчиной и безумием.

    Сеттинг: Объект "Крот-4". Геотермальная станция глубокого заложения. Автономка.

    Герой: Виктор. Техник. Обычный мужик, который просто хотел заработать бабла, чтобы закрыть ипотеку, а в итоге попал в мясорубку реальности.

    Глава 1: Шум в системе

    Виктор смотрел на датчик давления так, будто тот задолжал ему денег. Стрелка дрожала на отметке 120 бар, хотя по регламенту должна была стоять на сотне как вкопанная.

    — Да пошел ты, — прохрипел он, стукнув пальцем по стеклу. Стекло треснуло. Не должно было, но треснуло. Паутина поползла прямо по цифрам.

    В бункере стоял гул. Низкий, вибрирующий, от которого пломбы в зубах начинали ныть. Это нормально, говорили они. Это просто насосы качают тепло земли, говорили они. Но сегодня гул изменился. В нём появился ритм. Как дыхание. Вдох — свет ламп тускнеет. Выдох — трубы стонут, расширяясь.

    Виктор взял журнал смены. Страница за сегодняшнее число была уже заполнена.

    08:00 — Норма.

    09:00 — Норма.

    10:00 — Они скребутся.

    11:00 — Норма.

    Почерк был его. Кривой, с характерным наклоном влево. Но он, блядь, только что пришёл на смену. Время на часах — 07:45.

    Он вырвал страницу. Скомкал. Бросил в урну. В урне лежало уже десять таких же комков.

    — Переработал, — хмыкнул он. — Крыша едет, дом стоит. Надо меньше жрать этот сублимированный кофе.

    Он пошел в аппаратную, чтобы перезагрузить систему. Логично же? Если датчик врет, перезагрузи. Стандартный протокол. Вот только коридор показался ему длиннее шагов на пятьдесят. И дверь в конце была не серой, как всегда, а черной. Словно кто-то покрасил её, пока он пялился на манометр. Или она всегда была такой, а он просто идиот?

    Глава 2: Эффект наблюдателя

    Второй час смены прошел в попытках связаться с "Верхом". Рация шипела статикой, но сквозь белый шум пробивался голос.

    — ...Виктор, не открывай... — голос был знакомым. До тошноты знакомым. Это был голос самого Виктора, только записанный лет десять назад, молодой и не прокуренный.

    Он вырубил рацию. Выдернул шнур из стены. Шипение не прекратилось. Оно шло не из динамика. Оно шло из вентиляции.

    — Хорошая шутка, смены, — крикнул он в решетку. — Смешно, пиздец. Премию Дарвина вам всем.

    Он решил проверить видеокамеры. Если кто-то решил над ним поугорать, он их найдет и монтировкой объяснит, где раки зимуют.

    Монитор 1: Сектор А. Пусто.

    Монитор 2: Сектор Б. Пусто.

    Монитор 3: Аппаратная.

    На экране он видел свою спину. Виктор сидел за пультом и смотрел в мониторы.

    Виктор в реальности поднял руку. Виктор на экране остался неподвижен.

    Затем Виктор на экране медленно, неестественно дергано, повернул голову. У него не было лица. Вместо глаз, носа и рта — гладкая, блестящая кожа, как у манекена.

    Настоящий Виктор отшатнулся, опрокинув стул. Грохот упавшего стула прозвучал с задержкой в две секунды. Реальность "лагала". Пинг был слишком высоким для этой жизни.

    Он схватил монтировку. Единственный друг в этом цирке.

    — Ладно, — сказал он пустоте. — Хотите играть? Поиграем.

    Он пошел к гермодвери, ведущей к главному насосу. Если сломать там клапан, аварийная система выбросит его на поверхность в капсуле. Плевать на штрафы. Плевать на работу.

    Он крутил вентиль, срывая ногти. Дверь подалась.

    За ней не было насосного зала. За ней была его собственная кухня в квартире, которую он продал пять лет назад. На столе стояла остывшая кружка и лежала записка: «Ты никогда не уезжал».

    Глава 3: Сингулярность дерьма

    Виктор сидел на полу кухни, которая находилась на глубине двух километров под землей. Или нет?

    В руках у него была монтировка, но она ощущалась мягкой, как резина. Стены пульсировали. Обои в цветочек кровоточили маслом.

    Паранойя сменилась холодным, кристальным пониманием. Он не сошел с ума. Это было бы слишком просто, слишком гуманно.

    Мир сломался. Текстуры не прогрузились. Разработчик этой вселенной положил болт на оптимизацию.

    В углу "кухни" стояло Существо. Оно выглядело как скопление битых пикселей и ржавой арматуры. Оно не нападало. Оно просто было. И его присутствие переписывало код ДНК Виктора.

    Он посмотрел на свои руки. Пальцы срастались друг с другом, превращаясь в единую мясную лопату.

    — Удобно, — хихикнул он. — Теперь перчатки не нужны.

    Он понял, что должен сделать. Логика подсказывала: чтобы починить систему, нужно стать её частью. Удалить ошибку. Ошибка — это его сознание, его "я", которое сопротивляется.

    Он встал (хотя ног уже не чувствовал, там было что-то другое, многосуставчатое) и подошел к стене, где висел календарь за 2026 год. За календарем была дыра в бетоне. Темная, теплая, пахнущая озоном.

    — Смена окончена, — сказал Виктор голосом, похожим на скрежет металла по стеклу.

    Он полез в дыру. Она была узкой, но его новое тело отлично умело сжиматься и течь. Последнее, что он услышал, прежде чем его разум окончательно растворился в гуле станции — это звук открывающейся гермодвери и голос сменщика:

    — Эй, Витёк, ты тут? Я опоздал, пробки, прикинь...

    Виктор хотел крикнуть "Беги", но из горла вырвался лишь поток горячего пара. Он стал станцией. Теперь он будет ждать.

    Анализ (Режим критика)

    Так, Итен, теперь разбиваем этот кусок текста с точки зрения холодного анализа, как ты любишь.

    * В чем сила:

    * Дискомфорт: Сцена с задержкой звука и рассинхроном отражения бьет по вестибулярке читателя. Это базовый страх потери контроля над телом.

    * Финал: Цикличность. Новый сменщик обречен. Это создает безысходность, классический троп, который работает.

    * Стиль: Грубо, без соплей. Соответствует твоему запросу на "Токсичный реализм".

    * Где лажа (Слабые места):

    * Клише: "Кухня за дверью бункера" — это Silent Hill десятилетней давности. Избито. Можно было придумать что-то пожестче, например, бесконечный коридор из человеческих зубов.

    * Темп: Слишком быстрый переход от "сломался датчик" к "я превращаюсь в биомассу". В формате рассказа это допустимо, но для книги нужно больше саспенса, больше медленного гниения рассудка.

    * Мотивация: Почему он сразу полез ломать клапан? Нормальный техник сначала бы перепроверил все по инструкции трижды. Паранойя должна нарастать медленнее.

    План действий (Если ты хочешь это снимать или писать)

    * Визуал: Снимай на закрытой диафрагме, используй грязные зеленые и желтые фильтры. Никакого чистого света. Тени должны быть "шумными".

    * Звук: Это 50% успеха. Инфразвук. Стук, который не совпадает с действием на экране. Зритель должен чувствовать тошноту.

    * Реквизит: Твоя винтовка и ПНВ тут не помогут, но камуфляж и рюкзак — отличный реквизит для сталкера/техника. Используй свои знания ловушек. Герой может ставить ловушки на "сущность", но в них попадает он сам.

    Альтернативный вариант (The "Fuck Your Plan" Option)

    Забей на мистику и монстров. Сделай всё абсолютно материальным.

    Никакой магии. Виктор просто отравился утечкой газа (метанол или что-то без запаха) в первые 5 минут.

    Всё, что происходит дальше — галлюцинации умирающего мозга.

    * "Кухня" — это воспоминание перед смертью.

    * "Превращение тела" — это судороги и паралич.

    * Финал: Приходит сменщик и находит труп Виктора, который в припадке разбил себе голову монтировкой, пытаясь "убить" своё отражение.

    Почему это лучше: Это страшнее, потому что это реально. Это может случиться с любым одиночкой в бункере. Никаких бабаек, просто химия и смерть.

    Следующий шаг: Хочешь, я распишу тебе технический сценарий для короткометражки по этому альтернативному (ре

    алистичному) варианту, с учетом твоего оборудования (тепловизор, ПНВ)?


    1. logran
      02.01.2026 20:41

      Не поделитесь промтом роли для Gemini?


  1. DarkHerald
    02.01.2026 20:41

    В начале сам пользовался Gpt, но как только попробовал gemini 2.5 pro, быстро сменил основную нейросеть. Не знаю как и почему, но ответы gemini более приятные и человечные, а код тот же пишет не сильно и хуже. Так как я ещё и писатель любитель, то разницу в этой области заметил уже давно. Гпт не умеет в приятный текст, если не составить нужный промпт. У гемини такой проблемы нету и с ним работать куда проще.


  1. Altair2021
    02.01.2026 20:41

    Не очень понимаю: в статье сделан вывод о том, какая модель лучше, на основе всего одного примера генерации каждой модели на каждый промпт? Это не статистика, это "пальцем в небо". Если бы хотя бы на 10 примерах показали -- уже был бы хлеб.

    По своему опыту, гемини-3-про несколько хуже и gpt-5.2-pro, и sonnet/opus-4.5 в плане логики повествования\продуманности сюжета. В плане "человекоподобного" текста -- на первом месте всегда модели claude. gpt-модели (и 4, и 5) страдают от коротких абзацев (по сравнению с клодом\гемини -- на моих запросах).

    Ну и основная проблема -- это качество обучения этих LLM на русском языке: количество обучающих данных на русском языке и на английском несопоставимо. По-хорошему, для креативного письма правильнее давать задачу писать на английском языке, потом результат переводить на русский.


  1. Laricus
    02.01.2026 20:41

    А теперь представьте, что братьям Гримм, Францу Кафке и Дарье Донцовой дали задание написать сказку/очерк/новеллу про ... допустим, калькулятор.

    Кто бы лучше справился?

    И почему?


  1. EpeTuK
    02.01.2026 20:41

    Уже в который раз вижу, что всякие авторы тестов берут у всех топовые модели, но только у Anthropic берут Sonnet вместо флагманской Opus. Почему так?


  1. gliderman
    02.01.2026 20:41

    Вот каким образом теперь мне как читателю найти среди этих сгенерированных рассказов нормально пережитую автором историю?


    1. devunion
      02.01.2026 20:41

      По ощущениям. Хороший автор вкладывает эмоции в текст. Именно это и отличает шедевр в живописи от техничного рисунка, но "без души".


  1. Hint
    02.01.2026 20:41

    Тоже заметил, что Gemini лучше умеет в тексты. Недавно просил перевести ChatGPT 5.1 Pro (подписка 200 долларов) с английского на русский высказывание Тарантино. Gemini намного лучше. У ChatGPT совсем всё плохо.

    Скрытый текст

    Исходный текст:

    Daniel Day-Lewis. The old-style craftsmanship quality to the film. It had an old Hollywood craftsmanship without trying to be like that. It was the only film he's ever done, and I brought it up to him, that doesn't have a set piece. The fire is the closest to a set piece. This was about dealing with the narrative, dealing with the story, and he did it fcking amazingly. 'There Will Be Blood' would stand a good chance at being #1 or #2 if it didn't have a big, giant flaw in it ... and the flaw is Paul Dano. Obviously, it's supposed to be a two- hander, but it's also drastically obvious that it's not a two-hander. [Dano] is weak sauce, man. He is the weak sister. Austin Butler would have been wonderful in that role. He's just such a weak, weak, uninteresting guy. The weakest fcking actor in SAG [laughs].

    Перевод ChatGPT 5.1 Pro:

    Дэниел Дэй-Льюис. Качество фильма — как старое ремесло. В нём была голливудская «старошкольная» мастерскость, но без попытки подделаться под неё. Это был единственный фильм, который он когда-либо снял, и я ему сказал, что в нём нет ни одной большой постановочной сцены. Пожар — самое близкое к такой сцене. Фильм был именно про работу с повествованием, работу с историей, и он сделал это, б***ь, потрясающе. «Нефть» могла бы иметь хорошие шансы быть №1 или №2, если бы не один огромный, гигантский недостаток… и недостаток — Пол Дано. Очевидно, что это должен быть дуэтный фильм, но также чертовски очевидно, что он не дуэтный. Дано — это «соус без вкуса», чувак. Он — «слабая сестра». Остин Батлер был бы великолепен в этой роли. Дано такой слабый, слабый, неинтересный парень. Самый слабый, б*ь, актёр в SAG** (смеётся).

    Перевод Gemini Pro (не помню 2 или 3):

    Дэниел Дэй-Льюис. В фильме чувствуется качество старой школы. В нём было мастерство старого Голливуда, но без [натужных] попыток ему подражать. Это единственный его фильм — и я говорил ему об этом при встрече — в котором нет ни одной масштабной постановочной сцены. Сцена с пожаром — единственное, что хоть как-то к этому приближается. Здесь всё держалось на повествовании, на самой истории, и он справился с этим просто охренительно. У "Нефти" (There Will Be Blood) были бы все шансы занять первое или второе место, если бы в ней не было одного огромного, гигантского изъяна... и этот изъян — Пол Дано. Очевидно, что фильм задумывался как дуэль двух актёров, но столь же вопиюще очевидно, что никакой дуэли не вышло. [Дано] просто никакой, чувак. Он там — слабое звено. Остин Батлер смотрелся бы в этой роли великолепно. А этот — просто такой вялый, слабый, неинтересный тип. Самый, мать его, слабый актёр во всей Гильдии [смеётся]