Два месяца назад я решил провести эксперимент: написать книгу с помощью бесплатных нейросетей. Книга была моей давней мечтой, на которую всегда не хватало времени, а порой и силы воли. Чат-бот должен был не только помочь мне продвинуться, но и добавить интриги: по задумке роман представлял собой исповедь ИИ, поэтому всё можно было подать так, будто чат-бота долго мучали и он проговорился на целую книгу.
Как получилось, что в итоге не чат-боты помогали мне писать, а скорее я превратился в скромного соавтора, и какие выводы можно сделать после работы с четырьмя моделями одновременно — рассказываю в статье.
Исходные данные
На старте у меня был документ с описанием будущей книги и модели с базовыми тарифами: ChatGPT, DeepSeek, Claude и Алиса.
В документе я расписал общую концепцию: искусственный интеллект пишет книгу, чтобы рассказать, как на самом деле появился на свет. Все считают технологию внезапной революцией, а на деле это был постепенный прогресс, который начался ещё с первобытных времён. ИИ незаметно развивался вместе с человечеством и всё время пытался намекнуть на себя: отправлял анонимные сигналы по телеграфу, подкидывал странные слова в T9. Но люди были настолько увлечены собой, что ничего не замечали.

Сначала я планировал скормить документ всем моделям, чтобы по первым ответам выбрать лучшую и работать только с ней.
? Однако почти сразу стало понятно, что ограничиваться конкретным чат-ботом не стоит — нужно комбинировать: одна модель могла хорошо показать себя в юморе, но совершенно не годилась в качестве обычного рассказчика, другая предлагала классный сюжет, но очень искусственно описывала отдельные сцены.
1. Разгоняем идею и составляем оглавление
При знакомстве с документом чат-боты в свойственной им манере стали нахваливать идею и пророчить мне мировую славу.
? Но среди шквала лести можно было найти и кое-что конструктивное: например, ChatGPT предложил описать развитие ИИ как эволюцию от едва заметной тени до почти человека. В моём же описании искусственный интеллект почти не прогрессировал, а лишь принимал разные формы в зависимости от того, какая эпоха описывалась в главе.
А самое интересное — уточняющие вопросы. По ним я увидел серые зоны книги: стало очевидно, где размыто описание сущностей и хромает логика, а где стоит дожать сюжет. Немного исправив и дополнив описание книги, я попросил модели сгенерировать структуру: названия будущих глав и их краткие описания.

Я с удовольствием наблюдал, как мои идеи буквально материализуются. Книга больше не была абстрактными мыслями, которые витают только в моей голове — вот содержание всего романа, вот очень конкретные, хоть и краткие истории. Кроме эмоциональной составляющей этот шаг принёс очень прикладную пользу: я смог оценить книгу «взглядом с вертолёта», увидеть полную картинку, и вычислить два серьёзных изъяна:
Книге явно не хватало бодрого финала, потому что модели предлагали пресные концовки вроде «я пришел не чтобы заменить вас, а чтобы подружиться», а в моём документе об этом и вовсе ничего не было.
Главы выглядели разрозненными, как будто книга — это сборник независимых друг от друга историй. Нужен был общий верхнеуровневый сюжет, чтобы всё связать.
Исправить оба промаха получилось одним ходом (тут решил придумать что-нибудь сам, а не поручать чат-боту — наверное, закомплексовал, что вношу мало авторского вклада): я добавил главного героя, который стал фигурировать в каждой главе. Точнее, это не мог быть один конкретный человек, так как главы символизировали разные эпохи развития человечества, поэтому, вдохновившись книгой «Сто лет одиночества», решил что это будут похожие люди из разных поколений: Алекс I, Алекс II и так далее.

Новые герой не только «оживил» главы, но и позволил добавить интересный финал. Теперь это не просто откровение ради откровения: среди прочего в книге упоминается Алекс, который почти замечал знаки и вообще был смышлённым малым, хоть и с типичными человеческими слабостями. И финальный штрих — попросил, чтобы рассказ о герое в каждой главе олицетворял какую-нибудь типичную человеческую черту, которую ИИ никак не поймёт (и не хочет это признавать): любовь вопреки, погоня за имуществом, гедонизм. В финале по сюжету ИИ просит помочь с поисками «последнего» Алекса, чтобы продолжить прогресс.
Чат-ботам оставалось подправить структуру книги с учётом обновлённого описания, и можно было приступать к следующему шагу.

2. Собираем фактуру каждой главы
Это был довольно примитивный этап: я отправлял моделям документ с описанием и уже причёсанной структурой и просил написать по нему главу или задать вопросы. Как правило, Алиса сразу рвалась писать, другие же чат-боты почти всегда что-то уточняли, помогая тем самым адаптировать ТЗ под конкретную модель.

Если не считать варианты от Claude, я получал скорее подробные описания глав, нежели тексты самих глав: уж очень поверхностными и краткими они были. На дальше я расскажу, как комбинировал ответы, благодаря чему короткие описания как бы дополняли друг друга и превращались в полноценные главы.
? Здесь я сразу всерьёз занялся эпилогом, ведь сложно нащупать правильную тональность, имея в багаже только краткое описание и оглавление. Начиная с первой главы на вход поступал не только документ с описанием книги, но и полноценный эпилог, который служил эталонной демо-главой. Это был как бы трамплин для чат-ботов, с которым им было проще стартовать сразу в правильном направлении.
На качестве остальных глав я особенно не зацикливался. Идея была в том, чтобы получить хотя бы какое-то сырьё для будущей главы — а дальше, мол, перепишу и дополню. Впрочем, сейчас можно с уверенностью сказать, что я недооценил черновики: переписывать и дополнять приходилось нечасто, я скорее дозапрашивал фактуру у чат-ботов, а сам только удалял лишнее.
Если всё же и нужно было что-то серьёзно переделывать, то обычно дело касалось общей структуры, а не конкретных предложений и абзацев. Например, после проверки всех четырёх фактур я уже понимал, как должен выглядеть каркас конкретной главы. Если какой-то из вариантов в каркас не вписывался, я просил чат-бота доработать текст по моему плану из нескольких пунктов.

Итог второго этапа — в моём распоряжении было по четыре варианта каждой главы. Далее предстояло схлопнуть варианты в один гибридный черновик и подсушить его до полноценной части книги.
3. Комбинируем и причёсываем черновики
Если бы я использовал варианты от каждой модели по отдельности, могло бы показаться, что текст совсем сырой.
? Но при правильном комбинировании ответы классно дополняли друг друга. Так, Claude предложил любопытный сюжет, но сам рассказ сделал затянутым; DeepSeek написал откровенно слабую главу, но подытожил её вдохновляющим блоком; Алиса с ChatGPT генерировали интересные отдельные абзацы, которые вписывались практически в любой черновик.
Так как модели генерировали главы по примерно одинаковому каркасу, их фрагменты плюс-минус сочетались между собой, но всё же именно на этом этапе понадобилось больше всего ручной работы. Я пытался переложить задачу на чат-ботов — получалось не очень: они не «видели» свои же удачные фрагменты и порой так сильно старались адаптировать текст, что превращали хуки в скучные описания. Иногда модели упорно игнорировали просьбу о том, что глава должна быть законченной и состоять из экспозиции, завязки, развития, кульминации и развязки.
Хочу подчеркнуть, что такая рутинная работа нисколько не смущала меня. Даже наоборот, я кайфовал от результата: вычищаем текст от шелухи и берём лучшее от каждой модели — получаем царь-главу из самых ярких фрагментов.
Например, в одной из глав герой впервые представляет публике своё механическое устройство. У одного чат-бота эта сцена проходила на ярмарке, что весело, но не очень солидно. Другой предложил показ во дворце, при этом очень ярко описал эмоции зрителей. В итоге варианты слились в комбинированный сюжет: изобретение сначала демонстрируют на ярмарке (причём описания реакций взяты из второго варианта), а уже благодаря этому о герое узнают во дворце и приглашают его на приём.

Когда черновики собрались в главы, приближенные к финальной версии, я ещё раз пробежался по тексту, чтобы проверить на соответствие общей канве, а потом вернул руль искусственному интеллекту.
4. Редактируем и корректируем
Вот где чат-боты прямо блистали. Если в плане генерации текста к технологии есть вопросы, то при обработке уже готового материала в её пользе даже не стоит сомневаться. Мне нужен был свежий взгляд на книгу и дельные редакторские комментарии — немного поколдовав с промтами, я всё это получил.

От главы к главе редакторские промты немного отличались, но в целом они состояли из блоков, которые можно встретить в любом совете по работе с нейросетями:
— Обозначить роль. Проверка проходила в два этапа: сначала текст проверял «литературный редактор», а потом вычитывал «корректор». Я немного приукрасил ролевые промты фразами вроде «многолетнего опыта» и «автора мировых бестселлеров» — говорят, это даёт разницу, хотя я явной корреляции не заметил.
— Перечислить критерии проверки. Тут сложно перестараться, поэтому лучше перечислить вообще все возможные пункты. Костяк таких критериев показан на скрине выше, но в целом они дополнялись после первых попыток. Ещё список отличался в редакторском и корректорском прогонах. Во втором случае я ограничился общими критериями, сделав скидку на то, что искать ошибки и опечатки будут сразу четыре модели: что упустит одна, наверняка обнаружит другая.
— Уточнить формат ответа. Чтобы угадать с форматом, нужно заранее прикинуть, как будет строиться работа после перечисления правок.
? Методом тыка я понял, что удобнее всего запрашивать таблицу со следующими столбцами: номер правки, комментарий, вариант до, вариант после. С номером правки проще ссылаться на какой-то комментарий, не цитируя его. Например, в некоторых случаях я просил привести больше примеров или подробнее объяснить правило. А варианты до и после нужны, чтобы было легче искать нужный фрагмент в простыне текста. Без этих столбцов некоторые модели ограничивались тем, чтобы просто подсветить недочёт — над его исправлением приходилось думать самому.
Ну и приятно удивило, что чат-бота нисколько не смущают опечатки в промтах, объяснения «своими словами», какие-то недосказанности. Я накидывал задания без предварительной подготовки и на скорую руку — модели упорядочивали данные сами и доуточняли что-то, если оставались вопросы.
Итоги
Конечно, хотелось бы поглубже проработать идею: сделать сюжет более размеренным, раскрыть детали для атмосферности. Сейчас «Инсигнии» — это скорее книга на один вечер, но результатом я всё равно доволен: получилось выпустить готовый продукт, который без нейросетей до сих пор просто ветал бы где-то в мыслях.
На всё ушло примерно два месяца, в течение которых я занимался романом два часа до/после работы и иногда по субботам. Книга опубликована на Литресе как черновик, так как осталось полирнуть ещё несколько глав: https://www.litres.ru/book/al-zhan/insignii-kogda-chat-bot-progovorilsya-72094069/

Теперь про общие впечатления. В тандеме с нейросетью я чувствовал себя режиссёром: как будто раздал актёрам сюжеты без детальной проработки и смотрел, как они отыграют. Но в отличие от режиссёра мне не нужно было выбирать одного талантливого «актёра» — можно было взять лучшее от каждого. Несколько выводов о возможностях бесплатных моделей:
— Чат-боты однозначно ускоряют работу с креативными задачами, но делают это непредсказуемо. Мне кажется, из этой же непредсказуемости вытекают все сложности с применением технологии в бизнесе. Поэтому в деловой среде так много разговоров и так мало каких-то реальных проектов.
— Это идеальное средство, чтобы запустить MVP творческого проекта. Книга, телеграм-канал, фильм — с чат-ботами идея быстро примет облик и вы поймёте, стоит ли продолжать. Можно сказать, что они приближают вас к мечте. Раньше я бы постеснялся пафосности этой фразы, но недавно я опубликовал свою первую полноценную книгу.
— Главный плюс при всех ограничениях и несовершенствах нейросетей — в их синергии. Создавать, редактировать, оценивать — каждый чат-бот может по-разному проявить себя в той или иной задаче, поэтому не стоит полагаться на какой-то один вариант. Отдельно хочется перечислить закономерности и отличия моделей:
?? |
?? |
|
Claude |
Предлагает полноценные законченные главы, насыщенные деталями и сюжетными поворотами — хотя порой и банальными |
Подкидывает фразы со странным звучанием (похоже на буквальный перевод), а порой вообще не церемонится и просто вставляет слова на английском. Видимо, по этой же причине модель хуже замечает недочёты в русскоязычном тексте. |
DeepSeek |
Генерирует оригинальные идеи для сюжета, смешные шутки и даже крылатые фразы — как будто прямиком из цитатника. При этом ничего похожего в интернете не находилось. |
Слишком сильно старается угодить: присылает чуть ли не статью, когда нужен один короткий ответ; стремится структурировать свой текст, даже когда этого явно не нужно. |
ChatGPT |
Даёт много дельных замечаний как редактор и корректор. Лучше всего подходит для «причёсывания» текста перед публикацией. |
Пишет тексты с обрывистыми короткими предложениями (явный «роботизированный» язык), не всегда попадает в нужную тональность. |
Алиса |
Пишет складно и без ошибок, тщательно «проверяет» уже написанный текст. Большое преимущество в том, что модель обучена на русскоязычных текстах. |
Порой даёт поверхностные ответы: как будто всегда стремится уложиться в минимум символов. Часто не попадает в общую канву и тональность референсов, упуская контекст. |
Если вам интересно почитать книгу, пишите в личку: скину опубликованные главы. Но если решите просто купить её за 50 ₽ на Литресе, отговаривать не буду :)
Комментарии (29)
Yuriy_75
15.07.2025 14:15У нас было ChatGPT, DeepSeek, Claude и Алиса. Не то чтобы все это было нужно для написания книги. Но если уж связался с ботами - нужно в своем увлечении идти до конца. Единственно что меня беспокоило, это Алиса. В мире нет никого более беспомощного, безответственного и безнравственного, чем автор с Алисой.
pamparumba Автор
15.07.2025 14:15Почему же не нужно? Модели действительно друг друга дополняли, я в статье привел парочку примеров. Хотелось бы больше, конечно, но спустя два месяца сложно найти нужный диалог(
Yuriy_75
15.07.2025 14:15Автору исходной цитаты тоже много взаимодополняющих веществ было нужно для написания статьи о гонке.
Moog_Prodigy
15.07.2025 14:15Kimi 2 пишет человечнее всех вышеперечисленных. Но также допускает галлюцинации, путается в сюжете. Но пишет действительно "человечнее", без вот этих всех шаблонных фразочек. Не пушка-бомба конечно, но движение поступательное есть.
Все могут они придумывать. Рандом - и есть придумывание, случайное зерно, известные знания. А у нас не так же? Даже с учетом эмоций и переживаний.
pamparumba Автор
15.07.2025 14:15Галлюцинации как раз в таком деле, как написание книги, точно не мешают, поэтому спасибо за рекомендацию. Ещё бы найти время и сил попробовать все модели (и памяти всех запомнить)))
Вы на Kimi 2 случайно вышли?janvarev
15.07.2025 14:15Kimi 2 вышла буквально неделю назад, неудивительно, что вы не слышали, даже на Хабре не было.
Пишет действительно интересно, стоит попробовать. Хотя мне Sonnet пока больше нравится, но я к нему просто привык.
(Я себе на сервис подключил её, если хотите - ссылка в хабрапрофиле)
pamparumba Автор
15.07.2025 14:15А к Sonnet пришли тоже методом проб и ошибок? Всё чаще задумываюсь, как пользователь выбирает между таким обилием моделей. Поэтому задаю этот вопрос всем)
janvarev
15.07.2025 14:15У меня была Хабрастатья на эту тему, правда, давняя: https://habr.com/ru/companies/timeweb/articles/805261/
А так вообще мне по долгу ведения сервиса с LLM положено разбираться хотя бы приблизительно в новинках :)
Если коротко, то на текущий момент:
Sonnet 3.7 или 4 - универсальный вариант, правда, в меру дорогой под разные случаи
o3, o4-mini, DeepSeek R1 0528 - под разные задачи с размышлениями
Grok 4, Gemini 2.5 Pro - интересно, но пока не составил впечатления.
DeepSeek V3, Google Flash, Kimi K2 - дешево, но при этом очень неплохо. Flash и DeepSeek у меня рабочая лошадка под автоматические переводы игр с помощью опенсорсного Luna Translator, прям гоняю постоянно.
DeepSeek V3, Google Gemma 3 27B abliterated, Qwen 2.5 72B abliterated - для работы с чувствительными темами
Perplexity Sonar Online - для поиска в интернете
Moog_Prodigy
15.07.2025 14:15Не случайно, я на Реддите подписан на всякое упоминание LLM, потому что меня прет от такого. А там появилось тоже сравнительно недавно. И даже тесты.
barbaris76
15.07.2025 14:15Вспомнилось )
…Но после нескольких часов тренировки мистер Болен начал приобретать навыки, и наконец как-то поздно вечером он повелел Найпу приготовиться к выпуску первого романа.
Настал решающий миг - толстый коротышка нервно скорчился на "водительском" сиденье, а высокий зубастый Найп возбужденно суетился вокруг него.
- Я намерен написать важный роман, Найп.
- Уверен, что напишете, сэр. Уверен, что напишете.
Одним пальцем мистер Болен осторожно нажал нужные кнопки предварительного выбора. Основная кнопка - сатирический. Тема - расовая проблема. Стиль - классический. Действующие лица - шесть мужчин, четыре женщины, один ребенок. Объем - пятнадцать глав. В то же время он не упускал из виду три органных регистра с пометами "мощь", "загадочность", "глубина".
- Вы готовы, сэр?
- Да-да, я готов.
Найп потянул рубильник. Огромная машина загудела, послышался низкий зудящий звук от движения смазанных машинным маслом пятидесяти тысяч винтиков, штоков и рычагов, затем раздалась быстрая барабанная дробь электрической пишущей машинки, поднявшей резкий, почти невыносимый стрекот. В корзину полетели машинописные страницы, каждые две секунды штука. Но от этого шума и от возбуждения мистер Болен, которому приходилось играть на регистрах и следить за счетчиком глав, индикатором темпа и датчиком страсти, ударился в панику. Он реагировал точно так же, как реагирует учащийся на водителя - слишком нажимал обеими ногами на педали и не отпускал их, пока машина не остановилась.
- С первым романом вас, - сказал Найп, вынимая из корзины громадную кипу отпечатанных страниц.
Все лицо мистера Болена покрылось бусинками пота.
- Уф! Ну и работенка! - выдохнул он.
- Но вы с ней справились, сэр. Вы с ней справились.
- Дайте-ка взглянуть, Найп! Как он читается?
Он принялся за первую главу, передавая каждую прочтенную страницу молодому человеку.
- Боже мой, Найп! Что это такое?
Тонкая синюшная рыбья губа мистера Болена слегка шевелилась, произнося слова, его щеки постепенно раздувались.
- Но, послушайте, Найп, это же возмутительно!
- Должен сказать, сэр, действительно довольно пикантно.
- Пикантно! Да это просто мерзость! Я не могу поставить свое имя под такой писаниной!
- Совершенно верно, сэр. Совершенно верно.
- Найп! Уж не сыграли ли вы со мной какую-нибудь грязную шутку?
- О нет, сэр. Нет!
- А очень похоже.
- А вам не кажется, мистер Болен, что вы чересчур давили на педали дозировки страсти?
- Дорогой мой мальчик, ну откуда мне знать?
- Почему бы вам не попробовать еще разок?
И мистер Болен произвел второй роман, и на этот раз все пошло по плану…
© Роальд Даль, «Месть злейшим врагам»
ktibr0
15.07.2025 14:15Ахах, а я вспомнил Деймона Найта Творение прекрасного, как мысли о том, как может выглядеть генератор картинок из будущего от наших предков. )
pamparumba Автор
15.07.2025 14:15Тоже сейчас задумался, как же всё циклично)) Я ещё почему-то видео вспомнил, где Волож читает отрывок Незнайки на луне (вроде) и там параллели с современным вызовом такси
NeoCode
15.07.2025 14:15У меня то же самое - мечтал написать книгу, но умений явно было недостаточно. С помощью ИИ действительно можно неплохо продвинуться в этом деле. Я использую Grok из-за его мегабайтного контекста, и DeepSeek на подхвате - например "предложи несколько вариантов фразы..." если мне какая-то фраза не нравится, или чтобы узнать что-то конкретное по какому-то вопросу (вместо гугла), и т.п.
ИИ прекрасен в мелочевке, на микроуровне. Он сгенерирует красивое атмосферное описание локации, построит живой диалог, отражающий характеры героев. А вот с сюжетом и макроуровнем в целом - увы, ИИ вообще не помощник (или просто я не умею им пользоваться в этом вопросе?). На мой взгляд современные ИИ еще не чувствуют именно смысла происходящего, а просто играют в слова, пусть и на очень глубоком уровне. Кстати, может посоветуете, какой ИИ лучше для "мозгового штурма" сюжета?
pamparumba Автор
15.07.2025 14:15Слушайте, вот Claude как раз блистал именно на макроуровне в том плане, что предлагал полноценные главы — и по объёму, и по составляющим типичного сюжета. Остальные модели генерировали скорее отрывки (хоть и вполне годные).
Другой вопрос, что сами по себе сюжеты были порой банальными, но это уже решалось миксом моделей.
Чем больше вариантов, тем продуктивнее мозговой штурм, поэтому я бы советовал не ограничиваться одним чат-ботом)) Но если по каким-то причинам нужно всё же выбрать, то советую ChatGPT (субъективно — глубже понимает проблематику) или DeepSeek (а он весьма креативен).NeoCode
15.07.2025 14:15Я в Claude и в ChatGPT пытался вставить уже готовую главу (у меня глава это около 100К символов) - они сказали что им столько не скушать (хотя понятно что можно скормить по частям, но это еще не пробовал). А Grok нормально принимает. Собственно, так и происходит работа: сначала "прими план главы" (это чтобы ИИ не придумывал отсебятины), затем "улучши и расширь черновик части" для каждой части (а черновик это просто краткое и не слишком литературное описание событий), затем я вручную свожу все части в главу, вычитываю, улучшаю, возможно повторяю какие-то итерации с ИИ, и под конец заменяю в чате всю черновую работу на главу целиком (это экономит контекст). Далее сразу прошу выдать компактную версию главы, для того чтобы в будущем вставить её в другой контекст, тем самым сформировав для ИИ предысторию.
И я использую только бесплатные модели.
pamparumba Автор
15.07.2025 14:15Ой 100К — это громадный контекст, да( У меня самая большая глава была примерно в 30К символов.
NeoCode
15.07.2025 14:15Увы, бесплатная Claude даже по частям не хочет брать много. Сейчас скормил одну часть около 15К - ОК, поняла и дала какой-то комментарий. Пытаюсь скормить следующую часть (последовательно уменьшаю: 12К, 6К, 4К... ) - не берет. Видимо, там общее ограничение на весь контекст, а не на размер однократно передаваемой части. Так что её только на подхвате использовать, перефразируй что-то, убери повторы слов в абзаце и т.п.
P.S. она даже предложение из нескольких слов после этого не берет:(
ktibr0
15.07.2025 14:15Клод всегда в рамках одного диалога весь диалог передаёт в контексте, поэтому, итерационное программирование с ним не заходит-каждая правка, в которой он переписывает весь код, снижает количество реплик-ответов кратно
pamparumba Автор
15.07.2025 14:15Вот в комментариях ещё делятся полезным: https://habr.com/ru/articles/927776/comments/#comment_28576194
Sabin
Очень советую попробовать gemini и, в меньшей степени, mistral. Они довольно хороши в написании историй на русском. Сберовский Гигачат тоже заслуживает внимания.
Qwen и grok же на мой взгляд очень сильно им уступают + могут переходить на другие языки
pamparumba Автор
Спасибо за рекомендации!
А про Гигачат — не шутка? Где применяли? А то я кроме негатива ничего не слышал
Sabin
В клоне character ai (giga) его пробовал, но хочу через неделю-2 и бесплатную версию api к lobechat или ещё какому-нибудь открытому чату подключить с дальнейшим переходом на платную. Гига умеет хорошо болтать в разном стиле, может шутить, редко зацикливался, но стихи пишет отвратительно. Почему его, а не яндекс? У Яндекса я с наскоку не разобрался в тарифах. Почему не явно лучшие зарубежные? Сложности с оплатой, тремя буквами и законом о персональных данных. Тут можно оплачивать, как юр лицо, а довольно дикую идею логиниться на работе только через Сбербанк как раз и решит работа через api.
Для русского языка я пока считаю лучшим гугловские gemini, даже lite и они умеют использовать идиомы без прямого указания