Привет, Хабр! Эта статья — результат совместного труда двух авторов. В своей карьере мы перепробовали много различных методик. Мы искали способы «вытаскивать» мысли из головы в цифровое пространство, где их удобнее структурировать, чтобы затем превратить в связный живой текст. Делимся своим опытом работы с инструментами написания и редактирования текстов, среди которых есть как проверенные временем, так и появившиеся сравнительно недавно.
Итак, коротко о нас:

Игнатий Сатирский
Я преподавал английский и разрабатывал учебные материалы. Затем много лет переводил тексты в области IT. После этого стал главным редактором блога о цифровом маркетинге, автоматизации рекламы и SMM. Теперь я копирайтер в команде ТестОпс, пишу SEO-статьи для сайта и посты для Telegram-канала.

Михаил Ланкин
Я писал статьи для академических журналов, короткое время работал программистом, потом занимался переводом в области программирования и тестирования (в основном со стеком Java и Python). Наконец, сейчас я работаю в команде ТестОпс, пишу статьи и технические руководства для блога (и иногда для Хабра), а также редактирую тексты.
У нас разный бэкграунд, но в силу специфики нашей области мы постоянно используем программы, которые на первый взгляд могут показаться неподходящими для написания текстов. Поэтому у нас есть своя точка зрения на то, как может выглядеть рабочий процесс у писателя, вооружённого Obsidian, несколькими генеративными нейросетями, Cursor IDE и git. Отдельно заметим, что опасения или надежды на то, что они заменят человека при написании и переводе, не оправдались. Зато они стали важным подспорьем.
Будем рассказывать в том порядке, в каком обычно пишем текст:
Сбор информации с помощью нейросетей;
Систематизация собранных знаний в Obsidian (здесь кратко познакомимся с методологией Цеттелькастен);
Написание текста с редактурой через ИИ-помощника в Cursor;
Отдельный кейс — использование Cursor для перевода текстов;
Совместная работа над текстом через GitHub;
Интеграция GitHub с ChatGPT.

Репозиторий с текстом прилагается, вместе с черновиками и материалами.
Поехали!
Нейросети на этапе исследования
Работа над новым текстом статьи начинается со сбора актуальной информации по теме и формирования базы знаний. Perplexity довольно хорошо подходит для этого: результаты удобно экспортируются в разных форматах, включая Markdown, что в нашем случае особенно полезно.

И в браузерной и в мобильной версии есть голосовой ввод, так что если внезапно захочется что-то узнать, это легко сделать.

Перед тем как отправить запрос, можно указать типы источников — веб, академические, социальные или финансовые — и комбинировать их для более глубокого и полноценного изучения. Так получается быстрее охватить сразу несколько специализированных аспектов темы, чем традиционным образом гуглить все интересующие вещи по отдельности.

Самой главной фишкой тут можно смело считать возможность проверять первоисточники по ссылкам (показываются в конце процитированного абзаца) и при необходимости уточнять детали из запроса. Зачастую во время поиска можно наткнуться на новые интересные результаты, в которые захочется углубиться и найти больше информации, чтобы получить большее представление.

В разное время могут появляться разные идеи для изысканий, найти что-то из прежних результатов поиска можно во вкладке «Библиотека» и добавлять отдельные чаты в закладки. Отдельные пространства для хранения информации, помогут не запутаться в истории диалогов и сразу систематизировать данные, которые в дальнейшем пригодятся при написании текстов.

Инструмент также полезен для генерации и проверки ключевых фраз к SEO-статьям. С одним запросом по теме можно быстро собрать востребованные, часто используемые и редкие, уникальные запросы. Отдельные регулярные задачи можно автоматизировать, имея универсальный промпт, например, для сбора актуальных LSI-фраз или новостей по теме.

Теперь закономерно возникает вопрос: «А за чей счёт весь этот банкет?» В бесплатной версии доступны 2 режима:



При необходимости можно увеличить число попыток, логинясь с разных учётных записей, конечно, история поиска между ними синхронизироваться не будет. Однако никто не запрещает сохранять ссылки на результат и продолжать исследование из-под другого аккаунта.

В целом платные тарифы Perplexity заслуживают отдельного рассмотрения, потому что там есть возможность выбора модели ИИ (например, подружить с ChatGPT), а также совместной работы. Тем, кто умеет работать с кодом, может быть полезна работа через API для автоматизации рабочих процессов.
Подводя итог, можно сказать, что Perplexity хорошо подходит как инструмент автора для быстрого сбора фактуры. Значительно повысить свою продуктивность можно, если использовать его в связке с другими инструментами. Так получается сначала собрать выборку данных из различных источников, а затем точнее структурировать их при создании черновика будущей статьи.
Систематизация знаний в Obsidian
Итак, мы начали поиск данных, и Perplexity подсказала нам источники. Но когда пишется большой текст, особенно если он не первый, в собранных материалах легко можно заблудиться. Здесь нам приходит на помощь Obsidian.

Конечно, есть много альтернатив, в которых тоже можно систематизировать наши записи — например, Notion или Evernote. Все они по-своему хороши; скажем, Notion отлично подходит для командной работы и организационных задач. Но для исследовательской работы мы предпочитаем Obsidian — и вот почему.
Obsidian хранит данные в простых текстовых файлах (.md), которые при желании можно открыть в любом другом редакторе (например, Cursor). В хранилище Obsidian также можно сохранить «выхлоп» от работы с Perplexity, которая, как мы ранее отметили, легко экспортирует данные в .md.
Структура этих данных — простое дерево файлов, которое опять-таки можно открыть чем угодно.
С простотой формата связано ещё одно преимущество, тексты для статей и особенно лонгридов в текстовом редакторе удобнее набирать, когда они не разбиты на блоки.
Поверх этой простой структуры можно добавлять любую другую систематизацию, например, через ссылки:

Благодаря ссылкам можно организовать данные в форме вики. Можно также сделать холст (так в Obsidian называются mind map-ы):

Каждый элемент на холсте может быть отдельной записью (.md-файлом) и автоматически обновляется при любых изменениях в соответствующем файле. Для удобства отображения мы использовали плагин, позволяющий сворачивать узлы на холсте.
Наконец, всю структуру записей можно представить в виде графа:

Для Obsidian существует масса плагинов, позволяющих настроить его на самые разные случаи использования. Например, есть плагин для связи с git, дающий интеграцию с GitHub'ом.
Все данные хранятся локально, подписка позволяет синхронизировать данные на нескольких устройствах. Для кого-то это может быть недостатком, и может показаться, что удобнее хранить все записи сразу в «облаке». Известно, что проблемы с доступом к облаку — сюжет далеко не из научной фантастики.

Практика показывает, что Obsidian спокойно работает с базами во много тысяч записей.
Процесс работы
Ну и как же выглядит исследовательский процесс с Obsidian?
Предположим, мы хотим разобраться в какой-то теме. Например, мы слышали про метод систематизации знаний Цеттелькастен, который часто используют для академической работы, и хотим понять, насколько это рабочий подход в нашей области.
Основная идея подхода — создать «второй мозг», который органически будет расти по мере того, как вы разбираетесь в предмете.
Оказывается, на эту тему уже написано порядочно, в том числе на Хабре. Начинаем читать, и по ходу делаем выписки
Выписки для источников. Первый уровень выписок — стихийный. Если при чтении статьи кажется, что к какой-то мысли захочется вернуться, создаём отдельный md-файл для этой статьи и пишем всё туда. Здесь работает принцип: одна заметка — один источник. Мы прочитали несколько статей на Хабре по теме, а также до кучи статью Никласа Лумана, который метод Цеттелькастен использовал ещё на бумаге.
Выписки для идей. По мере чтения у нас в голове формируется какое-то понимание проблемы. Эти идеи мы своими словами записываем в отдельных заметках, по принципу одна заметка — одна идея.

Связи. По мере создания заметок будем связывать свои идеи с источниками (чтобы была возможность сослаться, если будем писать текст) и с другими идеями. Это можно делать с помощью ссылок — и здесь мы очень рекомендуем плагин Strange New Worlds.

Для связей также можно использовать систему тегов.
В идеале мы получаем систему, которая растёт благодаря тому, что между наиболее важными нейронами-записями возникают связи, и это притягивает интерес и новые записи.
Таким образом, с подготовительным этапом мы разобрались, проработали источники, настало время писать сам текст. Здесь нам вновь на помощь приходит ИИ, на этот раз с редактурой. Попробуем использовать для этого Cursor.
Написание текста в Cursor
Начнём с главного: Cursor изначально создан как интегрированная среда разработки, форк легендарного Visual Studio Code на стероидах, со встроенным AI-функционалом и MCP-агентами.
Можно использовать бесплатно, но с некоторыми ограничениями. За полный функционал придётся заплатить: есть разные тарифы, а после регистрации на неделю дадут попробовать режим «Pro».
Главная фишка Cursor - умение предугадывать намерения автора, ориентируясь на семантику и контекст. Подсказки отображаются полупрозрачным текстом в окне редактора и принимаются по нажатию на Tab.
Например, вот такое продолжение появится у следующего предложения:

Когда требуется что-то дополнить, сократить или переформулировать, можно попросить встроенного ассистента отредактировать текст, отправив соответствующий запрос. Вот что будет, если попросить перефразировать предложение в ещё более формальном тоне.

Контекстуальная генерация на основе загруженных документов делает работу с ними проще. Достаточно быстро прикрепить файлы с помощью оператора «@».


Будучи грамотными людьми, не забываем и о проверке базовой орфографии и пунктуации.

Прямо в процессе написания при замеченной ошибке в редакторе подсвечиваются проблемные места и также предлагаются правки.

Errare humanum est. Не переживайте, если в процессе работы в Cursor'e закончились токены и ассистент не помог обнаружить ошибку, в результате чего текст не достиг нужного качества. Помощь может прийти не от робота, а уже от человека: текстовый файл можно загрузить в git-репозиторий и показать коллеге через пулл-реквест.

Версионирование. Это очень полезно, чтобы отслеживать и контролировать правки и понимать причину изменений.

Про функционал «из коробки» можно ещё много всего рассказать, но рано или поздно, работая с инструментом, захочется его усовершенствовать.

А вы тоже заметили, что до сих пор ничего не рассказали о возможностях перевода? В следующей главе мы это исправим.
Использование Cursor для перевода
Когда пришла первая волна популярности нейросетей, было опасение, что мы, как переводчики, останемся без работы. Но практика (наша и коллег по цеху) показала, что эти опасения преждевременные. Сгенерировать «чистый» машинный перевод пока что очень трудно из-за проблем с пониманием контекста и галлюцинаций.
Если говорить конкретно о переводе с английского на русский, возникает много дополнительных и неочевидных проблем. Возьмём порядок слов. В английском языке он определяется синтаксисом (подлежащее -> сказуемое при прямом порядке слов или наоборот при обратном), а в русском языке — смысловой нагрузкой. Об этом написано, например, здесь (в главе 5. Переводческие трансформации. 1. Перестановки). Практика показывает, что у машинного перевода с этим преобразованием бывают проблемы.
И всё же нейросети стали очень полезным инструментом при переводе.
Поиск терминов. Раньше при поиске специальной терминологии приходилось пользоваться multitran, лезть в Википедию, или искать по специализированным сайтам. Сейчас вместо этого часто достаточно спросить нейросеть. Доверять ответам можно не всегда, но даже если она не даст готового решения, то как минимум направит мысль в нужную сторону.
Черновой перевод. У разных переводчиков по-разному, но лично для нас одна из главных трудностей при переводе — одновременно мыслить на двух языках. Нейросеть может избавить от этой необходимости, сделав черновой перевод, который человек дальше уже только редактирует, сверяясь с оригиналом. В таком формате нейросети использовались переводчиками ещё до общего бума искусственного интеллекта, и этот подход остаётся вполне рабочим сегодня.
С обеими функциями отлично справляется Cursor, благодаря его встроенному чат-боту. Вместе со всеми возможностями редактирования текста, описанными в прошлом разделе, это даёт отличный интегрированный инструмент для работы с контентом.
По нашему опыту, лучше всего черновой перевод делает Claude — ChatGPT и Perplexity позволяют себе слишком много «вольностей» при переводе длинных текстов.

Все описанные до сих пор инструменты в основном предназначены для индивидуальной работы. Что делать, если вместе работает несколько человек — как с нашим текстом?
Командная работа над контентом в Git
Следующий организм в нашей экосистеме — GitHub.
В любой ситуации, когда над текстом работает несколько человек, перекидывать туда-сюда один файл становится неудобно. Решать эту проблему можно по-разному: есть Google Docs, или тот же Notion. Но раз для многих статей мы всё равно собираем демки на GitHub — почему бы не воспользоваться им же и для текстов? Так мы и поступили с этим текстом.
Решение на первый взгляд непривычное — но на самом деле эта мысль далеко не новая, о том как Git используют для работы с документацией на Хабре писали тут и там. Преимущества, которые даёт система контроля версий, довольно предсказуемые.
Координация совместной работы. С Git и удалённым репозиторием мы получаем рабочий процесс, в котором:
участники процесса никак не мешают друг другу при написании текста;
есть продуманный механизм разрешения конфликтов;
меньше зависимости от подключения к удалённому хранилищу данных;
есть возможность работы в отдельной ветке с последующим ревью сделанного.
О последнем пункте мы уже упоминали в разделе про Cursor: комментарии после ревью пулл-реквеста в GitHub потом отображаются в Cursor, и их легко там разрешать.
Безопасность. Система контроля версий с удалённым репозиторием обеспечивает сохранность данных.
Синхронизация записей. В экосистеме исследователя готовый текст — это вершина айсберга, под которым большое количество продуманного и сохранённого материала (который может оказаться полезен в других проектах). Git позволяет надёжно управлять всей этой системой, а не только готовым текстом.
И здесь снова очень кстати оказывается тот факт, что все наши записи хранятся в простом .md-формате, а не .docx: первый гораздо проще управлять и проверять через git. Если же готовый текст нужен в каком-то другом формате, Pandoc отлично конвертирует .md в любую нужную форму. А если вспомнить, что у Obsidian есть отдельный плагин для git, становится очевидно, насколько хорошо этот инструмент подходит для работы с VCS.
Упомянем, что есть и другие способы синхронизировать проект Obsidian между несколькими устройствами:
Подписка на сам Obsidian;
Сторонние инструменты синхронизации вроде Syncthing.
Действительно, это намного проще, пусть и не даёт других преимуществ, о которых мы писали выше.
Обычно при совместной работе над одним репозиторием папку c настройками
.obsidianстоит добавлять в.gitignore; в нашем репозитории мы этого не сделали, потому что хотели продемонстрировать работу конкретных плагинов Obsidian.
Наконец, у GitHub есть то преимущество, что он сам по себе является полноценной экосистемой, к которой можно подключать другие инструменты. И в следующем разделе мы показываем, как в неё можно интегрировать нейросеть.
Подключение ChatGPT к репозиторию GitHub
Ранее в этой статье уже шла речь про хранение текстовых файлов в формате .md на GitHub, что даёт универсальность в работе над контентом.

Также напоминаем, что в нашем случае редактирование выполняется в Cursor IDE, где удобно получать и отправлять файлы в Git и пользоваться помощью ИИ-ассистента.

Итоговый результат напрямую зависит от качества организации репозитория. Чтобы модель обращалась к конкретным записям, нужно включить эту опцию перед отправкой запроса и детально проработать промпт.
Итак, в нашей экосистеме, где мы комбинируем разные «умные» программы и инструменты, это ещё одно связующее звено, благодаря которому можно упростить и в некоторой степени автоматизировать работу с текстом. Так у языковой модели вырастает понимание контекста запроса, и таким образом ускоряется процесс «доставания» нужной информации из собранной базы знаний. Прежние тексты становятся основой для новых.

Результат существенно зависит от контекста. Обученная модель не просто даёт общий ответ, а создаёт уникальный текст, наиболее подходящий для проекта. Если в репозитории есть такие полезные вещи как чёткая конвенция об именовании, глоссарий с рабочей терминологией, стайлгайд, задокументированный ToV, и т.д., то на их основе ChatGPT будет генерировать так, чтобы адекватно вписываться в существующий контент.
Например, при отправке запроса типа «Найди в репозитории файл index.md и проанализируй его содержимое», ChatGPT использует семантический поиск для нахождения файлов, связанных с регистрацией, затем анализирует их содержимое и интегрирует эту информацию в ответ с указанием источников из репозитория.
Как бы хорошо ни звучала эта идея в теории, на практике загрузить целиком весь репозиторий в диалог не получится. Файлы обрабатываются через механизм семантического поиска (Retrieval-Augmented Generation, RAG).
Ключевой момент для команды: Cursor сохраняет контекст только для текущей сессии, и при перезапуске редактора проектная информация может быть утеряна. Важно, чтобы каждый участник запустил сессию с нужным репозиторием, проверил корректность конфигурации моделей и помнил, что открытые файлы сохраняют контекст, но общий контекст проекта может сброситься, если достигнут лимит.
В предыдущих главах мы рассказали о возможностях Cursor IDE для авторов. Сам редактор и ассистент внутри него уже видят файлы, которые хранятся локально, и именно они подпитывают автодополнение в процессе работы. Подключение GitHub полезно тем, что позволяет языковой модели видеть историю коммитов, пулл-реквестов, issue и веток, которые ещё не синхронизированы.
Именно поэтому при запросах вроде «@folder:docs» можно сохранять уверенность, что модель учитывает актуальное состояние удалённой ветки, даже если она расходится с локальной копией. В результате команда получает единый контекст, а подсказки ChatGPT учитывают не только локальные черновики, но и свежие изменения коллег.
Cursor Pro позволяет интегрировать ChatGPT через API. Это может быть полезно, когда запросы к модели отправляются из IDE от выбранного аккаунта. Для ИИ-генерации нужны токены; лимиты зависят от тарифа и типа запроса (fast или slow); средства списываются с привязанного биллинга.

Важно! Оплаченная подписка на ChatGPT не обеспечивает API-доступ, поэтому наличие Plus или Team не гарантирует, что нужная модель покажется в списке моделей ИИ, доступных в контекстном окне или чате Cursor. Новые модели сначала появляются только в веб-версии и требуют отдельного одобрения или расширения лимитов в консоли OpenAI. Если модель скрыта на уровне API, Cursor её не покажет.
Так GitHub становится централизованным хранилищем знаний, повышая эффективность контентной команды через интерфейсы с доступом к ИИ-функционалу.
Если отмотать всю статью назад, окажется, что никакой «волшебной нейросети», которая сама пишет идеальные тексты, у нас так и не появилось. Зато появился понятный, воспроизводимый процесс, в котором каждый инструмент закрывает свой кусок работы автора. Для общего представления попытаемся уместить один из возможных стеков инструментов в одну строчку, с поправкой на цикличность и нелинейность процессов:
Исследование и сбор информации в Perplexity → систематизация базы знаний в Оbsidian → редактирование и перевод в Cursor с помощью Claude → командная работа и версионирование в Git → автоматизация работы с GitHub через ChatGPT.
Обращаем ваше внимание, что это не «единственно правильная» цепочка инструментов, а наш рабочий процесс, который мы не только описали, но и усовершенствовали во время создания этой статьи. При иных обстоятельствах какие-то звенья могут отличаться: вместо Obsidian — какая-то другая система заметок и черновиков, вместо Cursor — хотя бы стандартный блокнот.
Наконец, всё это будет приносить реальную выгоду только тогда, когда в центре — не нейросети, а люди, которые осознанно их применяют:
Да, мы похвалили то, как удобно, что Perplexity даёт ссылки, однако проверять их и делать выводы всё равно нужно самостоятельно;
Obsidian помогает выстраивать нейронные связи, но без привычки делать осмысленные выписки получится просто графоманская коллекция;
Cursor лишь помогает писать текст, а не решает за автора, что именно он хочет сказать;
Оптимизация доступа к базе знаний через git-репозиторий не подменяют собой организацию работы и договорённости в команде.

Надеемся, что после прочтения вы открыли новые идеи и подходы к исследованиям, систематизации, написанию или командной работе, и тем самым расширили своё представление о достижении лучшей продуктивности через специальные программы и инструменты.
Ниже приводим полный перечень всего, что мы задействовали в работе над текстом данной статьи:
-
плагин для git,
плагин Strange New Worlds (отображение ссылок на данную заметку или заголовок),
-
плагин Language Tool,