Меня зовут Владимир и я продакт‑менеджер со стажем. В этой статье я хочу рассказать о том, как я использовал LLM‑модели (далее нейросеть) в своей ежедневной работе и почему это может быть оказаться полезно именно вам. Начну с небольшой справки:

LLM (Large Language Model, «большая языковая модель») — это класс алгоритмов искусственного интеллекта, обученных на внушительных объёмах текстовых данных, чтобы понимать и генерировать новые тексты на естественном языке. Проще говоря, такая модель «читает» миллионы книг, статей и других текстовых источников, чтобы «научиться» закономерностям языка: грамматике, стилистике, логике изложения и многим другим нюансам.

Так описывает себя ChatGPT

А теперь к сути: что вообще меня сподвигло написать этот текст? Однажды мой знакомый продакт спросил у меня: «А как вы используете нейросети в своей работе?». Я подумал и ответил: «А никак.» Надо сказать, что я не очень доверял нейросетям, воспринимая их скорее как продвинутый поисковый движок, нежели ассистент в ежедневных рутинных задачах. Мы немного поговорили о его опыте, и я в очередной раз призадумался: «А может пора?». Откровенно говоря сыграло ощущение того, что я упускаю что‑то полезное и интересное (как в своё время случилось с криптой) и, возможно, стоит попробовать. Использовал я в основном ChatGPT и совсем недавно познакомился с Deepseek и Qwen.

Вопросы безопасности и проверка фактов

Меня всегда волнует безопасность. Мы же работаем с реальными проектами и реальными людьми, где фигурируют NDA и прочая конфиденциальная информация. Поэтому я решил все «опасные» данные либо обобщать, либо убирать вовсе.

Скажем, если у нас есть конкретный клиент, я не писал «Иван Иванов, номер телефона такой‑то», а превращал всё в «[Клиент X], [Контакт]». Согласитесь, зачем лишний раз подставлять свою компанию, когда инструменты могут сохранять историю запросов на своих серверах?

Ещё один «подводный камень» — ИИ иногда ошибается и пишет разные глупости, причём с очень серьёзным видом. Поэтому я постоянно перепроверял факты. Но, если честно, в большинстве случаев мне приходилось исправлять только мелкие неточности, которые легко вылавливались при беглом просмотре.

Что я пытался автоматизировать

Составление брифов

Самым очевидным шагом было отдать ИИ задачу, которую я терпеть не мог: написание брифов для внутренних стейкхолдеров. Чтобы написать бриф по какой‑нибудь фиче, обычно мне приходилось открывать десяток документов, сводить всю информацию вручную и при этом стараться, чтобы текст был емким, но не потерял никаких важных деталей.

Я загрузил в ChatGPT отрывки из предыдущих брифов и написал что‑то вроде: «Помоги сформировать короткий бриф для новой функциональности. Вот ключевые требования, сроки и риски.

Если бы меня спросили, чего я ждал от этой штуки, я бы ответил, что надеялся на волшебную палочку, которая сделает всё сразу и хорошо, однако вышло не так. Текст был хоть и неплох: хорошо структурирован, подсвечены какие‑то важные моменты, но мне показалось что в нём очень много воды. Пришлось докручивать его дополнительными запросами вроде «Сделай текст более ёмким, убери ненужные детали», или «Измени тон на менее официальный, но без фамильярности». В общем поначалу задача заняла у меня примерно столько же (а может и больше времени), чем ручное написание брифа.

В этот момент я осознал важность правильной постановки задачи, ведь нейросеть действует по твоей инструкции и чем детерминированней она, тем лучше будет результат. Пришлось погрузиться в чтение материалов во промптингу (искусству писать запросы нейросетям), что, в конечном итоге, позволило мне получать более качественный результат за меньшее время.

В общем мне удалось сократить время на выполнение таких задач примерно вдвое (хотя, конечно, зависит от сложности фич).

Резюме совещаний в Zoom

Следующим шагом было самое неприятное для меня — написание резюме по совещаниям и рабочим встречам (да, я продакт который не любит излишек встреч). Записывать по ходу встречи получалось не всегда и не всё, плюс во время записи я подвисал на вопросах, которые задавали мне, да и во время бурных дискуссий решение часто менялось на ходу, от чего реально болела голова.

Для начала пришлось включать запись в Zoom, что вызывало дискомфорт у некоторых коллег, который, в свою очередь, уже был красным флагом. Плюс ко всему видео в ChatGPT не скормишь, так что я нашёл несколько сервисов для транскрибации видео и получил текстовые расшифровки созвонов. Опять же, качество расшифровок в бесплатных сервисах было так себе, иногда реплики разных людей смешивались в одну, а уж когда говорили несколько человек получалась полная каша. Платить за сервисы я не стал, эксперимент же. Так что пришлось перебирать эти тексты руками, возвращая им тот смысл, который изначально был в них.

Далее я скормил расшифровку тому же ChatGPT, попросив сжать её в резюме на одну страницу, чтобы не потерять принятые решения и основные тезисы. После пары‑тройки попыток (снова промптинг) получилось даже сносное резюме, однако времени мне это не сэкономило. Все телодвижения, которые пришлось предпринять,

Таким образом самым эффективным способом всё ещё осталась ручная запись тезисов и верификация их в конце встречи.

Получение быстрых идей для решения задач

В какой‑то момент я подумал: «А что если нейросеть может давать решения на запросы бизнеса, ведь она обучалась в том числе на десятках тысяч статей „Как мы делали это“?»

Для начала я взял одну из текущих задач, где надо было разместить несколько контекстных блоков, чтобы мотивировать пользователей совершить определённые действия. Я спросил у ChatGPT: «Если бы ты был продактом и тебе надо было разместить несколько блоков с такой‑то целью в продукте похожем на мой (тут была ссылка, но я не хочу окончательно деанониться, так что опущу её) где и что бы ты разместил?».

Тут я ожидал, что ChatGPT опишет как уже запланированные мной доработки, так и добавит чего‑то не столь очевидного. Не знаю уж, мой промптинг недостаточно хорош, или нейросеть действительно не всемогуща, но я получил меньше идей чем описал сам, хотя и самые очевидные из них были также перечислены нейросетью. Я попробовал задать больше контекста, потому что нейросеть не может самостоятельно изучить приложение, а веб версии у нас нет, но, увы. Можно сказать, что я получил ответ базового уровня, который мог бы набросать и сам.

Также я просил нейросеть выполнить ту же задачу, но в контексте веб‑страниц, того же Хабра, ощущение то же самое, только простые варианты, которые можно легко придумать и самому.

Вывод я сделал очень простой: использовать нейросеть можно, но только для того, чтобы убедиться, что я не пропустил самых очевидных вещей.

Генерация изображений/мокапов интерфейсов

По поводу изображений вопросов быть не может: описываем, запрашиваем побольше вариантов, выбираем понравившийся, profit.

С мокапами интерфейса всё несколько сложнее. ChatGPT, Deepseek или Qwen не генерируют изображение напрямую, однако могут сгенерировать html‑код или.svg файл.

Мне так и не удалось победить самого себя в Фигме, когда я просто создаю копию существующего элемента и модифицирую её как требуется. Так что и тут эффективность нейросетей осталась под вопросом.

Подготовка «черновиков» текстов для UI

Я всегда писал тексты вручную, например, приходилось выдумывать разные варианты текста для кнопок, какие‑то приветственные сообщения в приложении. Это считалось «простой задачей», но при этом отнимало массу времени.

На волне успехов с брифами, я решил попробовать применить нейросети и здесь. Я сформулировал запрос для ChatGPT примерно так: «Это мобильное приложение для того‑то, тон — дружелюбный и немного игривый, подбери несколько вариантов текста для экрана приветствия. В результате получил подборку фраз, которые можно было не дорабатывать и положить в спецификацию.

Тут ожидания столкнулись с реальностью, конечно, иногда, приходится сокращать тексты под требования интерфейса, но даже так выходит значительно быстрее, чем придумывать новые тексты или обращаться к справочникам.

Итог

Вся эта затея с автоматизацией оказалась интересным экспериментом, я стал тратить меньше времени на тексты, но на этом, к сожалению, всё.

Для меня оказалось рациональным использовать нейросети для работы с текстами, например для внутренней документации и создания текстовок для новых фич (или обновления старых).

Кажется, что если вы достаточно опытный специалист, то влияние нейросетей будет не столь значительным, хотя, бесспорно добавит комфорта для самый рутинных и унылых задач, а вот если вы начинающий специалист то тогда, вполне вероятно, вы сэкономите гораздо больше времени чем я.

Я не претендую на истину в последней инстанции, поэтому с радостью готов обсудить свой и ваш опыт в комментариях.

Комментарии (5)


  1. ASReka
    09.02.2025 16:49

    Мне понравилось находить идеи с помощью нейросетей. Пару дней назад я описал это в статье https://habr.com/ru/articles/879942/ . Там описаны некоторые тонкости, почитайте. Для себя я сделал такой вывод: по любой теме человечество напридумывало массу идей. Отдельному человеку удержать все в памяти, и вспомнить в нужный момент, невозможно. А с помощью нейросетей можно вытащить несколько идей из этого архива. Даже в заезженных темах. Много идей, как правило, не требуется.
    Времени на такой поиск идей - на мозговой штурм - потратить приходится. И никакой отдельный промпт с этим скорее всего не справится. Но в диалоге с нейросетью получается хорошо.


  1. PetkaKH
    09.02.2025 16:49

    Мне вот интересно, зачем делать банальные уточнения и описания, что такое промпт и LLM на Хабре? Вы думаете аудитория не в курсе?

    По теме, продвинутый промптинг решает, но зачастую сбор инфы и написание этого самого продвинутого промпта, может быть дольше чем самому написать. НО, если долго работать и создать уже готовые промпты, под свои задачи, то можно хорошо сократить время.


  1. WebPeople
    09.02.2025 16:49

    Спасибо за статью с вашим опытом. Уверен, что многие увидят в этом материале знакомые мысли и свои попытки.

    Я бы порекомендовал вам не останавливаться, а текущие выводы считать промежуточными. Дело в том, что самой автоматизации вы не получили ни в одной рутинной задаче. Но зато провели первичное исследование и чему-то научились. И впереди ещё большой путь.

    Следующим логичным шагом будет углубление в решение одной задачи. Например, это резюме встречи. У этой задачи есть ряд подзадач: запись звука, транскрибирование в текст, резюмирование, вывод результата в нужном формате.

    Эти подзадачи можно решить либо по отдельности, подобрав инструменты, промпты и т.п., либо поискать подходящий сервис, что закроет хотя бы несколько подзадач.

    Далее, вам нужно связать все эти операции в одно целое. Это можно сделать через программирование (сами, либо фриланс или знакомые). Или подобрать сервис.

    Например, вы начинаете встречу, нажимаете старт и начинается запись звука, встреча заканчивается, нажимаете стоп, запись сохраняется в каком-то месте. Далее автоматически запускается программа, что транскрибирует звук, она берет запись от первой программки и превращает в текст, который сохраняется в файлик. Потом автоматически запускается приложение с нейросетью, что уже имеет предустановленный Промт. Это приложение берет текстовый файл и резюмирует его. Далее результат вы получаете в виде черновика на вашей почте.

    Остаётся ручками слегка подкорректировать и отправить.

    Этот пример утрированный. Не надо воспринимать его буквально. Моя цель была показать автоматизацию. Когда вам надо сделать лишь 3 действия: нажать старт, нажать стоп, подкорректировать черновик на почте и отправить его клиенту.

    Автоматизировать все это - потребует много усилий. Возможно даже существенных денежных затрат. Стоит ли оно того - вам считать. Если автоматизировать всю рутину подобным образом - у вас высвободиться прорва времени. На фоне ваших коллег, что так не умеют, вы будете выглядеть супер профи. Либо работа станет для вас лайтовой. В идеале, чтобы эти инструменты были универсальны. Чтобы при смене места работы вы могли снова их использовать.

    У меня такие же мысли были как у вас, когда я решил научиться программировать (на питоне). Чтобы иметь возможность облегчать себе жизнь автоматизацией. И не тратить на это много денег. Я пока ещё учусь))


  1. SteveTB
    09.02.2025 16:49

    Добрый день. Вопрос про соблюдение NDA:

    Замена контакта на обозначение в начале статьи - это, конечно, хорошо.

    Но:

    • Запись видео (!!!)рабочих совещаний и транскибирование их на сторонних бесплатных сервисах?

    • Выгрузка совещаний

    • Подготовка рабочей документации или предложений по продуктовым фичам?

    Вроде все при этом пользуются различными облачными сервисами типа гитхаба, гуглдрайва и прочих Майкрософтов. Но там вроде бы все договорились, что есть безопасность данных, они (мол) шифруются и не утекают, Гугл не имеет к ним доступа, только хранит в зашифрованном виде, и прочее

    А тут то копилот при кодинге, то вот транскрибация и расшифровка совещаний... Я, когда пытаюсь понять, что можно применить, все время торможу на вот этих вот соображениях с NDA. А как с этим справляются все успешные пользователи чатгпт и иже с ними?


  1. stgmakarov
    09.02.2025 16:49

    С транскрипцией речи в текст очень неплохо справляется whisper. Работает локально, правда large версия достаточно требовательна к железу. Но зато не надо отправлять конфиденциальные записи на распознавание в "левый" сервис :)

    С позволения, дополню Ваш список своим примером. Нужно было в кратчайшие сроки написать спецификацию по части разработок, которые относились к Java - там порядка 15 микросервисов.

    Первым делом надиктовал на телефон описание каждого микросервиса: что он делает, зачем это нужно, как связан с другими микросервисами. Сохранил запись в mp3, перенес на комп, с помощью ffmpeg перевел в wav и распознал через whisper.

    Далее запустил lmstudio, через какую-то нейронку (точно не помню, наверное qwen2.5-32) сделал запрос "У меня есть распознанная запись обучения, в которой могут быть ошибки" далее распознанный текст, ". Есть микросервис со следующими эндпоинтами", код контроллера с javadoc по каждой "ручке". И вопрос "напиши раздел ПР по микросервису".

    И так по каждому из микросервисов.

    Понятно, что где-то пришлось поправить, дополнить описанием БД, но в итоге за полтора дня получилась неплохая первая версия документа на 80 страниц. Руками с нуля так быстро я бы точно не сделал.