Это перевод моей же статьи на Medium. Ее оригинал находится по этой ссылке.

Современный бизнес уже очень сложно представить без Gen AI.

Согласно отчету Microsoft от 24 июля 2025 года (ссылка):

  • Sandvik увеличил продуктивность сотрудников до +30%, ускорил обучение и улучшил клиентскую поддержку с помощью Manufacturing Copilot.

  • Topsoe добился 85% внедрения ИИ среди офисных сотрудников за семь месяцев.

  • Toshiba с помощью Microsoft 365 Copilot сэкономила 5,6 часа в месяц на сотрудника, оптимизировала процессы закупок и поиска документов.

  • Volvo Group сэкономил более 10 000 человеко-часов, автоматизировав обработку документов.

И это только малая часть достижений. Только этот отчет предлагает нам 1000 историй успеха.

Неудивительно, что ни один руководитель бизнеса в мире не хочет отстать в этой набирающей обороты Gen AI революции и стремится быть среди первых.

Мне посчастливилось поучаствовать в координации внедрения Gen AI инструментов в Яндексе на уровне всей компании (на момент написания статьи процесс в самом разгаре). Огромная часть моей работы — знакомиться с различными командами, оптимизирующими свои внутренние процессы, собирать и обсуждать идеи, оценивать перспективы разработанных прототипов, помогать масштабировать удачные наработки. Причем изучаю я, конечно же, не только команды внутри Яндекса, но и за пределами компании.

За время этой работы я понаблюдал очень много идей и проектов и, нужно отметить, что далеко не все из них настолько кричаще успешные, как в статье от Microsoft. Где-то профит несоизмерим с положенными в разработку инструмента затратами, где-то успеха вообще не получилось достигнуть.

Подобные результаты обычно фрустрируют команду и охлаждают оптимизм относительно Gen AI (а зря!). Даже инженеры начинают относиться к современным нейросетям весьма скептически. Тут нужно отметить, что я сейчас говорю не о возможности писать код в Cursor'е (тут какую-то выгоду находят практически все), а о создании отдельных AI инструментов, которые «по кнопке» автоматизируют какую-либо рутину.

На самом деле причина недовольства обычно кроется в том, что команда сразу пытается создать чудо-примочку, которая решает максимально сложные комплексные задачи. Однако для этого практически всегда недостаточно просто написать промпт на 15 строк. Процесс этот состоит из множества проб и ошибок, больше напоминая исследовательскую экспериментальную работу, нежели классическое программирование, к которому больше привыкло большинство AI энтузиастов из IT отделов.

Для успешного внедрения Gen AI в энтерпрайз процессы начинать стоит с чего-то попроще. Я разделил основные типы успешных проектов на 4 условные категории. Далее пройдемся по ним, и я объясню, как быстро и просто получить пользу и зарядить команду технооптимизмом для решения более сложных задач с AI.

1. Поиск по внутренней документации

Все знают, как отлично ChatGPT, Claude Sonnet, Gemini, Grok, Qwen, DeepSeek и все остальные LLM рассуждают практически на любую тему, про которую можно прочитать в интернете. Это впечатляет! Но совершенно не работает, когда вы хотите вместе с нейросетью «обмозговать» свой внутренний рабочий проект, потому что она ничего про ваши проекты не знает.

Например, вы создали дизайн-макет или составили контракт, или подготовили презентацию, или любой другой внутренний документ и хотите проверить, насколько он соответствует корпоративным гайдлайнам. Очень здорово было бы решить такую задачу, просто задав вопрос LLM «соответствует ли мой документ гайдлайнам?»

Однако зачастую объем этих гайдлайнов (особенно в больших корпорациях) может превосходить размер контекста, который может принять на вход любая из современных LLM. А значит, загрузить все это в один промпт не получится. Это проблема, но отчаиваться рано — задачу можно решить, внедрив технологию, которая называется RAG.

Если не вдаваться в детали, RAG — это такой специальный вид базы данных, куда можно сложить любые документы в виде, удобном для поиска нейросетью. То есть, сложив в этот RAG корпоративные гайдлайны, запрос с проверкой документа на соответствие им можно будет задать. Как и множество любых других вопросов. Нейросеть будет работать так, как будто теперь она все знает о ваших внутренних процессах. (Ладно, ок, я лукавлю, работает это обычно похуже, чем рассуждения LLM об открытой информации в интернете, но в любом случае — гораздо лучше ручного поиска по документации).

Если вы еще не завели RAG'и на всю вашу внутреннюю документацию — обязательно попросите ваших ИТ специалистов поскорее это сделать. Это несложно и очень сильно помогает.

2. ЧЕРНОВИК суммаризации данных из различных источников

Предположим, у вас есть рутинный процесс, в котором нужно брать большое количество информации и делать из нее краткую, но информативную выжимку. В этом случае сотрудники часто впадают в прокрастинацию. Такие задачи очень неприятно начинать делать. И вот тут очень хорошо помогают LLM. Они отлично справляются с задачей подготовки ЧЕРНОВИКОВ для подобных задач.

Я намеренно выделил слово «черновик», поскольку многие команды, за которыми я наблюдал, пытаются сразу сделать инструменты по суммаризации данных, которые работают безупречно, и это у них не получается (потому что LLM вообще достаточно часто галлюцинируют).

И вот тут нужно понять очень простую вещь — в таких задачах вам совершенно необязательно достигнуть 100% качества. Достаточно получить черновые варианты суммаризации, поправить которые руками быстрее, чем написать все с нуля. И вы уже получаете выгоду, после чего займетесь улучшением промптов, которые приведут к повышению качества системы «из коробки».

Примеры подобных проектов:

  • Pressw.ai — автоматическое суммирование встреч Коммерческий кейс: LLM обрабатывает стенограммы встреч, делает черновой суммарный отчёт. Идея в том, чтобы LLM сделал первый проход, затем — уточнения через повторные запросы ("chain of density") и правки человеком.

  • Обзор клинических текстов с LLM. Систематический обзор показал множество исследований, где LLM используются для суммаризации медицинских документов (особенно радиологических отчётов). В большинстве случаев они создают черновые версии, а эксперты проверяют и дорабатывают их.

  • Datadog — автоматизация постмортемов инцидентов. На Datadog разработали систему, которая берёт структурированные данные инцидентов + обсуждения из Slack и генерирует черновой отчёт (postmortem) с помощью ансамбля LLM. Результат — значительная экономия времени инженеров, при этом обработку и правку делают люди.

3. Генерация медиаконтента

Почему именно медиаконтент? Ровно потому же, почему и черновики в предыдущем пункте. Нейросети галлюцинируют.

Если вы попытаетесь генерировать контент, для которого важна точность — вы непременно ввяжетесь в крайне сложную исследовательскую работу по замеру и улучшению качества, которая может растянуться не на один месяц. То есть не стоит ожидать быстрых побед в задачах вида: сделать автономного AI программиста (потому что чуть-чуть неработающий код — это полностью неработающий код) или автономного AI аналитика (чуть-чуть некорректные данные в аналитике могут пагубно сказаться на принимаемых бизнес-решениях).

Зато генерировать контент, который имеет только субъективную оценку (например, промо материалы), можно совершенно свободно. Если совместить эту генерацию с системой контроля за соблюдением корпоративных стандартов, про которую я писал в первом пункте — можно получить практически автономную фабрику контента.

4. AI агенты с понятными сценариями отката на «человеческий» процесс

Для начала определимся с тем, что такое AI агент. Это автономная система на базе искусственного интеллекта, которая самостоятельно принимает решения и выполняет задачи без участия человека. То есть это когда нейросеть может не только выдать вам какой-то ответ на ваш запрос, но и принять какое-то решение, и, более того — воплотить свое решение в жизнь.

Хороший пример — автоматизация первой линии саппорта. Достаточно несложно настроить нейросеть на обработку первичных обращений пользователей. Тут, кстати, очень сильно помогает использование RAG с вашей внутренней базой знаний из первого пункта.

Помимо ответов на вопросы можно научить нейросеть выполнять какие-то несложные действия с пользовательскими аккаунтами. Это очень сильно разгрузит вашу службу поддержки. Но! Очень важно жестко разграничить для нейросетевого агента границы дозволенного. Ни в коем случае нельзя давать возможность ИИ совершать необратимые действия, например, удалять аккаунты пользователей.

Причина все та же — нейросети галлюцинируют. Это неизбежно происходит в каком-то проценте случаев. Вот живой пример из недавнего прошлого:

Replit AI удалила прод базу данных

Поэтому все, что вы готовы поручить AI поддержке — должно быть обратимым и иметь возможность в любой момент переключиться на обработку оператором-человеком.


Собственно, вот те четыре сценария, которыми я хотел поделиться с вами в этой статье. Все пункты расположены в порядке увеличения сложности внедрения.

Мой совет: если вы только-только приступаете к LLMизации своей команды — начинайте с RAG'ов и черновой суммаризации — это даст наибольшую пользу за минимум времени и замотивирует сотрудников погружаться дальше в прекрасный мир Gen AI.

Комментарии (0)