
Алексей Борщов
Менеджер по продуктам искусственного интеллекта, «КОРУС Консалтинг»
Крупные компании ежедневно генерируют, обрабатывают и хранят колоссальные объемы информации. По данным исследования IDC, корпоративный цифровой контент удваивается каждые 18-24 месяца, а средний сотрудник тратит до 20% рабочего времени ежедневно на поиск нужной информации или коллеги, который сможет ему помочь. При этом он еще и отвлекает коллегу на решение своего вопроса. Казалось бы, в эпоху цифровизации найти нужный документ или ответ должно быть проще, чем когда-либо. Однако реальность оказывается совершенно иной.

Информационная фрагментация: знания разбросаны по десяткам систем
Одна из ключевых проблем — распределение информации по множеству систем и хранилищ. В типичной крупной организации корпоративные знания могут находиться одновременно в нескольких системах:
Корпоративной почте и мессенджерах
Системах документооборота (СЭД)
Внутренних порталах
Общих сетевых папках и локальных дисках сотрудников
Wiki-системах и базах знаний
CRM и ERP системах
Облачных хранилищах
Системах управления проектами (Jira, Trello, Яндекс.Трекер)
Специализированных отраслевых приложениях

В 64% российских компаний корпоративная информация хранится в 4–10 различных системах, а в 16% организаций число таких систем превышает 10. При этом только 16% сотрудников имеют доступ одновременно во все системы. Остальные вынуждены искать помощи у коллег, пытаясь угадать, где именно может находиться нужный документ. Это создает значительные временные затраты и когнитивную нагрузку на сотрудников.
Проблема версионности: какой документ актуален?
Вторая критическая проблема — многочисленные версии одних и тех же документов. Согласно данным M-Files, в среднем корпоративном окружении:
85% документов дублируются минимум 2–5 раз
До 70% сотрудников признаются, что работали с неправильной версией документа
83% работников вынуждены воссоздавать существующие документы из-за невозможности найти оригинал

Проблема версионности проявляется в самых разных, порой причудливых формах. Все начинается с того, что один и тот же файл начинает размножаться, существуя в десятках копий в разных системах и под разными именами, что превращает поиск оригинала в настоящий квест. К этому добавляетсяпроблема «документов‑призраков»: официальные регламенты и инструкции давно обновлены, но их устаревшие версии продолжают жить своей жизнью, циркулируя среди сотрудников и вводя их в заблуждение. Ситуация усугубляется, когда несколько человек или даже целые отделы начинают параллельно редактировать разные копии одного и того же документа, что неизбежно приводит к конфликту версий и хаосу. И вишенкой на этом торте становятся неформальные правки — когда официальный, выверенный документ обрастает слоем неофициальных, но зачастую критически важных комментариев и интерпретаций, которые остаются скрытыми от большинства коллег. В результате, сотрудники часто используют устаревшую информацию, что приводит к ошибкам, нарушениям процессов и снижению эффективности работы.
Сложность быстрого поиска: когда время критически важно
Быстрый доступ к информации становится критическим фактором успеха в современном бизнесе.
Ситуация усугубляется несколькими факторами:
Ограничения стандартных поисковых инструментов — корпоративный поиск обычно работает по ключевым словам и не понимает контекст или синонимы
Несовместимость форматов — информация хранится в разнообразных форматах (PDF, Word, Excel, HTML, базы данных, сканы документов), что затрудняет единый поиск
Секционное мышление — разные подразделения используют свою терминологию и свои системы хранения информации
Отсутствие единых стандартов наименования — нет универсального подхода к именованию и классификации документов
В итоге, даже зная о существовании нужной информации, сотрудники часто не могут быстро ее найти, особенно в критических ситуациях, требующих оперативных решений.
Последствия этого информационного хаоса пронизывают все уровни организации, нанося ощутимый урон. Начинается все со значительных финансовых потерь: по оценкам IDC, неэффективный поиск информации обходится компаниям из списка «Fortune 500» в более чем 14 миллиардов долларов ежегодно только за счет снижения производительности. Эта неэффективность напрямую сказывается на качестве обслуживания клиентов, ведь большинство сотрудников фронт-офиса признаются, что предоставляли неточную информацию просто потому, что не смогли быстро найти правильный ответ. Проблема затрагивает и руководство — многие руководители отмечают, что процесс принятия решений существенно замедляется из-за сложностей с поиском релевантных данных. Более того, использование устаревших инструкций неизбежно ведет к операционным ошибкам и нарушениям внутренних процессов, создавая серьезные регуляторные риски. В конечном итоге, этот хаос порождает культуру напрасных усилий, где сотрудники вынуждены постоянно «изобретать велосипед», тратя драгоценное время на создание документов и решений, которые уже давно разработаны.
Именно эти вызовы подтолкнули нас к созданию «Авандок Интеллектуальный помощник» — корпоративного ассистента на базе больших языковых моделей, который должен стать единой точкой доступа ко всем корпоративным знаниям, способной понимать естественный язык и контекст запросов сотрудников. Но делать сразу большое универсальное решение было слишком рискованно — технология LLM относительно новая, опыта создания подобных корпоративных продуктов у нас не было, а инвестиции требовались значительные.

Поэтому мы использовали методологию разработки LLM-решений от прототипа к продукту, которая позволяет последовательно снижать риски, проверять гипотезы и наращивать функциональность на каждом этапе.
Этап 1. Формирование и первичная оценка идеи
Цель этого этапа — определить конкретную проблему, которую будет решать LLM-ассистент, и оценить потенциальную ценность решения для компании. В начале пути нам было важно не просто «сделать чат-бота на основе ИИ», а решить конкретную бизнес-задачу. Мы провели серию аналитических исследований по обращениям сотрудников компании и клиентов в разные подразделения, от технической поддержки, до HR и маркетинга.
Это позволило нам выделить несколько ключевых категорий запросов:
Работа с регламентами и должностными инструкциями
Вопросы по ИТ-системам и доступам
Запросы о кадровых процедурах и льготах
Информация о продуктах и сервисах компании
Для следующего этапа нам нужно было выбрать какую-то конкретную тематику, чтобы на ней проверить жизнеспособность идеи с минимальными затратами. Основными факторами, которые влияют на этот критерий, является:
Наличие заинтересованного заказчика, который готов инвестировать свое время в уточнение задачи и сопровождение проекта на всех этапах, включая тестирование и оценку результатов
Наличие данных, которые можно с минимальными трудозатратами преобразовать в качественный источник информации для работы LLM
Действующий механизм оценки результатов, которые покажут изменения в характеристиках функции до работы с ИИ и после применения генеративных технологий. В идеале его должны дополнять накопленные исторические данных по запросам пользователей, ответам консультантов с оценкой удовлетворенности пользователей
Все эти факторы помогут оперативно и качественно оценить эффективность применения Интеллектуального помощника для упорядочивания информационного хаоса и повышения качества работы конкретной бизнес-функции.
Для нас такой функцией стал блок работы с регламентами по документообороту нашего крупного заказчика. Автоматизация этого блока затрагивала большое количество линейных сотрудников и менеджеров, заинтересованных в скорости и качестве их работы, была хорошо формализована и имела встроенные механизмы оценки результатов.
Этап 2. Создание прототипа
Цель этапа — работающий прототип, демонстрирующий ключевую ценность продукта и подтверждающий техническую реализуемость решения. После оценки различных технологических подходов мы выбрали гибридную архитектуру с акцентом на работу в закрытом контуре компании, что являлось одним из ключевых требований к продукту. Ключевым компонентом стала технология RAG (Retrieval-Augmented Generation), которая позволяет сочетать преимущества векторного поиска, генеративных возможностей языковых моделей и классического полнотекстового поиска, хорошо себя зарекомендовавшего при наличии большого числа сокращений, терминов и аббревиатур, которых так много в разного рода инструкциях и правилах.
Особое внимание в нашем решении уделено вопросам безопасности и контроля доступа к данным, что является критически важным для любой корпоративной системы. Архитектура «Авандок Интеллектуальный помощник» построена на трех ключевых принципах. Во-первых, это строгое разграничение прав: система наследует и применяет существующую в компании политику доступа, гарантируя, что сотрудники получают ответы только на основе тех документов, к которым у них есть доступ. Во-вторых, хранение данных в закрытом контуре: вся информация, включая запросы и документы, обрабатывается и хранится исключительно на серверах компании, что полностью исключает риски, связанные с передачей конфиденциальных сведений во внешние облачные сервисы. В-третьих, продвинутая аналитика и мониторинг: все действия пользователей и ответы системы логируются, что позволяет не только анализировать эффективность работы помощника, но и отслеживать аномальную активность, обеспечивая полный контроль и соответствие корпоративным стандартам безопасности.
Для подготовки данных на этапе разработки прототипа мы создали специализированный пайплайн загрузки документов и мультиагентную систему для обработки запроса пользователя с учетом контекста, умного поиска и формирования ответов при помощи LLM с сохранением заданного стиля и формата ответа. Так же нам удалось реализовать работу с изображениями, которые часто дополняют текстовые ответы по инструкциям и документации. Все агенты обращаются к одной базовой LLM, в нашем случае с такой задачей хорошие результаты показала модель T-Pro.
При тестировании прототипа мы получили следующие результаты:
Система успешно находила релевантную информацию в 82% случаев, что значительно превышало эффективность существующих инструментов полнотекстового поиска на таких же запросах (41%)
Среднее время получения ответа составило около 12 секунд, в то время как ранее сотрудники тратили в среднем 8–12 минут на поиск аналогичной информации
Сейчас мы готовимся к следующему этапу — ограниченное бетта‑тестирование на фокусной группе сотрудников заказчика, и нагрузочное тестирование.
Следующие шаги: от прототипа к промышленному решению и универсальному модулю
Успешное прототипирование и предстоящее бета-тестирование открывают перед нами два ключевых направления развития.
Первый шаг — это перевод «Авандок.ИИ Ассистент» в промышленную эксплуатацию в качестве интегрированного компонента нашей системы электронного документооборота «Авандок». Это позволит пользователям системы получать интеллектуальную поддержку непосредственно в процессе работы с документами, значительно ускоряя поиск нужных регламентов, инструкций и шаблонов. Основной фокус здесь будет на бесшовной интеграции, обеспечении стабильности при высоких нагрузках и сборе обратной связи для дальнейшего улучшения пользовательского опыта.
На следующем этапе мы видим большой потенциал в разработке универсального модуля интеллектуального помощника. Такой модуль будет спроектирован с возможностью создания и управления несколькими изолированными базами знаний. Это позволит применять технологию не только для разных отделов внутри одной компании, каждый со своей специфической документацией, но и предлагать кастомизированные решения для различных клиентов, адаптируя помощника под их уникальные информационные массивы и бизнес-процессы. Гибкость настройки и простота создания новых баз знаний станут ключевыми характеристиками этого универсального решения.
Мы уверены, что развитие этих направлений позволит нам не только эффективно решать проблему информационного хаоса внутри собственной компании и для наших клиентов, но и внести свой вклад в формирование нового поколения интеллектуальных корпоративных систем.