Компания платит дважды: за создание базы знаний и за ее игнорирование. В этой статье разберем, как превратить ее из цифрового кладбища в мощный инструмент с AI-ассистентом – без галлюцинаций LLM и нарушений compliance.
Для начала небольшая ремарка
Многие представляют базу знаний как эдакую внутреннюю википедию, где описаны основные процессы, в отдельных папках хранятся регламенты и инструкции, все красиво упаковано, на лугах пасутся розовые пони. Никто не суется в эту базу знаний, потому что информация устаревает до того, как будет опубликована.
Да, это – пустая трата ресурсов, потому что она не становится топливом для роста. Тогда что есть база знаний в современном энтерпрайзе?
Если коротко, то все: любая информация о новых решениях, инструкции, ретро и разборы полетов, правовая информация, данные о подрядчиках, та самая внутренняя википедия, как словарь терминов, и т.д.
Это те знания на кончиках пальцев, которых может не быть у ваших конкурентов, но которые должны быть у команды.
Весь этот комплекс данных мы рассматриваем в качестве базы в управлении бизнесом на основе знаний. И о нем речь и пойдет в нашей статье.
Возможности AI-ассистента в базе знаний
Чем богаче и структурированнее база знаний компании, тем больше возможностей открывается для AI-ассистента. Это не просто линейная зависимость, а эффект мультипликатора: каждый новый документ, инструкция или кейс увеличивает ценность системы в геометрической прогрессии.
Объем данных = больше контекста для точных ответов
AI-ассистент не «придумывает» ответы, а ищет их в вашей базе знаний. Если там только 10 документов – его возможности ограничены.
Например, вопрос: «Как оформить возврат товара для корпоративного клиента?» требует не только общей политики возвратов, но и:
Особых условий для B2B-договоров;
Прецедентов из переписки с юротделом;
Инструкций по работе с CRM.
Если этих данных нет – ассистент либо даст неполный ответ, либо промолчит.
Глубина знаний = сложные запросы без ручного вмешательства
Базовый вопрос (например, как сменить пароль) решается и с минимальной БЗ. Но для сложных сценариев нужна детализация:
«Какие этапы согласования для сделки >$1M в Азиатском регионе?» – требует доступа к:
юридическим шаблонам,
истории подобных сделок,
локальным регуляторным нормам.
И все это в идеале должно автоматически обновляться.
Из этого следует один не очень-то удобный вывод: те, кто начал работу над базой знаний 1–3–5–10 лет назад, сегодня получают конкурентное преимущество:
Их данные прошли очистку от дублей и устаревших файлов.
Накоплена историческая аналитика.
AI-ассистент имеет больше источников для погружения в контекст.
Правовая модель доступа к информации как обязательное условие IT-инфраструктуры enterprise-компании
В крупном бизнесе с развитой IT-инфраструктурой нельзя просто прикрутить LLM-модель к базе знаний. Есть определенные риски безопасности:
Утечка данных. Публичные LLM могут запоминать и использовать введенные prompts. Запрос «Сгенерируй ответ на претензию клиента Y» может впоследствии попасть в обучающую выборку модели.
Нарушение регуляторики. В GDPR, HIPAA и других стандартах жесткие требования к хранению и обработке данных. Обычная LLM не гарантирует их соблюдения.

Помимо требований безопасности, просто LLM-модель – все еще плохое решение для enterprise с обширной базой знаний. Это все равно, что установить мощный двигатель в машину без руля и тормозов. И вот почему:
LLM не знает ваших внутренних данных. Отсюда галлюцинации (правдоподобные, но вымышленные ответы, если в обучающей выборке не хватило нужных данных), а также устаревшие знания (LLM не знает ваших регламентов, стратегий и ценовых изменений). Это, помимо банальных косяков, может привести к штрафам, репутационным потерям и даже судебным искам.
LLM не понимает контекста компании и игнорирует структуру знаний. Она не интегрирована с CRM, ERP или Helpdesk, поэтому не может проверить актуальный статус заказа, найти последнюю версию договора или подтянуть данные из отчетов. Что касается структуры знаний, то в enterprise база часто разделена по отделам (финансы, юристы, техподдержка и т.п.), уровням доступа (публичные и конфиденциальные данные), геолокациям (разные правила для филиалов).
Масштабируемость и кастомизация. Начнем с того, что дообучить публичную LLM можно, но очень долго и дорого. С учетом остальных нюансов это просто невыгодно экономически.
Сервисы для совместной работы, где хранится база знаний, предполагают правовую модель. Вот, например, как это устроено у нас в TEAMLY.
Есть 3 градации прав доступа:
Всему интернету
Всем сотрудникам
Ограниченный доступ с персональной выдачей прав
Если выдаете доступ на раздел или статью, он не открывает все пространство – только нужную статью. Таким образом, линейные сотрудники из отдаленных филиалов не могут случайно (ну или нет) слить статьи, предназначенные для топ-менеджмента. А LLM-ке нужно скормить либо ограниченную базу знаний, которая доступна большинству (и тогда в чем смысл?) либо отдать всю базу знаний, игнорируя правовую модель (а это удар по безопасности).
Вывод
Простая LLM в enterprise – это риск без ROI. Для компаний с обширной базой знаний нужны решения, которые:
Работают с актуальными внутренними данными;
Не нарушают compliance;
Экономят время, а не создают новые проблемы.
Что использовать вместо обычной LLM
RAG (Retrieval-Augmented Generation) – метод работы с большими языковыми моделями, который добавляет контекст в запрос к LLM.
Гибридные решения (прямое обращение к LLM или RAG-модель)
Вертикальные enterprise-модели (специализированные LLM для отраслей)
Мы выбрали гибридную модель, где можно переключаться между RAG и прямым обращением к LLM. То есть в TEAMLY доступны оба вида Умного поиска, что дает большие преимущества.

RAG-модель сочетает два ключевых компонента: Retrieval (поиск релевантных документов в базе знаний) и Generation (генерация ответа на естественном языке с учетом найденных данных).
Что это дает
Если в базе есть вся техдокументация, мануалы и трекеры, ассистент сможет ответить даже на сложные вопросы вроде: «Какие были инциденты с сервером Х в 2023 году и как их решали?».
Чем больше структурированных данных (например, размеченных Q&A, скриншотов, видео-инструкций), тем точнее ответы.
Смоделируем простой пример: вчера ты был простым разработчиком, а сегодня тебя повысили до тимлида. Какого-то серьезного онбординга решили не проводить – ты же и так знаешь большую часть процессов. Но обстановку разведать нужно. Задаем вопрос нашему AI-ассистенту.

LLM обойдется дежурными советами в стиле: «не волнуйтесь, будьте дружелюбны» и т.д. – то есть, ответы максимально удалены от нашей ситуации с повышением.
RAG-модель выдаст более таргетированный ответ: пара дежурных ответов, но самое важное – дни планерок и масса полезных ссылок на регламенты конкретной организации.
Рассмотрим более сложный пример: проджект ушел в отпуск, а по одному из проектов прилетели доработки. Менеджер на подмене понятия не имеет, в чем суть проекта и обращается к базе, чтобы в общих чертах узнать, что к чему.

LLM ожидаемо заявляет открытые данные, которые можно найти по первой строчке гугла.
RAG-модель предоставляет информацию о взаимодействии ваших компаний: что делали, чем закончилось и все нужные ссылки, где каким-то образом упоминался данный проект.
Вывод: RAG – инструмент, который усиливает ваши данные. Это не замена пользователя и не банальный поисковик. Это скорее новый игрок в команде.

Перспективы внедрения RAG-модели в базе знаний
Если мы говорим об enterprise-компании с закрытым контуром, где сотрудники не могут использовать интернет и поиск, то выходом может стать переключатель между LLM и RAG-моделью.
Обязательное условие – чтобы RAG-модель индексировала не только тексты статьей самой базы знаний, но и текстовые документы в виде скриншотов, сканов и т.п. Сюда же отнесем автоматизацию пополнения базы знаний:
интеграция с корпоративными чатами в Telegram;
подтягивание обновлений законодательства из юридических систем;
формирование обучающих документов и тестов с помощью того же AI-консультанта на основе базы знаний.
Для аккумуляции стоит выбрать единый инструмент управления бизнес-процессами и знаниями. Качественная база позволит освободить больше ресурсов.
Не могу удержаться от аналогии с суперкаром: на пустом баке (базе знаний) далеко не уедешь. Но чем больше «топлива» – тем выше скорость и экономия ресурсов.
Напоследок по традиции нужно дать несколько неочевидных советов по настройке такой системы:
Начинайте сейчас. Даже если ваша база знаний еще неидеальна, через 3 года она станет стратегическим активом (а с AI-помощником уже через год).
Инвестируйте в структуру. Размечайте данные, чистите дубли, добавляйте мета-описания – это повысит точность AI.
Тестируйте на конкретных сценариях. Внедряйте RAG поэтапно: например, сначала в поддержку, затем в юротдел и продажи.
Компании, которые воспринимают базу знаний как «живой» ресурс, а не архив, уже получают до 40% экономии времени сотрудников.
Fardeadok
Самому не стыдно за статью?