
Короткий гуглинг по теме показывает, что все рекомендации по внедрению ИИ в бизнесе сводятся к общим фразам. «Выделите одно приоритетное направление», «найдите рутинные операции», «проанализируйте доступные данные». Спасибо, кэп. А делать-то что?
Всем привет, на связи Влад Кармаков, CEO Siberian.pro, компании по продуктовой разработке цифровых решений. Я уже рассматривал плюсы внедрения ИИ в промышленности, страховом бизнесе и медицине. Выгод там полно. И из общения с представителями бизнеса я вижу, что да, выгоды очевидны многим.
Не очевидно другое: как именно перейти от высокоуровневых рассуждений к конкретным шагам реализации и сколько это будет стоить.
Как понять, нужен ли вам AI?
Для начала — ИИ нужен многим бизнесам, но все же не всем.
ИИ подходит компаниям с повторяющимися бизнес-процессами и большими объёмами данных. Исходные данные должны быть предварительно оцифрованы. С бумажками ИИ работать тоже умеет, но это более сложная задача, требующая уже готовой связки OCR и NLP для оцифровки.
Т.е. чек-лист выглядит так:
Вопрос |
Да/Нет |
У вас есть процессы, в которых задействованы люди, совершающие одни и те же действия по шаблону (поиск однотипной информации, ввод заявок, контроль одних и тех же процессов, анализ форм и документов и т.д.)? |
|
Ваши сотрудники тратят много времени на эти действия? |
|
Есть статистика или инструментальные замеры по времени, затраченному на эти процессы? |
|
У вас есть данные за пару лет по ключевым операциям (продажи, заявки, звонки) или накоплена большая история чатов с клиентами, текстовых документов или отзывов? |
|
Данные хранятся в цифровом виде и к ним можно получить доступ? |
|
Влияют ли эти процессы на деньги, ошибки или скорость операций (а не просто «интересно автоматизировать»)? |
|
В команде есть люди, готовые заняться внедрением или хотя бы курировать его? |
Если ответили «Да» на большинство пунктов — вашему бизнесу, вероятно, будет полезно внедрить ИИ.

Хотя, нет. Подождите. Хорошо бы еще предварительно оценить зрелость цифровой инфраструктуры в компании. ИИ — это инструмент автоматизации. Но если автоматизировать нечего, то он бесполезен. Зачем нанимать пилота Формулы 1, если у вас только велосипед и грунтовая дорожка?

Чек-лист готовности цифровой инфраструктуры приведен отдельно для Machine Learning (ML) и больших языковых моделей (LLM). Какой из двух вариантов ИИ вам подойдет, подробно расскажу ниже.
Уровень готовности |
Признаки |
ML-рекомендации |
LLM-рекомендации |
1 |
Данные в Excel или даже на бумаге, системы не интегрированы, данные «грязные» |
Пока рано. Сконцентрируйтесь на цифровизации бизнеса |
Можно попробовать точечные LLM-решения без интеграции: генерация текстов, чат для сотрудников на базе выгрузки, помощь в документообороте |
2 |
Есть CRM/ERP или трекинг, но данные не анализируются |
Начните с IT-аудита, настройте отчётность и простые BI-проекты |
Оптимально — пилотный проект с LLM через API (FAQ-бот, анализ обращений клиентов, поиск по документации) |
3 |
Есть полноценный DWH, регулярная отчётность, интеграции |
Можно запускать ML-задачи: прогнозы, классификация, скоринг |
Можно подключать LLM с RAG (доступ к данным из DWH/CRM), внедрять интеллектуальный поиск, ассистентов для сотрудников. Можно начать совмещать LLM и ML решения, увеличивая точность и удобство использования |
4 |
Есть аналитики и процессы формализации: определяются метрики, ведётся оценка качества, BI/ML-проекты внедряются в операционку |
Масштабировать ML (персонализация, оптимизация цепочек поставок). |
Масштабировать LLM, внедрять мультимодальные сценарии (текст+изображения), создавать внутренних агентов для бизнес-процессов |
5 |
Есть AI-команда, MLOps, A/B тесты, кастомные модели |
Можно внедрять сложные ML-решения: RL, рекомендательные системы, кастомные модели |
Можно дообучать LLM (fine-tuning, LoRA), строить кастомные платформенные решения на базе моделей |
Из таблицы, помимо всего прочего, следует важный вывод: пилотные проекты на базе генеративных моделей можно запустить даже с минимальной готовностью инфраструктуры. Тогда как машинное обучение, особенно кастомное, потребует существенно больших вложений.
Вывод: ИИ нужен не всем бизнесам. Некоторые пока не готовы к внедрению ИИ в свои процессы. ML-модели привычнее, но требуют серьезной подготовки. А LLM-пилот можно запустить быстро и недорого, и при грамотном внедрении приносить финансовые плоды такое решение начнет с первого дня.
Куда именно внедрять искусственный интеллект?
AI хорошо подходит для автоматизации одних процессов и плохо — для других. Есть и разница между классическим AI/ML и современными языковыми моделями — они нацелены на разные классы задач. Общие критерии подходящих для ИИ задач такие:
повторяющиеся операции;
есть четкие критерии успешности выполнения;
доступна история данных;
цена ошибки ИИ не высока.
При этом если ML-модели созданы для структурированных данных, то LLM блистает как раз на хаотичных и неструктурированных.

Примеры внедрения ML-моделей в бизнес:
Прогнозирование спроса в ритейле. Классическая задача для ML-моделей. Модель предсказывает объёмы продаж по товарам, регионам и дням. Приложение для ритейла собирает данные для ИИ, и есть чёткий критерий оценки результатов.
Оптимизация складских запасов и логистики. Внедрение ML-модели поможет предсказать, где и сколько нужно товаров, составить оптимальный маршрут движения.
Контроль качества, видеоаналитика. На производстве CV-модель помогает выявлять дефекты продукции и нарушения техники безопасности, а классическая ML-модель — предсказывать сбои.
Оценка рисков, скоринг, например, в страховании. Модель на основе прошлых данных по клиенту выполнит андеррайтинг и покажет риски. В основе обучения — формализованные признаки рисковых категорий клиентов, исторические данные.
Однако прорывной эффект от внедрения ИИ в бизнес стоит ожидать при работе с неструктурированной и разрозненной информацией. Современные языковые модели способны эффективно ее обрабатывать, анализировать и переводить в понятную форму.
Примеры внедрения ИИ (LLM) в бизнес-процессы:
Классификация заявок, обращений, документов. Модель определит тему обращения и переадресует нужному специалисту. LLM без проблем поймет суть, даже если запрос написан максимально коряво.
Продвинутая техподдержка. Возьмем типовое приложение для дистрибьюторов. Клиент пишет: «где мой заказ?». Вместо шаблонного ответа или попыток найти заказ «в лоб», происходит нечто более интересное.
Интеллектуальное решение с помощью RAG формирует контекст для LLM, преобразуя активные заказы клиента в текстовый снэпшот, затем семантически анализирует запрос клиента и сопоставляет его со снэпшотом, находя заказ, о котором, наиболее вероятно, идет речь. Затем через ИИ-агента система получает доступ к ERP, видит, где именно находится этот заказ, и сразу информирует об этом клиента. Или даже предпринимает конкретные действия, например, через API формирует тикет в отдел логистики от имени клиента.

Глубокая персонализация. Внедрение ИИ в здравоохранении поможет врачам отвечать в чате клиники уже с учетом истории болезни клиента и прошлого опыта общения.
Анализ клиентского опыта. Закачиваем в LLM тысячи отзывов от заказчиков в соцсетях и на маркетплейсах. Получаем не просто фидбек «понравилось/не понравилось», но и конкретные формулировки. Которые затем можно использовать, например, в маркетинге или SEO.
Поиск по базе знаний, документации, стандартам (на базе RAG). Сотрудник в своем приложении задает вопрос обычным языком («какие документы нужны для отгрузки» или «какой насос лучше предложить под эту спецификацию объекта от клиента»), а ИИ дает структурированный ответ со ссылкой на конкретные регламенты.
Автоматизация типовых офисных действий. Например, с помощью LLM можно проверить правильность документа, понять суть договора и подсветить потенциально рискованные формулировки. А если подключить Model Context Protocol, то и перенести данные из одного формата в другой. AI-агенты способны предложить еще больший уровень автоматизации за счет интеграции в большинство офисных приложений.
Поддержка продаж. Транскрибированием звонков уже никого не удивишь, но почему не пойти дальше и не попросить LLM сразу составить заготовку коммерческого предложения по результатам созвона? Т.е. буквально: сотрудник завершил звонок, и уже через пару минут выслал адаптированное КП клиенту.
Анализ рынка и инфополя. LLM использует внешние инструменты, чтобы отслеживать тренды, отзывы и действия конкурентов. Собранные данные помещаются во временную БД, а LLM+RAG затем составляет лаконичный отчет на основе именно этих данных. Тем самым экономя сотни часов работы аналитиков.
HR-агент. В простом варианте — скрининг и анализ резюме. В сложном — выявление сильных сторон кандидатов, автоматизированный онбординг, ответы на вопросы новичков с помощью RAG по базе знаний и т.д.
А куда внедрять не нужно? Туда, где принятие решения — процесс индивидуальный, а не типовой. Не стоит внедрять ИИ туда, где нет достаточного объема данных — в таких условиях галлюцинировать и выдавать ложные прогнозы будет не только LLM.
В случаях, когда цена ошибки высока — например, речь о будущем компании или о здоровье человека, внедрить ИИ можно, но принятие решений оставить за живым сотрудником. Искусственный интеллект будет играть роль рекомендательной системы.
К слову, я сам активно пользуюсь ИИ и ратую за его внедрение в собственной команде. Подробнее о том, что именно и как именно можно внедрять, — у меня в Telegram-канале.
Иногда из формулировки задачи не ясно, можно ее автоматизировать с помощью AI-решений или нет. «Снизить процент отказов», «уменьшить процент брака на производстве», «улучшить работу отдела продаж». Звучит абстрактно. Вроде бы подходит под наши критерии, но куда именно тут внедрять ИИ?

В таких случаях нужно просто переформулировать задачу в конкретные результаты, достигаемые конкретными же действиями:
Абстрактно |
Конкретно |
Снизить процент отказов |
Автоматически расшифровывать стенограммы звонков и выделять конкретные причины неудовлетворенности клиента продуктом |
Уменьшить процент брака |
Анализировать видеоряд и подсвечивать дефекты в реальном времени |
Улучшить работу отдела продаж |
Автоматически сигнализировать, когда потенциальный клиент выразил сомнения |
Главное, не забыть об остальных факторах. Ведь реальные условия сложнее лабораторных. Иначе получится, как у McDonald's. В 2024 году компания вынуждена была отозвать голосового AI-помощника, потому что тот генерил слишком много лулзов вызывал слишком много нареканий у клиентов.
Поторопились внедрить, не проработав все возможные сценарии взаимодействия и не учтя влияние десятков разных факторов.
Вывод: в задачах со структурированными данными лучше использовать классику, зато LLM отлично работает с нечеткими данными без структуры. Внедрять ИИ нужно туда, где есть рутинные повторяемые задачи и конкретные KPI, по которым можно отследить результаты внедрения. Стратегические решения и решения с высокой степенью ответственности оставляем людям.
Какой именно искусственный интеллект внедрять?
С ростом популярности и мощности современных LLM стало казаться, что искусственный интеллект — это они и есть. На деле, большие языковые модели — лишь один формат из многих.
Под термином ИИ может скрываться много всего разного:
Классические ML-модели: линейные регрессии, деревья решений, кластеризация, временные ряды, байесовская регрессия, различные типы нейронных сетей и т.д.
NLP-модели до LLM-эры. Например, тот же Илья Суцкевер приложил руку к созданию word2vec. Есть еще fastText, spaCy, rule-based системы и многое другое.
Алгоритмы computer vision: распознавание объектов, трекинг движения, OCR (YOLO, OpenCV и т.д.).
Современные LLM (GPT, Claude, Gemini и пр.): диалоговые агенты, генерация, RAG, креативные задачи, решение принципиально новых проблем, с которыми классические модели не справляются.
Классические AI хороши в классических задачах
Классический AI/ML хорошо работает на табличных и структурированных данных в линейных или апроксимируемых к линейным процессах.
Например, классики, как правило, достаточно в следующих областях:
Логистика:
Прогнозирование спроса и оптимизация запасов элементарно решаются линейной регрессией или временными рядами со скользящей средней. Что-то типа ARIMA/Prophet.
Оптимизация маршрутов — задача линейного программирования и простых эвристик.
Ритейл:
Сегментация покупателей и формирование рекомендаций прекрасно работают на основе логистической регрессии и градиентном бустинге.
Скоринг лояльности клиентов тоже не требует LLM — нужен качественный ETL со сбором данных из различных источников (CRM, кассы и т.д.), и нормальная DWH-архитектура с возможностью быстро обучать ML-модель прямо на хранилище или через связанный pipeline.
Производство:
Предиктивная диагностика оборудования — это не что иное, как классические time series, дополненные фильтром выбросов и аномалий.
Страхование:
Автоматическую обработку заявок, расчёт рисков и скоринг можно выстроить на табличных ML-модели, обучив их на исторических данных.
Для неструктурированных данных есть LLM
С другой стороны, LLM и RAG (retrieval augmented generation) отлично себя показывают в обработке документов, текстовых данных, неструктурированной информации, интернет-ресурсов, постов в соцсетях, отзывов, любых запросов на естественном языке и т.п.
Например:
e-commerce, банкинг, страхование:
Автоматизация клиентского сервиса в виде чат-бота или ассистента.
Аналитика отзывов в сети и помощь в формировании товарной матрицы.
Адаптивная интеллектуальная техническая поддержка для клиентов и простой доступ к регламентам с помощью естественного языка (RAG).
Дистрибьюция:
Смарт-каталог товаров с запросами на естественном языке и поиском по конкретным спецификациям (RAG).
Интеллектуальный онбординг сотрудников и партнеров.
Сложная генерация текстов, отчетов, переводов на основе транскрипции голосовых звонков, анализа фото и видеоматериалов, например, для автоматической фиксации неисправностей или обнаружения дефектов.
Обработка неструктурированных документов (PDF, сканы, тех.условия, таможенные документы, тендеры).
Производство:
Можно разработать систему контроля соблюдения техники безопасности с помощью комплексной связки CV + MCP + LLM + RAG. Компьютерное зрение отвечает за триггеры (персонал без каски в опасной зоне), MCP формирует промты для LLM, которая создает уведомления для службы безопасности и отчеты для руководства. Конкретное место нарушения и нарушенный пункт инструкции вычленяем с помощью RAG.
Аналогичная кооперация систем искусственного интеллекта способна не просто обнаружить брак, но и выявить его причину. Например, анализируя статистику брака в зависимости от смен, оборудования, технологических параметров и сырья. LLM здесь выступает в роли следователя, который по крупицам собирает доказательства «преступления», выдвигает гипотезы, с помощью Ватсона (MCP-агента) проверяет их, а затем составляет отчет вида: «С вероятностью 85% причиной микротрещин на изделии является сочетание повышенной температуры на станке №4 и сырья с высокой текучестью, что приводит к неравномерному высыханию и растрескиванию».
Круто же! ML-модели ничего такого не могут.

Итоговый чек-лист для выбора ИИ:
Вопрос |
Если ответ «Да» |
У вас табличные, структурированные данные? |
ML |
Задача связана с предиктивной аналитикой, оптимизацией маршрутов или рекомендательными системами? |
ML |
Нужно искать аномалии в данных (фрод, аварийные режимы и т.д.)? |
ML |
Нужно работать с текстами/документами/PDF? |
LLM |
Требуется генерация или понимание языка? |
LLM |
Задачи нестандартные, слабо формализованные или требующие исследовательских усилий? |
LLM |
Хотите быстро запустить пилот или собрать данные для принятия решения (т.н. фаза discovery)? |
LLM |
Выбор конкретного стека в рамках ML или LLM зависит уже от специфики задачи. В будущих материалах рассмотрю подробнее, подписывайтесь. А пока — едем дальше.
Вывод: продвинутая современная LLM нужна не для всякой задачи. Иногда классический ИИ — лучший выбор. Однако именно LLM сегодня предоставляет такие возможности, которые просто не с чем сравнить в классическом инструментарии.
С чего начинать внедрение ИИ в бизнесе?
Итак, мы решили, что AI нам нужен. Мы хорошо обрисовали задачи, которые он будет решать, и понимаем, как именно мы будем оценивать результаты. Что еще лучше — мы уже знаем, куда именно собираемся внедрять наш искусственный интеллект и каким он будет.
С чего начнём?
1. Деконструкция бизнес-процессов
Берем процесс, который хотим улучшить с помощью AI, разбиваем его на конкретные этапы и описываем, что именно выполняется, что на входе, что на выходе, сколько времени и ресурсов требуется и т.д.
Допустим, мы хотим уменьшить время обработки заявок на страхование. Сводим все шаги этого процесса в таблицу, диаграмму или иную удобную форму. Например, вот так:
Шаг |
Автоматизирован? |
Есть данные? |
Частота ошибок |
Время на выполнение |
Получение заявления |
Частично (через форму) |
Да |
Низкая |
5 мин |
Верификация данных клиента |
Ручной |
Да (CRM) |
Средняя |
20 мин |
Анализ прикреплённых фото, документов |
Ручной |
Нет |
Высокая |
30–60 мин |
Принятие решения |
Ручной |
Частично |
Средняя |
1–2 дня |
Генри Форд, оптимизируя производство на своих заводах, буквально стоял над рабочими с секундомером, замеряя продолжительность каждой операции. У нас та же задача. Если продолжительность шага указать сложно, значит нужно его разбить на более мелкие операции, опять же по заветам Форда.
В итоге четко видно, где теряется больше всего времени, и какие именно операции стоит автоматизировать с помощью AI.
Внедрять ИИ будем в какую-то одну, наиболее приоритетную задачу, которую найдем, например, с помощью методов ICE или Lean Canvas. Распыляться не надо, сосредоточьтесь на одном процессе. В нашем примере — это анализ документов. Исходя из вышеописанного, мы понимаем, что эту задачу можно решить связкой OCR + LLM.
2. Подготовка данных
Для обучения модели нужны данные, но не какие угодно, а правильные. Поэтому план такой:
Уточняем, сколько именно исторических примеров у нас есть. В примере со страхованием это будут заявки. В случае автоматизации контроля качества — данные по изделиям с дефектами и без них. Объема данных должно быть достаточно для обучения.
Размечаем данные по конечному результату. Например, «заявка принята / отклонена», «есть дефект / нет дефекта», «правильное положение детали на конвейере / неправильное положение» и т.д.
Уточняем, где именно хранятся данные.
Уточняем, есть ли доступ к данным у тех, кто будет внедрять ИИ-решение.
Важно удостовериться, что данные корректные, не устаревшие, непротиворечивые и соответствуют сформулированным ранее целям бизнеса. Согласно Gartner, именно плохие данные — причина провала трети всех AI-пилотов.
А как понять, достаточно ли данных? Ориентируемся на конкретную бизнес-задачу. Данные должны покрывать все возможные кейсы и сценарии этой задачи, плюс некоторый запас.
Например:
Тип задачи |
Ориентировочный минимум |
Комментарий |
Классификация клиентов |
10–20 тыс. примеров |
Желательно сбалансированное количество по всем категориям клиентов. |
Прогноз оттока |
6–12 месяцев истории + 10к+ пользователей |
Важно, чтобы охватывало сезоны и типовые пики/спады. |
Прогноз спроса / закупки |
1–3 года транзакций |
По дням, с разбивкой по SKU, каналам, регионам. |
Персонализированные рекомендации |
>100к транзакций |
Хорошо, если есть привязка к категориям клиентов. |
Обнаружение дефектов (производство), аномалий (логистика, техника безопасности) |
6–12 месяцев логов или телеметрии |
Важно захватить и типичные, и редкие ситуации. |
NLP-задачи (тексты, обращения, чаты) |
>10к сообщений (для классификации), >50к (для генерации) |
Больше тем — больше примеров. |
Цифры, конечно, примерные. Качественно можно оценить так: должно быть достаточное число повторений по каждому сценарию, чтобы модели было на чем учиться.
3. Выбор решения
Если вы не в первый раз внедряете AI в бизнес, то этот раздел можно пропустить. В противном случае, нужно определиться, что именно вам требуется: Proof of Concept (PoC), Minimum Viable Product (MVP) или уже готовое решение.
PoC позволяет оценить, можно ли поставленную задачу решить с помощью предлагаемого ИИ-решения. Будет ли оно вообще работать? Т.е. буквально: взяли Jupyter Notebook, загрузили данные из эксельки и посмотрели, что выдала модель.
MVP — это уже про бизнес. Проверяем в реальных условиях и смотрим, достигаются ли бизнес-цели, решается ли задача, есть ли ценность. Это уже не лабораторные испытания, а реальная работа, пусть и на ограниченных данных, в рекомендательном режиме и лишь в одном бизнес-процессе.
Продакшн. Наконец, пилот внедряем в бизнес на постоянной основе.
Решение |
Цель |
Характеристики |
PoC |
Понять, работает ли оно вообще |
Ограниченная выборка данных (очищенных или искусственных). Код может быть написан "в стол", в Jupyter Notebook или скриптами. В случае LLM нужно лишь написать промт. Результат — метрики |
MVP |
Понять, есть ли измеримая польза |
Частичная автоматизация. Используются реальные данные, пусть и не в полном объёме. Есть пользовательский интерфейс или API-интеграция. Бизнес-пользователи могут принимать решения на основе модели. |
Прод |
Все работает и легко масштабируется |
Надёжная инфраструктура. CI/CD. Пользователи принимают решения на основе модели или она работает сама. Есть SLA, поддержка, масштабирование. |
4. Подготовка инфраструктуры
В целом, все готово. Ингредиенты для супа нарезаны, но нужна еще и плита с кастрюлей. Инфраструктуру выбираем исходя из выбранного ранее этапа внедрения:
Этап |
Что выбрать для ML |
Что выбрать для LLM |
PoC |
Облако (VK Cloud, Yandex Cloud), Colab |
Доступ к LLM через API (Python скрипт + МТС Web Services), промты жестко прописаны |
MVP |
Облако с мониторингом + Docker/MLflow + ETL вручную |
Доступ к LLM через API + RAG, коробочное решение |
Прод |
Гибридная инфраструктура: хранилище + пайплайны + MLOps + SLA по API |
Локальная LLM + RAG + MCP + мультимодальность |
Действительно: зачем инвестировать в дорогостоящий сервер, если он потом будет простаивать? Для тестирования пилота вполне достаточно LLM с доступом через API.
Второй момент — юридический. Например, от облаков на иностранных серверах придется отказаться, чтобы соответствовать 152-ФЗ.
Третье — как часто будет меняться бизнес-логика? Если часто, то лучше заложить это в проект сразу и использовать API и гибкие облачные решения.
Дальше. Объемы данных. Быстрая обработка сотен миллионов записей потребует распределенной инфраструктуры (Spark, Dask и т.д.). При небольшом числе можно взять что-то локальное.
Для внедрения и поддержки решения нужна команда. Если своей DevOps/ML команды нет, разумнее начать с облачных решений или вовсе протестировать гипотезу максимально дешевым способом: LLM.
Итоговый чеклист по инфраструктуре AI-решения:
Подход |
Когда использовать |
Преимущества |
Риски внедрения ИИ |
Локальный сервер (on-premise) |
Долгосрочные проекты, безопасность, промышленность, ограничение по юрисдикции |
Полный контроль, фиксированные затраты |
Очень дорого, медленная масштабируемость |
Облако |
Быстрый старт, PoC, MVP, временные задачи |
Быстрая настройка, масштабируемость |
Непредсказуемая стоимость, зависимость от провайдера |
API-платформы |
Типовые задачи без необходимости обучать модели |
Быстрое внедрение, не требует ML-команды |
Ограниченная кастомизация, подписка/лимиты |
Гибрид |
Разные классы задач, в том числе кастомные |
Гибкость, баланс затрат и контроля |
Сложность управления |
Что по инструментарию и конкретному стеку технологий? Зависит от того, продаем мы или покупаем внедряем мы уже готовое решение или пока только проверяем гипотезу.
Архитектурно, внедрение ИИ в бизнес-процессы состоит из этапов: сбор данных из источников, обработка, хранение, и т.д. У каждого этапа своя инфраструктура, но из таблицы ниже хорошо видно, что внедрение искусственного интеллекта на базе LLM потребует гораздо меньше вложений даже на этапе прода.
Слой |
ML — PoC |
ML — Production |
LLM — PoC |
LLM — Production |
Источники данных |
Excel, CSV, выгрузки из 1С / CRM / SQL |
1С, Bitrix, SAP, PostgreSQL, API-источники |
Те же Excel/CSV, вручную вставляем данные в промпт |
Интеграция с CRM/ERP через API, подключение к БД, коннекторы |
Обработка данных (ETL) |
Pandas, Jupyter, Python-скрипты |
Airflow, dbt, NiFi |
Простая нормализация данных прямо в Python или руками |
Лёгкий пайплайн + подготовка данных для RAG (индексация, векторизация) |
Хранилище данных |
Локальные файлы, Google Drive, Yandex Disk |
Yandex Object Storage, ClickHouse, Greenplum |
Можно без отдельного хранилища — просто файлы/таблицы |
Векторное хранилище (FAISS, Milvus, Qdrant), S3-облако |
Обучение модели |
Scikit-learn, CatBoost, XGBoost, LightGBM |
MLflow, CatBoost, LightGBM, Docker |
Не требуется обучение — используем готовый LLM через API |
Дообучение (fine-tuning), настройка LoRA/adapter, кастомные промпт-цепочки |
Инференс |
Jupyter Notebook, Excel-выгрузка, скрипт |
FastAPI, BentoML, Flask |
Вызовы LLM напрямую через API, без обертки |
Обёртка FastAPI/gRPC, RAG, интеграция с чат-ботом или CRM |
Мониторинг |
(опционально) Matplotlib, seaborn, Excel |
Evidently, Prometheus, Grafana |
Логирование запросов, контроль токенов |
Контроль качества ответов (Human-in-the-Loop), Prometheus, контроль затрат |
Интеграция |
PowerPoint, PDF, CSV-отчёт, BI-презентация |
REST API, DataMart, Kafka |
Результаты копируются вручную или через Postman |
REST API, Webhook, интеграция в рабочие процессы (CRM, ERP, чат), MCP, агенты |
Вывод: при внедрении искусственного интеллекта сосредоточьтесь на одном бизнес процессе и сформулируйте конкретный ожидаемый результат. Подготовьте данные в достаточном для описания всех сценариев объеме. Выберите между PoC, MVP или готовым решением и соберите под него инфраструктуру. И да, LLM почти всегда будет дешевле.
Как выбрать подрядчика
По порядку следования в тексте этот пункт идет последним, но в действительности искать подрядчика лучше в самом начале проекта. Хотя можно и не искать, а собрать свою in-house команду. Общие принципы выбора подрядчика здесь такие же, как и в целом по IT.
Воспитывать свой in-house разумно, если вы работаете в долгосрок и готовы инвестировать время и деньги в команду и инфраструктуру своего AI-проекта. Для быстрого запуска, пилотов и всяких нестандартных задач — лучше привлечь подрядчика для внедрения ИИ под ключ. Это еще и дешевле.
Чек-лист:
Критерий |
In-house |
Подрядчик |
Частота AI-проектов |
Регулярные |
Разовые / PoC, MVP |
Время на результат |
Среднесрочно |
Быстро |
Чувствительность данных |
Высокая |
Средняя / Низкая |
Есть ли компетенции внутри компании |
Да |
Нет |
Бюджет |
Долгосрочный |
Ограниченный |
Ок, допустим, мы ищем подрядчика. Кого выбрать? Рынок не то чтобы переполнен, но предложений достаточно. Опять же: я рекомендую смотреть на компании, которые не только подкованы технически, но и понимают запросы бизнеса. Т.е. они не просто покажут изменения, скажем, в ROC-AUC кривых на 5%, но и объяснят, как именно это снизит ваши затраты, например, на контроль качества продукции.
Техно-энтузиасты бывают убедительны, но помните, что ваша цель — не внедрение AI как такового, а достижение бизнес-цели с его помощью.

Чем зрелый подрядчик отличается от энтузиастов?
Вникает в ваши процессы и спрашивает про бизнес-метрики и ROI;
не требует «чистых» данных, готов работать с реальными;
разрабатывает PoC с прицелом на масштабирование;
не «зажимает» знания: документация, обучение, сопровождение;
предлагает адекватный стек под задачу.
Например, если задача состоит в увеличении продаж, то вместо ML-модели для прогнозирования, может оказаться выгоднее использовать LLM, чтобы из отзывов вычленить реальные проблемы пользователей и адаптировать продуктовую линейку. Но чтобы это понять, подрядчик должен быть готов глубоко нырнуть в ваши процессы.
Что должно быть в документации по AI-проекту (неважно, подрядчик или in-house):
Описание задачи: постановка, допущения, целевые метрики.
Данные: источники, примеры, сценарии, пайплайны обработки.
Выбранная модель: тип, параметры, дата обучения, обоснование выбора.
Метрики: обучающая/валидационная/продакшн-метрики.
CI/CD: как происходит деплой, где хранятся артефакты.
Механизмы мониторинга (на проде): что отслеживается, пороговые значения.
Контроль качества: логика тестирования модели (юнит-тесты, интеграционные тесты).
Обратная связь: кто и как валидирует поведение на проде.
Риски: bias, drifts, приватность, интерпретируемость.
Руководство по эксплуатации: как перезапустить, как дообучить.
Вывод: при выборе подрядчика ориентируйтесь не на «ботоводов», а на людей, понимающих суть бизнеса и готовых вникать в процессы.
Сколько стоит внедрить ИИ в бизнес
Если вы внимательно прочитали статью, то уже знаете ответ. Если пролистали сразу сюда, то вот краткая выжимка:
не всем бизнесам нужен ИИ;
аудит цифровой готовности поможет понять, нужен ли искусственный интеллект именно вашей организации;
с помощью AI лучше оптимизировать рутинные и повторяющиеся действия с четкими критериями эффективности;
ML-модели хороши на структурированных данных, а LLM — на хаотичных и в креативных задачах;
в чувствительных сферах принятие решений оставляем за человеком;
выбор конкретной реализации и модели AI зависит от бизнес-процессов, вида задачи, объема и типа данных, и от вашего бюджета;
объем работ по внедрению ИИ в бизнес и инфраструктура зависят от вида решения: Proof of Concept, MVP или продакшн.
Отсюда ясно, что стоимость внедрения варьируется. Обычно эта фраза означает, что исполнитель запросит много, но спешу успокоить: услуги внедрения ИИ вполне по карману даже малому бизнесу.
Например, простой AI-помощник, заточенный под ваши офисные бизнес-процессы, обойдется буквально в 100-200 тысяч рублей. При этом результаты проявятся очень быстро. Бюджеты от нескольких миллионов начинаются в сфере AI/ML, где требуются кастомные модели, обучение и комплексные интеграции.
По вопросам внедрения ИИ и в целом про разработку цифровых решений регулярно пишу в своем ТГ-канале. Заглядывайте.
Комментарии (5)
CloudlyNosound
11.09.2025 07:26Спасибо, кэп. А делать-то что?
Оплатить курсы именно в их тг-канале. Это же очевидно.
T968
Все эти умные слова из этой статьи, смысл которых автор недопонимает, можно использовать и применять только после формализации бизнеса.
Бардак оцифровать невозможно, тем более с помощью ИИ
CloudlyNosound
С помощью ИИ "оцифровать" можно всё. Оно прожуёт и попросит ещё. Результат прожёвывания хаоса предсказать невозможно.