Привет!
С вами Юрий Сергеев, основатель и генеральный партнер в Swordfish Security. Мы строим DevSecOps и развиваем безопасный искусственный интеллект.
В этой статье я расскажу, как компании переходят от базового применения ИИ к концепции AI-Native, какие уровни зрелости существуют, как классифицируются приложения и модальности, а также с какими рисками сталкиваются организации при внедрении ИИ.
Прежде всего эта статья для тех, кто не может себе позволить запретить использование LLM из-за соображений, что случатся недопустимое события: потеря данных, нарушение конфиденциальности, кража моделей. Другими словами, для практиков, которые движутся вперед и ищут решения и процессы, помогающие сделать меньше ошибок.
Часть первая:
Введение
Машинное обучение (ML) и генеративный ИИ (GenAI) меняют организационный ландшафт. Компании убеждаются, что ИИ способствует внедрению инноваций, помогает сохранять конкурентоспособность и повышает продуктивность сотрудников. Становится понятным, что данные, накапливаемые организацией, дают ей конкурентное преимущество для ИИ приложений. Это естественным образом приводит к усиленному вниманию к самим моделям как к ключевому компоненту ИИ-решений и порождает спекуляции о возможностях будущих моделей.
Уровни зрелости AI
В данный момент можно рассмотреть три уровня зрелости: от «просто ИИ» к «ИИ-как-ДНК»: Conventional AI, AI-First и AI-Native.

Conventional AI: технология ради эффективности
На базовом уровне ИИ рассматривается как утилитарная технология для повышения производительности: автоматизация рутинных задач, сокращение издержек, ускорение операций. Подход прагматичный и локальный: внедряем алгоритм — получаем прирост эффективности. Однако влияние на стратегию и бизнес-модель минимально: процессы и решения в целом остаются прежними.
AI-First: первый шаг к технологической интеграции
AI-First — это уже стратегический поворот: компании целенаправленно используют ИИ для улучшения существующих процессов, продуктов и услуг.
Ключевые признаки:
?приоритизация ИИ в разработке и принятии решений;
?системное внедрение в текущие цепочки создания ценности;
?метрики и KPI увязаны с качеством ИИ-решений.
Результат — ощутимое повышение качества и скорости, но бизнес-логика по-прежнему эволюционирует вокруг существующих продуктов.
AI-Native: когда ИИ становится бизнес-ДНК
AI-Native — это качественно иной уровень. ИИ не «надстройка», а фундамент:
?алгоритмы глубоко интегрированы во все функции — от стратегии и R&D до операций и клиентского опыта;
?решения, продукты и операционные процессы проектируются с ИИ по умолчанию;
?ИИ направляет принятие решений, а не просто обслуживает их.
Такой переход означает смену самой бизнес‑модели: компания опирается на возможности ИИ как на первоисточник конкурентного преимущества.
Резюмируя:
Уровень зрелости |
Эффективность |
Conventional AI |
Локальная эффективность. Хорошо, чтобы начать. |
AI‑First |
Системное улучшение текущего бизнеса. Шаг к масштабу. |
AI‑Native |
Перестройка бизнеса вокруг ИИ. Источник новых моделей дохода. |
Переходы между ступенями требуют не столько большего числа моделей, сколько смены архитектурных и управленческих принципов: от точечных инструментов — к платформе, от ручных регламентов — к машинным контролям, от экспериментальных кейсов — к операционной автономности под надзором.
«Малые» ИИ-инициативы дают лишь постепенный эффект.
Запуск чат-бота, суммаризатора диалогов или «готовых» инструментов для рекламы и писем полезен для экспериментов с невысоким риском. Но это, как правило, локальные улучшения. Они редко приводят к заметному сдвигу финансовых результатов сами по себе, потому что не меняют архитектуру решений, продуктовую стратегию и операционную модель.
Настоящая ИИ-трансформация
Полноценная трансформация требует иного масштаба использования ИТ, данных и моделей (ML, LLM).
Ключевые аспекты трансформации:
?Упор на автоматизацию и автономность процессов, где человеческое участие минимально;
?Сквозная интеграция данных, MLOps/LLMOps и платформенных сервисов;
?Переосмысление циклов принятия решений — от «ручных» к машинно-поддерживаемым и самоуправляемым.
Риски при этом растут экспоненциально и превосходят по сложности волны прошлых изменений — публичные облака, микросервисы, контейнеры.
Причина — автономность: ошибки, дрейф моделей, уязвимости в цепочках данных и решений теперь распространяются быстрее и шире.
Следствие — потребность в централизации и управляемости:
?единая платформа данных и моделей;
?централизованные политики качества, безопасности и соответствия;
?единый контроль версий, мониторинг и реагирование на инциденты;
?общие стандарты для экспериментов и вывода моделей в промышленную эксплуатацию.
При этом централизация никак не противоречит гибкости команд — она задает «рельсы», по которым децентрализованные продуктовые команды движутся быстрее и безопаснее.
По мере того, как всё больше разработчиков создают приложения на базе больших языковых моделей (LLM), бизнес убеждается: для достижения действительно передовых результатов нужны сложные ИИ-системы, идущие гораздо дальше статических моделей дополнения подсказок и LLM плагинов. Использование сложных приложений с мультикомпонентной архитектурой открывает новые возможности, но также сопряжено с потенциальными рисками. Существует угроза нарушений безопасности и конфиденциальности. Например, данные, отправленные во внешнюю LLM, могут быть раскрыты или скомпрометированы.
Организации также беспокоятся о таких рисках, как потеря данных, нарушение их конфиденциальности, кража моделей и сложности с обеспечением соответствия существующим и будущим нормативным требованиям при использовании собственных данных в ML и GenAI. Без надежных механизмов контроля доступа пользователи могут с помощью генеративных моделей ИИ получить доступ к конфиденциальной информации, к которой они не должны иметь доступа. Если модели используются для взаимодействия с клиентами, данные может получить конкурент. При отсутствии возможностей аудита и отслеживания работы моделей и данных организации сталкиваются с рисками нарушения регуляторных требований.
Классификация ИИ-приложений
Компании использовали технологии машинного обучения (ML) в своих приложениях на протяжении десятилетий. Ранее это требовало глубоких знаний и длительной подготовки моделей. С появлением технологии генеративного ИИ и LLM, а также благодаря простому доступу к предварительно обученным моделям в формате подписки (например, ChatGPT, GigaChat и YandexGPT), сформировались основные категории прикладных архитектур:
?приложения с предиктивной ML-моделью;
?приложения, ориентированные на промпты;
?автономные AI-агенты;
?LLM-плагины и расширения;
?комплексные AI-приложения (здесь LLM играет ключевую роль в рамках более широкой системы или бизнес-сценария).

Приложения с предиктивной ML-моделью. Предназначены для анализа исторических данных и предсказания будущих событий с целью оптимизации процессов или принятия решений. В основе приложения лежит предиктивная ML-модель, обученная на большом наборе данных, включающих ключевые характеристики и показатели.
Основные функции:
?Сбор и обработка данных — приложение автоматически собирает входные данные из различных источников, очищает и подготавливает их для анализа.
?Анализ данных и обучение модели — с помощью алгоритмов машинного обучения (например, регрессия, случайный лес, градиентный бустинг, нейросети) строится модель, выявляющая закономерности и зависимости.
?Прогнозирование — на основе новых входных данных модель предсказывает исходы или значения, например, спрос на продукт, вероятность отказа оборудования или поведение клиентов.
?Визуализация результатов — выводит результаты прогнозов в виде графиков, отчетов или интерактивных панелей для удобства восприятия.
?Автоматическое обновление модели — по мере поступления новых данных модель периодически переобучается для повышения точности прогнозов.
Примеры промышленного применения:
▪️Розничная торговля: для предсказания спроса и управления запасами.
▪️Здравоохранение: для прогнозирования риска развития заболеваний.
▪️Промышленность: для предиктивного обслуживания оборудования, снижая время простоя.
▪️Финансовый сектор: для оценки кредитного риска клиентов.
Таким образом, приложение с предиктивной ML-моделью помогает принимать более обоснованные и своевременные решения, уменьшая риски и повышая эффективность бизнеса.
Приложения на основе статических промптов. Используют заранее заданные команды на естественном языке для управления поведением большой языковой модели с целью получения нужного результата. Такой подход позволяет оптимизировать взаимодействие между пользователем и моделью путем точной настройки формулировок, контекста и инструкций, передаваемых LLM. Эти приложения позволяют пользователям выполнять широкий спектр задач, просто уточняя способ формулировки запросов или инструкций.
Ключевые характеристики:
?Прямое взаимодейст��ие с моделью
?Возможность быстрого прототипирования
?Относительная простота и доступность
Примеры промышленного применения:
▪️Генерация контента
▪️Вопросно-ответные системы
▪️Инструменты перевода языка
Приложения-агенты. Используют большие языковые модели для автономного или полуавтономного выполнения задач, принятия решений и взаимодействия с пользователями или другими системами. Такие агенты действуют от имени пользователя, управляя сложными процессами, которые часто включают в себя несколько этапов, интеграции с другими системами и принятие решений в режиме реального времени. Они работают с определённой степенью автономии, что позволяет им выполнять задачи без постоянного вмешательства человека.
Ключевые характеристики:
?Автономное принятие решений
?Взаимодействие с внешними системами
?Автоматизация сложных рабочих процессов
Примеры промышленного применения:
▪️Чат-боты для поддержки клиентов
▪️Анализ данных и отчетность
▪️Автоматизация процессов
LLM-плагины и расширения. Интегрируют большие языковые модели в существующие приложения или платформы, позволяя им предоставлять пользователю новую функциональность. Плагины обычно служат мостом между LLM и приложением, обеспечивая бесшовную интеграцию, например, добавляя языковую модель в текстовый редактор для проверки грамматики или интегрируясь с системами управления маркетинговыми кампаниями для автоматических ответов на электронные письма.
Иногда бывает сложно провести четкую грань между агентами и плагинами / расширениями, которые часто являются компонентами больших приложений. Одним из критериев является способ их развертывания. Например, плагин — это заранее созданный агент, предназначенный для повторного использования, который вы вызываете явно через API или как часть плагина или фреймворка расширений LLM, в отличие от пользовательского кода, работающего периодически в фоновом режиме.
Ключевые характеристики:
?Фокус на решении специфических задач
?Реализация интеграции между LLM и пользовательским приложением
?Решение задачи расширения функциональности LLM
Примеры промышленного применения:
▪️Инструменты создания контента
▪️Резюмирование текста
Комплексные приложения. Это продвинутые программные системы, в которых большие языковые модели играют центральную роль, обеспечивая расширенные возможности и решения. Эти приложения отличаются широким охватом, высокой масштабируемостью и глубокой интеграцией с множеством технологий и компонентов. Как правило, они создаются для решения комплексных задач — зачастую в корпоративной среде — и требуют значительных усилий по разработке, инженерной поддержке и постоянному обслуживанию. Такие приложения часто предназначены для обработки запросов, поступающих от не-человеческих систем. Обычно они включают в себя координацию между различными компонентами, — например, API, базами данных, системами мониторинга или IoT-устройствами, — которые генерируют входные данные для обработки LLM, интерпретации и выполнения действий.
Ключевые характеристики:
?Многокомпонентная архитектура
?Множественные интеграции
?Расширенные функции, масштабируемость
Примеры промышленного применения:
▪️Автоматизированная финансовая отчетность
▪️Анализ юридических документов
▪️Системы медицинской диагностики
Классификация модальностей LLM
Скажем несколько слов про классификацию модальностей в контексте LLM. Это способ группировки по типу входных и выходных данных, с которыми модель работает.
Ниже приведена структурированная классификация модальностей LLM:
?Текстовая модальность
?Аудио
?Изображения и видео
?Структурированные данные
?Кодовая модальность
?Сенсорные/IoT модальности
?Мультимодальность (текст + изображение, текст + аудио и так далее).
Изначально LLM работали в единственной модальности — текстовой. С 2025 года активно используются распознавание и генерация аудио, снимков, видео в различных комбинациях. Поддерживаются структурированные данные, такие как таблицы, графы, SQL-запросы; проводятся активные эксперименты по автоматической или полуавтоматической генерации кода программ, поиску ошибок и предоставлению подсказок программистам. В сенсорной модальности обрабатываются сигналы от физических устройств (датчики, камеры, сенсоры) для генерации текстовых или мультимодальных ответов.
Типы моделей машинного обучения и паттернов использования
Существует несколько типов, паттернов использования и развертывания моделей машинного обучения:
?Предиктивные модели машинного обучения (ML). Это традиционные модели для структурированных данных, обучаемые на пользовательских табличных данных. Обычно это модели на Python, упакованные в формате MLflow.
?Внешние фундаментальные модели. Размещены в публичном облаке, доступны в формате сторонних сервисов: GPT от OpenAI, YandexGPT, GigaChat и другие.
?Базовые большие языковые модели. Отобранные архитектуры фундаментальных моделей, развернутые внутри организации или в частном облаке, например, Meta Llama, GTE-Large и Mixtral.
Основные паттерны использования LLM в порядке повышения сложности:
Взаимодействие с LLM через промпт-инжиниринг. Это практика настройки текстовых подсказок, передаваемых LLM, с целью получения более точных или релевантных ответов. Не каждая модель будет давать одинаково качественные результаты, так как промпт-инжиниринг зависит от конкретной модели.
Генерация через дополненный контекст (Retrieval Augmented Generation, RAG). Это архитектурный подход, который может повысить эффективность приложений с большими языковыми моделями (LLM) за счет использования пользовательских данных. Достигается путем извлечения релевантных данных или документов, соответствующих вопросу или задаче, и предоставления их в качестве контекста для LLM. RAG показал успех в чат-ботах поддержки и системах вопросов и ответов, которым необходимо иметь актуальную информацию или доступ к специфичным для области знаниям.
Дообучение (fine-tuning) LLM. Это процесс адаптации предварительно обученной большой языковой модели (LLM) на относительно небольшом наборе данных, специфичных для определенной области или задачи. В ходе дообучения модель продолжает обучение в течение короткого времени, возможно, с корректировкой относительно меньшего числа весов по сравнению с всей моделью.
Кастомизация и предварительное обучение (Pre-Training) LLM. Предварительное обучение LLM с нуля означает процесс обучения языковой модели на большом объеме данных (например, текстах, коде) без использования каких-либо предварительных знаний или весов от уже существующей модели. Это отличается от дообучения, при котором уже предварительно обученная модель дополнительно адаптируется к конкретной задаче или набору данных. Результатом полного предварительного обучения является базовая модель, которую можно использовать напрямую или далее дообучать для выполнения конкретных задач. Предварительное обучение обычно является самой крупной и самой дорогой задачей в обучении моделей и не является типичной практикой для большинства организаций.
Итоги первой части
Мы разобрали уровни зрелости ИИ, ключевые аспекты ИИ-трансформации, классификацию приложений и модальностей LLM, а также типы моделей машинного обучения и паттерны их использования. Понимание этих элементов помогает оценивать возможности этих технологий, выбирать подходящие архитектуры и управлять рисками внедрения ИИ.
Совсем скоро, во второй части, поговорим о том, как строить безопасные и эффективные ИИ-приложения на практике: от эволюции инженерных практик и DevOps/ MLOps до LLMDevOps и LLMSecOps, а также о циклe разработки следующего поколения (Next‑Gen SDLC), управлении рисками и защите систем AI‑Native.
NeriaLab
Про LLM написано много, а где про ИИ?