Привет!

С вами Юрий Сергеев, основатель и генеральный партнер в Swordfish Security. Мы строим DevSecOps и развиваем безопасный искусственный интеллект.

В этой статье я расскажу, как компании переходят от базового применения ИИ к концепции AI-Native, какие уровни зрелости существуют, как классифицируются приложения и модальности, а также с какими рисками сталкиваются организации при внедрении ИИ.

Прежде всего эта статья для тех, кто не может себе позволить запретить использование LLM из-за соображений, что случатся недопустимое события: потеря данных, нарушение конфиденциальности, кража моделей. Другими словами, для практиков, которые движутся вперед и ищут решения и процессы, помогающие сделать меньше ошибок.

Часть первая:

Введение

Машинное обучение (ML) и генеративный ИИ (GenAI) меняют организационный ландшафт. Компании убеждаются, что ИИ способствует внедрению инноваций, помогает сохранять конкурентоспособность и повышает продуктивность сотрудников. Становится понятным, что данные, накапливаемые организацией, дают ей конкурентное преимущество для ИИ приложений. Это естественным образом приводит к усиленному вниманию к самим моделям как к ключевому компоненту ИИ-решений и порождает спекуляции о возможностях будущих моделей.

Уровни зрелости AI

В данный момент можно рассмотреть три уровня зрелости: от «просто ИИ» к «ИИ-как-ДНК»: Conventional AI, AI-First и AI-Native.

Уровни зрелости AI
Уровни зрелости AI

Conventional AI: технология ради эффективности

На базовом уровне ИИ рассматривается как утилитарная технология для повышения производительности: автоматизация рутинных задач, сокращение издержек, ускорение операций. Подход прагматичный и локальный: внедряем алгоритм — получаем прирост эффективности. Однако влияние на стратегию и бизнес-модель минимально: процессы и решения в целом остаются прежними.

AI-First: первый шаг к технологической интеграции

AI-First — это уже стратегический поворот: компании целенаправленно используют ИИ для улучшения существующих процессов, продуктов и услуг.

Ключевые признаки:

?приоритизация ИИ в разработке и принятии решений;

?системное внедрение в текущие цепочки создания ценности;

?метрики и KPI увязаны с качеством ИИ-решений.

Результат — ощутимое повышение качества и скорости, но бизнес-логика по-прежнему эволюционирует вокруг существующих продуктов.

AI-Native: когда ИИ становится бизнес-ДНК

AI-Native — это качественно иной уровень. ИИ не «надстройка», а фундамент:

?алгоритмы глубоко интегрированы во все функции — от стратегии и R&D до операций и клиентского опыта;

?решения, продукты и операционные процессы проектируются с ИИ по умолчанию;

?ИИ направляет принятие решений, а не просто обслуживает их.

Такой переход означает смену самой бизнес‑модели: компания опирается на возможности ИИ как на первоисточник конкурентного преимущества.

Резюмируя:

Уровень зрелости

Эффективность

Conventional AI

Локальная эффективность. Хорошо, чтобы начать.

AI‑First 

Системное улучшение текущего бизнеса. Шаг к масштабу.

AI‑Native

Перестройка бизнеса вокруг ИИ. Источник новых моделей дохода.

Переходы между ступенями требуют не столько большего числа моделей, сколько смены архитектурных и управленческих принципов: от точечных инструментов — к платформе, от ручных регламентов — к машинным контролям, от экспериментальных кейсов — к операционной автономности под надзором.

«Малые» ИИ-инициативы дают лишь постепенный эффект.

Запуск чат-бота, суммаризатора диалогов или «готовых» инструментов для рекламы и писем полезен для экспериментов с невысоким риском. Но это, как правило, локальные улучшения. Они редко приводят к заметному сдвигу финансовых результатов сами по себе, потому что не меняют архитектуру решений, продуктовую стратегию и операционную модель.

Настоящая ИИ-трансформация

Полноценная трансформация требует иного масштаба использования ИТ, данных и моделей (ML, LLM).

Ключевые аспекты трансформации:

?Упор на автоматизацию и автономность процессов, где человеческое участие минимально;

?Сквозная интеграция данных, MLOps/LLMOps и платформенных сервисов;

?Переосмысление циклов принятия решений — от «ручных» к машинно-поддерживаемым и самоуправляемым.

Риски при этом растут экспоненциально и превосходят по сложности волны прошлых изменений — публичные облака, микросервисы, контейнеры.

Причина — автономность: ошибки, дрейф моделей, уязвимости в цепочках данных и решений теперь распространяются быстрее и шире.

Следствие — потребность в централизации и управляемости:

?единая платформа данных и моделей;

?централизованные политики качества, безопасности и соответствия;

?единый контроль версий, мониторинг и реагирование на инциденты;

?общие стандарты для экспериментов и вывода моделей в промышленную эксплуатацию.

При этом централизация никак не противоречит гибкости команд — она задает «рельсы», по которым децентрализованные продуктовые команды движутся быстрее и безопаснее.

По мере того, как всё больше разработчиков создают приложения на базе больших языковых моделей (LLM), бизнес убеждается: для достижения действительно передовых результатов нужны сложные ИИ-системы, идущие гораздо дальше статических моделей дополнения подсказок и LLM плагинов. Использование сложных приложений с мультикомпонентной архитектурой открывает новые возможности, но также сопряжено с потенциальными рисками. Существует угроза нарушений безопасности и конфиденциальности. Например, данные, отправленные во внешнюю LLM, могут быть раскрыты или скомпрометированы. 

Организации также беспокоятся о таких рисках, как потеря данных, нарушение их конфиденциальности, кража моделей и сложности с обеспечением соответствия существующим и будущим нормативным требованиям при использовании собственных данных в ML и GenAI. Без надежных механизмов контроля доступа пользователи могут с помощью генеративных моделей ИИ получить доступ к конфиденциальной информации, к которой они не должны иметь доступа. Если модели используются для взаимодействия с клиентами, данные может получить конкурент. При отсутствии возможностей аудита и отслеживания работы моделей и данных организации сталкиваются с рисками нарушения регуляторных требований. 

Классификация ИИ-приложений 

Компании использовали технологии машинного обучения (ML) в своих приложениях на протяжении десятилетий. Ранее это требовало глубоких знаний и длительной подготовки моделей. С появлением технологии генеративного ИИ и LLM, а также благодаря простому доступу к предварительно обученным моделям в формате подписки (например, ChatGPT, GigaChat и YandexGPT), сформировались основные категории прикладных архитектур:

?приложения с предиктивной ML-моделью;

?приложения, ориентированные на промпты;

?автономные AI-агенты;

?LLM-плагины и расширения;

?комплексные AI-приложения (здесь LLM играет ключевую роль в рамках более широкой системы или бизнес-сценария).

Классификация ИИ-приложений
Классификация ИИ-приложений

Приложения с предиктивной ML-моделью. Предназначены для анализа исторических данных и предсказания будущих событий с целью оптимизации процессов или принятия решений. В основе приложения лежит предиктивная ML-модель, обученная на большом наборе данных, включающих ключевые характеристики и показатели.

Основные функции:

?Сбор и обработка данных — приложение автоматически собирает входные данные из различных источников, очищает и подготавливает их для анализа.

?Анализ данных и обучение модели — с помощью алгоритмов машинного обучения (например, регрессия, случайный лес, градиентный бустинг, нейросети) строится модель, выявляющая закономерности и зависимости.

?Прогнозирование — на основе новых входных данных модель предсказывает исходы или значения, например, спрос на продукт, вероятность отказа оборудования или поведение клиентов.

?Визуализация результатов — выводит результаты прогнозов в виде графиков, отчетов или интерактивных панелей для удобства восприятия.

?Автоматическое обновление модели — по мере поступления новых данных модель периодически переобучается для повышения точности прогнозов.

Примеры промышленного применения:

▪️Розничная торговля: для предсказания спроса и управления запасами.

▪️Здравоохранение: для прогнозирования риска развития заболеваний.

▪️Промышленность: для предиктивного обслуживания оборудования, снижая время простоя.

▪️Финансовый сектор: для оценки кредитного риска клиентов.

Таким образом, приложение с предиктивной ML-моделью помогает принимать более обоснованные и своевременные решения, уменьшая риски и повышая эффективность бизнеса.

Приложения на основе статических промптов. Используют заранее заданные команды на естественном языке для управления поведением большой языковой модели с целью получения нужного результата. Такой подход позволяет оптимизировать взаимодействие между пользователем и моделью путем точной настройки формулировок, контекста и инструкций, передаваемых LLM. Эти приложения позволяют пользователям выполнять широкий спектр задач, просто уточняя способ формулировки запросов или инструкций.

Ключевые характеристики:

?Прямое взаимодейст��ие с моделью

?Возможность быстрого прототипирования

?Относительная простота и доступность

Примеры промышленного применения:

▪️Генерация контента

▪️Вопросно-ответные системы

▪️Инструменты перевода языка

Приложения-агенты. Используют большие языковые модели для автономного или полуавтономного выполнения задач, принятия решений и взаимодействия с пользователями или другими системами. Такие агенты действуют от имени пользователя, управляя сложными процессами, которые часто включают в себя несколько этапов, интеграции с другими системами и принятие решений в режиме реального времени. Они работают с определённой степенью автономии, что позволяет им выполнять задачи без постоянного вмешательства человека.

Ключевые характеристики:

?Автономное принятие решений

?Взаимодействие с внешними системами

?Автоматизация сложных рабочих процессов

Примеры промышленного применения:

▪️Чат-боты для поддержки клиентов

▪️Анализ данных и отчетность

▪️Автоматизация процессов

LLM-плагины и расширения. Интегрируют большие языковые модели в существующие приложения или платформы, позволяя им предоставлять пользователю новую функциональность. Плагины обычно служат мостом между LLM и приложением, обеспечивая бесшовную интеграцию, например, добавляя языковую модель в текстовый редактор для проверки грамматики или интегрируясь с системами управления маркетинговыми кампаниями для автоматических ответов на электронные письма.

Иногда бывает сложно провести четкую грань между агентами и плагинами / расширениями, которые часто являются компонентами больших приложений. Одним из критериев является способ их развертывания. Например, плагин — это заранее созданный агент, предназначенный для повторного использования, который вы вызываете явно через API или как часть плагина или фреймворка расширений LLM, в отличие от пользовательского кода, работающего периодически в фоновом режиме.

Ключевые характеристики:

?Фокус на решении специфических задач

?Реализация интеграции между LLM и пользовательским приложением

?Решение задачи расширения функциональности LLM

Примеры промышленного применения:

▪️Инструменты создания контента

▪️Резюмирование текста

Комплексные приложения. Это продвинутые программные системы, в которых большие языковые модели играют центральную роль, обеспечивая расширенные возможности и решения. Эти приложения отличаются широким охватом, высокой масштабируемостью и глубокой интеграцией с множеством технологий и компонентов. Как правило, они создаются для решения комплексных задач — зачастую в корпоративной среде — и требуют значительных усилий по разработке, инженерной поддержке и постоянному обслуживанию. Такие приложения часто предназначены для обработки запросов, поступающих от не-человеческих систем. Обычно они включают в себя координацию между различными компонентами, — например, API, базами данных, системами мониторинга или IoT-устройствами, — которые генерируют входные данные для обработки LLM, интерпретации и выполнения действий.

Ключевые характеристики:

?Многокомпонентная архитектура

?Множественные интеграции

?Расширенные функции, масштабируемость

Примеры промышленного применения:

▪️Автоматизированная финансовая отчетность

▪️Анализ юридических документов

▪️Системы медицинской диагностики

Классификация модальностей LLM

Скажем несколько слов про классификацию модальностей в контексте LLM. Это способ группировки по типу входных и выходных данных, с которыми модель работает.

Ниже приведена структурированная классификация модальностей LLM:

?Текстовая модальность

?Аудио

?Изображения и видео

?Структурированные данные

?Кодовая модальность

?Сенсорные/IoT модальности

?Мультимодальность (текст + изображение, текст + аудио и так далее).

Изначально LLM работали в единственной модальности — текстовой. С 2025 года активно используются распознавание и генерация аудио, снимков, видео в различных комбинациях. Поддерживаются структурированные данные, такие как таблицы, графы, SQL-запросы; проводятся активные эксперименты по автоматической или полуавтоматической генерации кода программ, поиску ошибок и предоставлению подсказок программистам. В сенсорной модальности обрабатываются сигналы от физических устройств (датчики, камеры, сенсоры) для генерации текстовых или мультимодальных ответов.

Типы моделей машинного обучения и паттернов использования

Существует несколько типов, паттернов использования и развертывания моделей машинного обучения:

?Предиктивные модели машинного обучения (ML). Это традиционные модели для структурированных данных, обучаемые на пользовательских табличных данных. Обычно это модели на Python, упакованные в формате MLflow.

?Внешние фундаментальные модели. Размещены в публичном облаке, доступны в формате сторонних сервисов: GPT от OpenAI, YandexGPT, GigaChat и другие.

?Базовые большие языковые модели. Отобранные архитектуры фундаментальных моделей, развернутые внутри организации или в частном облаке, например, Meta Llama, GTE-Large и Mixtral.

Основные паттерны использования LLM в порядке повышения сложности:

  • Взаимодействие с LLM через промпт-инжиниринг. Это практика настройки текстовых подсказок, передаваемых LLM, с целью получения более точных или релевантных ответов. Не каждая модель будет давать одинаково качественные результаты, так как промпт-инжиниринг зависит от конкретной модели.

  • Генерация через дополненный контекст (Retrieval Augmented Generation, RAG). Это архитектурный подход, который может повысить эффективность приложений с большими языковыми моделями (LLM) за счет использования пользовательских данных. Достигается путем извлечения релевантных данных или документов, соответствующих вопросу или задаче, и предоставления их в качестве контекста для LLM. RAG показал успех в чат-ботах поддержки и системах вопросов и ответов, которым необходимо иметь актуальную информацию или доступ к специфичным для области знаниям.

  • Дообучение (fine-tuning) LLM. Это процесс адаптации предварительно обученной большой языковой модели (LLM) на относительно небольшом наборе данных, специфичных для определенной области или задачи. В ходе дообучения модель продолжает обучение в течение короткого времени, возможно, с корректировкой относительно меньшего числа весов по сравнению с всей моделью.

  • Кастомизация и предварительное обучение (Pre-Training) LLM. Предварительное обучение LLM с нуля означает процесс обучения языковой модели на большом объеме данных (например, текстах, коде) без использования каких-либо предварительных знаний или весов от уже существующей модели. Это отличается от дообучения, при котором уже предварительно обученная модель дополнительно адаптируется к конкретной задаче или набору данных. Результатом полного предварительного обучения является базовая модель, которую можно использовать напрямую или далее дообучать для выполнения конкретных задач. Предварительное обучение обычно является самой крупной и самой дорогой задачей в обучении моделей и не является типичной практикой для большинства организаций.

Итоги первой части

Мы разобрали уровни зрелости ИИ, ключевые аспекты ИИ-трансформации, классификацию приложений и модальностей LLM, а также типы моделей машинного обучения и паттерны их использования. Понимание этих элементов помогает оценивать возможности этих технологий, выбирать подходящие архитектуры и управлять рисками внедрения ИИ.

Совсем скоро, во второй части, поговорим о том, как строить безопасные и эффективные ИИ-приложения на практике: от эволюции инженерных практик и DevOps/ MLOps до LLMDevOps и LLMSecOps, а также о циклe разработки следующего поколения (Next‑Gen SDLC), управлении рисками и защите систем AI‑Native.

Комментарии (1)


  1. NeriaLab
    02.10.2025 08:53

    Про LLM написано много, а где про ИИ?