Мы постоянно слышим хайповые заявления: «ИИ нас всех заменит», «экспертиза больше не является ограничением», «мы уже знаем как создать AGI» итп. Под влиянием медиа и общественных ожиданий многие воспринимают потенциальные или прогнозируемые технологии как уже существующие.
В этой статье мы разберём, какие задачи искусственный интеллект реально решает уже сегодня, и как их можно разделить на категории: Инженер, Аналитик, Рассказчик и Ассистент. Мы также рассмотрим текущее распределение задач между этими категориями и спрогнозируем, какие изменения произойдут в ближайшие годы.
Далее мы погрузимся в технологии, лежащие в основе ИИ, и разберём их зрелость с помощью Wardley Map — как для классического машинного обучения, так и для генеративных моделей. Особое внимание уделим Retrieval‑Augmented Generation (RAG), одной из наиболее применимых в бизнесе технологий.
Наконец, мы ответим на два практических вопроса: как понять, что бизнесу пора внедрять ИИ, и как выбрать подходящий метод машинного обучения для конкретных задач.
Типичный запрос бизнеса
Кликбейтные заголовки в СМИ сформировали распространённый бизнес‑запрос: «Мы хотим поэкспериментировать с ИИ, у нас есть бюджет X. Если мы обучим ИИ на всех наших данных, что он сможет делать?»
В ответ звучат голоса техноскептиков: «ИИ — это просто модный хайп. Ничего не изменилось. Через год про него забудут так же, как про блокчейн. Следить за трендами бессмысленно».
Первая постановка вопроса кажется мне безосновательно оптимистичной, а вторая — безосновательно скептической. Поэтому важно взглянуть на тему системно: что именно доступно вот уже в этом году, сегодня, прямо сейчас. Какие задачи нормально решают машины, с каким качеством и с какими вложениями. И куда сдвинется вектор на небольшом горизонте будущего в пару лет.
В этой статье мы разберём ландшафт ИИ с прикладной точки зрения, чтобы понять, что действительно работает уже сейчас, а что пока просто красиво звучит.
Сейчас, а не потом: что ИИ реально решает уже сегодня?
Хотя хайп вокруг ИИ — относительно недавнее явление, машинное обучение используется для решения прикладных задач уже давно.
![Таймлайн развития технологий машинного обучения Таймлайн развития технологий машинного обучения](https://habrastorage.org/getpro/habr/upload_files/d24/a71/631/d24a71631077c456b96a6e02ce18b584.png)
До появления трансформерных моделей методы машинного обучения были ограничены задачами анализа и классификации. Эти модели решали задачи вроде «распознай объект» или «предскажи следующую покупку», что имело прикладное, но относительно предсказуемое применение.
Ключевой прорыв произошёл с появлением трансформеров, таких как BERT, GPT и их аналоги. Именно трансформерная архитектура позволила сделать переход от анализа к генерации.
Генерация позволяет моделям не только анализировать или классифицировать существующие данные, но и создавать новые. Эта способность расширила применимость технологий машинного обучения для бизнеса: возможности для автоматизации нашлись в финансах, маркетинге, дизайне, продажах — словом, практически в каждом отделе современной компании.
Однако, несмотря на их мощь, генеративные модели остаются статистическими системами. Они по построению основаны не на логике, а на вероятностных закономерностях в данных. Это накладывает важные ограничения:
они могут оперировать только в рамках «общедоступных знаний», на которых учились;
у них нет отраслевой экспертизы: они не знают правил и методик, не умеют интерпретировать строго формализованные системы знаний.
Если мы хотим, чтобы модель действительно разбиралась в узкой сфере, экспертизу придется закладывать вручную.
Таким образом, если разложить современные задачи ИИ по двум ключевым осям — «Анализ vs. Генерация» и «Общедоступные vs. Узкоспециализированные знания», — можно выделить четыре больших категории применений. Эти категории можно условно назвать так: Инженер, Аналитик, Рассказчик и Ассистент.
![Инженер, Аналитик, Рассказчик и Ассистент Wardley Map - Frame 1 (1).jpg](https://habrastorage.org/getpro/habr/upload_files/fa5/25a/e69/fa525ae69df7958c4063bc9e4a4f49a1.jpeg)
Инженер
В этом блоке — задачи, которые требуют участия человека‑эксперта для подготовки данных: в первую очередь это задачи компьютерного зрения и классификации.
Системы компьютерного зрения могут, например, выявлять дефекты на производственных линиях, анализировать качество выкладки товаров в магазине или определять объекты на видео.
Однако для того, чтобы такие модели работали эффективно, требуется большое количество размеченных данных. Человеческие эксперты вручную создают датасеты, например, классифицируют дефекты на фотографиях грузов или маркируют товары в магазине. Чем больше и точнее эти данные, тем лучше работает модель.
Примеры:
Аналитик
В этом блоке — задачи, которые опираются на классические ML‑алгоритмы и массовые статистические данные.
Пример — рекомендательные системы или прогнозирование временных рядов (предсказание продаж, изменения спроса или динамики трафика).
Такие системы не требуют участия эксперта, но они зависят от обратной связи: важно постоянно переобучать модель на новых данных.
Примеры:
Рассказчик
Генеративные модели, такие как ChatGPT, породили новый класс задач, где ИИ не просто анализирует информацию, а создаёт новый контент. Однако, как мы обсуждали ранее, этот процесс основан не на логике или экспертизе, а на статистических закономерностях в данных.
В результате они хорошо справляются с такими задачами, как перевод, суммаризация и генерация текстов, но их результат может значительно отличаться от запуска к запуску. Более того, модели склонны к галлюцинациям — они могут придумывать несуществующие события или факты.
Работа с такими системами требует понимания их ограничений. Человек здесь нужен скорее для написания промптов — запросов, которые направляют генерацию в нужное русло. Однако в промпт можно заложить только простые знания, а глубокая отраслевая экспертиза остаётся недоступной.
Ассистент
AI‑ассистенты, сочетают генеративные технологии с узкоспециализированными знаниями. Они не просто создают текст, а действуют в рамках заложенной экспертом логики, могут отвечать на экспертные вопросы, планировать действия и взаимодействовать с другими системами.
Создание таких AI‑ассистентов требует активного участия человека‑эксперта. Именно он формирует методологию работы, закладывает знания и задаёт границы, в рамках которых работает ИИ.
Примеры:
Какое распределение задач между "Инженером", "Аналитиком", "Рассказчиком" и "Ассистентом" сейчас и что будет через пару лет?
По моим наблюдениям, которые основаны не на количественном анализе, а скорее на ежедневном общении с заказчиками, распределение задач между квадрантами сейчас такое:
40% — Инженер. Тут задачи компьютерного зрения для роботов, складов, ритейла и промышленности.
30% — Аналитик. Основной пул задач связан с рекомендательными и предсказательными системами для eCommerce, маркетинга и финансов.
20% — Рассказчик. Генеративные модели активно используются для создания текстов, перевода и суммаризации, но в областях, где возможны ошибки, таких как маркетинг и креатив.
10% — Ассистент. Основной спрос сейчас исходит из узкоспециализированных сфер — медицины, юриспруденции, технической поддержки, образования. Здесь критично не просто генерировать текст, но и обеспечивать его достоверность.
Что изменится в ближайшие пару лет?
Рост объёмов данных, технологические прорывы и повышение доверия к генеративным системам приведут к перераспределению задач между этими категориями.
По моим прогнозам:
Доля инженерных задач вероятнее всего немного снизится (с 40% до 30%), так как часть простых задач компьютерного зрения уйдет на мультимодальные LLM и существенно упростится.
Доля аналитических задач вероятнее всего немного сократится (с 30% до 20%) — часть задач поиска и рекомендательных систем уже сейчас переходит на LLM.
Доля генеративных задач (Рассказчик) вероятнее всего вырастет (с 20% до 25%), поскольку качество языковых моделей продолжает улучшаться, а их применение расширяется.
Самый заметный рост (с 10% до примерно 25%) видится в категории AI‑ассистентов, и на это есть две ключевые причины. Во‑первых, AI‑ассистенты начинают перетягивать на себя часть простых задач из других категорий. Во‑вторых, AI‑ассистенты становятся центральной точкой управления, обеспечивая взаимодействие с другими моделями — например, запрашивая данные из рекомендательных систем или обращаясь к базе знаний для уточнения информации.
На каких технологиях работает ИИ?
В любой предметной области, которая быстро развивается, есть технологии разного уровня зрелости: что‑то находится в стадии экспериментов и proof of concept, какие‑то уже используются в первых кастомных внедрениях, а какие‑то успели превратиться в массовые коробочные продукты или даже стали настолько привычными, что воспринимаются как электричество.
Чем технология новее, тем она более «сырая», тем больше денег будет потрачено на внедрение и тем выше бизнес‑риски. Но при этом, в случае успеха внедрения, можно получить конкурентное преимущество.
Однако с ростом зрелости технологии то, на что мы сегодня потратили много денег, через год станет доступно нашим конкурентам гораздо дешевле. То есть, даже если удалось успешно внедрить передовую технологию, полученным конкурентным преимуществом еще надо успеть воспользоваться.
С другой стороны, если на рынке доступна технология высокой зрелости, то не осознавать ее наличие и не использовать — это отставать от конкурентов, платить в разы больше там, где конкурент работает дешевле и эффективнее. Примерно как не использовать интернет или электричество.
![Как получить технологическое конкурентное преимущество Wardley Map - Frame 2.jpg](https://habrastorage.org/getpro/habr/upload_files/8bf/f3e/60b/8bff3e60b154da92107521f1eb3c425a.jpeg)
Итак, посмотрим, в какой зрелости находятся основные технологии машинного обучения: как «классического», так и «генеративного». Для системности давайте использовать Wardley Map — схему, в которой по горизонтали отмечена зрелость технологий, а по вертикали — видимость этих технологий для бизнеса.
Инфраструктурные технологии отмечены ромбом. Они ключевые для развития важных для бизнеса прикладных технологий (отмечены кружком), но для бизнеса практически не видны, поэтому находятся на карте внизу.
Wardley map для "классического ML"
![Wardley Map для классического ML Wardley Map для классического ML](https://habrastorage.org/getpro/habr/upload_files/d44/597/2ec/d445972ec454cffd0df91c66acddd5bb.jpeg)
Рассмотрим все компоненты.
Ситуация в целом: вопреки ожиданиям, ML‑модели НЕ становятся лучше со временем
Существует распространенное ожидание, что ML‑модели можно просто запустить, и они будут автоматически обучаться на поступающих данных, становясь со временем всё лучше.
В реальности переобучение ML‑моделей на новых данных — это ручной и трудоемкий процесс. Умение ML‑систем обучаться без вмешательства — это пока больше исследовательская область, чем практическая реальность. К тому же результат не всегда улучшается при добавлении данных — качество данных и их разметка играют ключевую роль.
Но исходя из этого ожидания, основной прогресс в «классическом ML» сейчас идет в развитии инструментирования: чтобы можно было проще размечать данные, проще обучать ML‑модели и проще объяснять ML‑моделям, что тебе от них нужно (например, показать CV‑алгоритму несколько примеров того, как выглядит повреждение на коробке — и вот он уже все понял).
Технологии в области автономного самообучения ML‑моделей только начинают развиваться, а пока дообучение ML‑моделей требует ручного подхода и сложных технических решений.
Компьютерное зрение и видеоаналитика: модели не понимают контекста сцены
Технологии компьютерного зрения отлично работают для распознавания чего угодно со статичной картинки. Качество алгоритмов детекции сейчас такое крутое, что некоторые применения меня восхищают (например, распознавание Лего‑деталей, распознавание дефектов упаковки на складе).
![Любой объект, который видит и замечает человек, может быть замечен камерой и распознан машиной Любой объект, который видит и замечает человек, может быть замечен камерой и распознан машиной](https://habrastorage.org/getpro/habr/upload_files/371/2a6/cec/3712a6cec03771ef75253e2443408ff4.png)
Чего не умеют сейчас делать алгоритмы компьютерного зрения: они плохо понимают контекст сцены целиком; им пока тяжело работать с динамичными сценами, где много движущихся объектов; им тяжело, когда привычная среда меняется (например, если на складе перекрасили пол в другой цвет, придется дообучать CV‑модели).
Системы видеоаналитики страдают от тех же ограничений компьютерного зрения. Плюс для робототехники и дронов распознавание видеопотока должно работать в реальном времени на конечном устройстве (например, прямо на встроеннном в робота не очень мощном вычислительном устройстве), а не в облаке с супер‑крутыми видеокартами.
Но кажется, что решение этих проблем — вопрос обозримого времени в ближайшем будущем (без всякого технооптимизма).
Предсказательные модели: плохо предсказывают
Как говорила профессор МакГонгал: «Прорицание — это крайне неточная область магии».
На прогнозировании временных рядов (Time Series Forecasting) основаны многие предсказания: спроса, цен, трафика, запасов, погодных условий, курсов валют и других параметров, меняющихся во времени.
Подход зрелый и уже давно используется в бизнесе, но имеет две фундаментальные проблемы:
не все данные, которые мы хотим прогнозировать, являются временными рядами. Многие бизнес‑процессы зависят не только от времени, но и от сложных нелинейных взаимодействий.
в имеющихся данных может не быть достаточно сигнала для предсказаний.
Если в компьютерном зрении проблему качества можно решить, докинув данные в обучающую выборку (разметив больше данных), то в предсказании временных рядов приходится работать с теми данными, которые есть. Если качество предсказаний плохое, то по сути можно либо попробовать сгенерировать производные фичи (например, «а ВДРУГ это предсказание зависит от погоды, давайте добавим еще погоду»), либо перебирать архитектуры моделей. И если качество предсказаний всё равно остается плохим — с этим особо ничего не поделаешь.
Тем не менее, доступность предсказательных моделей растёт: растёт доступность предобученных моделей и облачных решений, развиваются AutoML‑решения, автоматизирующие настройку моделей. Но фундаментальная проблема остается: если в данных нет сигнала, то предсказание будет плохим.
NLP (Natural Language Processing): демонстрируют выдающиеся результаты благодаря большим языковым моделям
В целом NLP (Natural Language Processing) — зрелая технология в стадии Commodity для большинства бизнес‑применений, но разные задачи внутри NLP имеют разный уровень зрелости.
STT/TTS (Speech‑to‑Text / Text‑to‑Speech): распознавание голоса и транскрибация голоса в текст отлично работает для популярных языков (английский, китайский, испанский), но слабее для редких языков и диалектов. Всё упирается в в ограничения вычислений: real‑time STT/TTS требует мощного железа. Также голоса пока звучат роботизированно, и есть проблемы с ударениями.
OCR (Optical Character Recognition, распознавание текста с изображений): отлично работает на печатном тексте, хуже — на рукописном. Структурированный текст (таблицы, формы) распознаются пока плохо — теряется структура из‑за того, что модели не понимают контекст страницы (возможно, станет лучше с появлением AI‑based OCR).
Классификация и кластеризация текста: хорошо работает в узких областях (например, понимание «спам» / «не спам»). Но нужна база с примерами для обучения. Также полностью автоматическая классификация без ошибок пока невозможна. Качество также становится гораздо лучше с использованием LLM.
Named Entity Recognition (NER) и извлечение фактов: хорошо работает для простых сущностей (имена, даты, компании) и хуже — для сложных структур (юридические или медицинские тексты). Большие языковые модели (LLM) улучшают NER, но требует дообучения на узких доменах.
Sentiment Analysis (анализ тональности текста) — отлично работает. С появлением LLM зачастую стал понимать тональность лучше людей.
Детекция аномалий
Применяется для поиска аномалий для временных рядов (например, в трафике на сайт), для транзакционных данных (например, анализ фрода или аномалии в бухгалтерской отчетности) и для изображений и видео (анализ дефектов или детекция движения). Это зрелая технология, хотя детекция аномалий в режиме реального времени по‑прежнему остается сложной задачей.
Рекомендательные системы: от виджетов на сайте к диалоговым рекомендациям
Классические рекомендательные системы (коллаборативная фильтрация, content‑based filtering) работают хорошо, но имеют ограниченный эффект в сценариях, где много новых пользователей или холодный старт. LLM начинают дополнять или даже заменять традиционные рекомендательные системы, особенно в e‑commerce — появляются диалоговые рекомендации в чатах.
Применение в бизнесе
Из этих кирпичиков и собираются бизнес‑применения, например:
антифрод‑системы (детекция аномалий + предсказание временных рядов + классификация + кластеризация),
модерация контента (компьютерное зрение + детекция аномалий + stt + классификация + кластеризация),
предсказание отказа оборудования (предсказание временных рядов + детекция аномалий),
оптимизация логистики (предсказание спроса + запасов + цены),
оптимизация рекламы и маркетинга (рекомендации + предсказание временных рядов + кластеризация).
В целом, анализируя бизнес‑задачу оказывается полезно рассуждать не в общих терминах (типа «ИИ думает»), а в терминах конкретных функциональных «кирпичиков».
Wardley map для "генеративного ML"
Карта технологий в генеративном машинном обучении выглядит гораздо более динамичной. Это связано с тем, что развитие этой ветки во многом обусловлено стремительным переходом LLM (больших языковых моделей) из стадии Genesis в Commodity. Сейчас именно эти технологии формируют основную часть бизнес‑запросов на «внедрение ИИ».
Однако большинство технологий на этой карте все еще находятся на стадии Genesis.
Многоагентные системы: движущая сила хайпа
Многоагентные системы (например, AutoGPT, BabyAGI) — это технология, которая пытается научить модели планировать, принимать решения о следующем шаге и управлять другими агентами. Именно вокруг этой темы разгоняется массовый нарратив «ИИ скоро заменит всех», но текущая реальность значительно скромнее.
Агенты пока слишком шумные, дорогие и ненадёжные. Пока что эти технологии имеют узкое применение и требуют высокой инженерной подготовки. Ими активно занимаются компании с сильными ML‑командами, но до широкого применения в не‑IT бизнесе пока далеко.
Однако с развитием технологий многоагентные системы постепенно возьмут на себя управление логикой диалога, которую сейчас надежнее обеспечивают Task‑oriented решения вроде RASA и Dialogflow. Со временем классические диалоговые системы утратят свою ключевую роль, уступая место более гибким и адаптивным агентам.
Будущее RPA: эволюция в сторону AI‑ассистентов
RPA‑системы (Robotic Process Automation) вроде UiPath широко применяются для автоматизации рутинных бизнес‑процессов, таких как обработка документов, работа с интерфейсами без API и выполнение повторяющихся задач.
Однако развитие AI‑ассистентов постепенно меняет этот ландшафт. В ближайшие годы можно ожидать, что часть задач RPA‑систем перейдет к AI‑ассистентам.
При этом традиционные RPA‑инструменты вряд ли исчезнут полностью, но их роль изменится. Они останутся полезными там, где требуется чёткое соответствие регламентам и высокая предсказуемость работы. А вот в задачах, где важна гибкость и адаптация, преимущество получат AI‑ассистенты.
Мультимодальный AI: зрелая технология с растущей востребованностью
Мультимодальные модели объединяют анализ изображений, текста, аудио и видео.
Уже сегодня это достаточно зрелая технология.
Ключевое преимущество: модели могут комбинировать разные типы данных, что открывает новые сценарии применения — например, анализ изображений с учетом текстового контекста.
Технология уже в активном использовании, и ее зрелость продолжит расти.
AI‑оркестраторы
AI‑оркестратор — это инструмент для построения визуальных рабочих процессов для управления цепочками запросов в LLM. Примеры таких сервисов — это, например, Langflow или n8n. Они используются, когда задача не может быть решена одним промптом, а требуется цепочка из нескольких: например, в первом промпте определить тематику сообщения, а во втором — обрабатывать сообщение своим способом в зависимости от тематики.
По мере роста применения LLM в бизнесе, такие инструменты станут важнее, особенно для команд, которые хотят ускорить разработку решений на базе LLM.
RAG — самая зрелая технология на карте
Самой зрелой и видимой технологией на этой карте является RAG — и давайте посмотрим почему это так важно.
RAG (Retrieval-Augmented Generation) как наиболее применимая в бизнесе технология, прямо сейчас
Самая зрелая и полезная бизнесу технология на этой карте — это RAG (Retrieval‑Augmented Generation).
Хотя у всех есть прикладной опыт взаимодействия с LLM, многие заметили, что LLM дают плохие ответы по темам, которые не являются общим знанием.
Эту проблему адресует использование RAG (Retrieval‑Augmented Generation) — такого способа проектирования AI‑ассистента, при котором он берет всю информацию не из общедоступных знаний, а из своей базы.
Где применяется подход:
Корпоративные AI‑ассистенты (если ассистент отвечают на вопросы по внутренней базе знаний, а не по общим знаниям).
AI‑поддержка клиентов и техподдержка (если извлекают информацию из базы знаний, а не просто используют жесткие сценарии).
Автоматизация работы с документами и отчетностью (если ассистент использует внешнюю базу данных для суммаризации или поиска информации перед генерацией ответа).
Такой ассистент сначала находит подходящие данные по запросу пользователя, примерно как поисковая система. А затем на основе найденных данных (документов, ответов API итп) генерирует ответ, ссылаясь на конкретные места в данных.
У такого подхода два преимущества:
он позволяет справиться с одной из самых больших проблем языковых моделей — галлюцинациями (когда модели выдумывают несуществующие факты);
такой подход позволяет заложить логику рассуждений при ответе на вопрос: например, при обращении в техподдержку посмотреть, какое у пользователя оборудование и какие услуги подключены и в зависимости от этого предположить причину проблемы.
RAG‑ассистенты отличаются от обычного поиска двумя возможностями.
Персонализация — когда AI‑ассистент собирает данные для ответа на вопрос, он может поискать по базе, сделать запрос в CRM с аккаунтом пользователя (и получить, например, данные о подключенном оборудовании и услугах), сделать запрос в аналитику с аккаунтом пользователя (и получить, например, историю обращений за последний месяц) итп. Все эти данные могут быть учтены при построении ответа.
Умение рассуждать — когда AI‑ассистент готовит ответ, он может проанализировать тематику запроса пользователя и порассуждать про возможные решения: либо применить то дерево решений, которое ему заложили, либо применить встроенные супер‑способности языковых моделей для общеизвестных доменов (типа общих знаний по продажам).
Основная «фишка» RAG‑асисистента — это его данные. Технологически при этом проекты не сложные.
Про RAG‑ассситентов мы рассуждали в предыдущей статье и в выступлении на Knowledge Conf (видео).
Как понять, что пора внедрять ИИ
Самая плохая причина для внедрения ИИ — это реакция «все побежали, и я побежал», которую мы сейчас часто наблюдаем. Все эти истории, когда мы сами до конца не понимаем своих бизнес‑процессов и что именно хотим сделать, но планируем закинуть в ИИ «все данные», и оно с ними «само разберется» — приводят к фрустрации и трате бюджета.
Не надо так:
![Сложные отношения с большой кучей данных Сложные отношения с большой кучей данных](https://habrastorage.org/getpro/habr/upload_files/2f4/2ce/0fc/2f42ce0fc87c998f1d9dfae7decc792e.jpeg)
На мой взгляд самый четкий сигнал, что пора смотреть в сторону ML/AI‑автоматизации — это ощущение:
«Самая наша большая проблема — это неэффективность»
«Мы на эту задачу тратим слишком много времени»
«Мы тратим очень много времени/денег/нервов из‑за ошибок»
Это означает, что у нас есть (относительно) понятный бизнес‑процесс и хотя бы интуитивное ощущение узких мест в этом процессе, которые можно расшить за счет автоматизации. Это уже хорошее начало для разговора.
Хорошая эмпирика, когда принимается решение про автоматизацию — это представить, что на место ML‑алгоритма мы наняли стажера. Очень хорошего, старательного, который работает 24/7, не отвлекается и не делает глупых ошибок. Но ему, как и любому стажеру, нужно объяснить, в чем именно заключается его задача, что на вход, что на выход, по каким правилам из входного документа можно получить выходной итп.
Если задача понятна настолько, что с ней может справиться очень умный, старательный и трудолюбивый стажер, значит она автоматизируется с помощью комбинации AI/ML‑методов.
Как понять, какой метод машинного обучения / ИИ использовать для решения задачи
Даже если в бизнесе правильно увидели процесс, который можно автоматизировать, ИИ‑хайп зачастую сбивает прицел по методу решения задачи — выбираются не те инструменты.
Частая ошибка — попытка заменить традиционные инструменты на LLM без причин. Например:
Использование GPT/LLM для предсказания временных рядов вместо специализированных алгоритмов. LLM не умеет анализировать временные ряды и не использует исторические данные так, как это делают LSTM, Prophet или градиентные бустинг‑модели. Они просто запоминают статистику из обучающего набора, но не строят настоящие прогнозные модели. Правильный инструмент: Специализированные ML‑алгоритмы для временных рядов (LSTM, XGBoost, Prophet).
Доверять ответам GPT или LLM по узким темам, вместо использования RAG (Retrieval‑Augmented Generation) или обычного поиска по индексу. LLM не ищет в базе знаний — он просто генерирует ответ на основе своего тренировочного набора. В отличие от поиска, LLM может галлюцинировать и выдавать уверенно звучащий, но ложный ответ. Правильный инструмент: Для фактического поиска — RAG (Retrieval‑Augmented Generation), Elasticsearch, векторные базы (Weaviate, Pinecone). Для генерации ответов на основе найденного — LLM + RAG.
Использование генеративных моделей для структурированного анализа данных Использовать GPT/LLM для анализа финансовых отчетов или складских запасов — плохая идея. LLM не выполняет точные числовые расчеты, а лишь пытается «угадать» ответ на основе статистики из своих тренировочных данных. Правильный инструмент: BI‑системы (Power BI, Tableau), SQL, Pandas, специализированные ML‑модели для анализа данных.
А что насчёт DeepSeek (или другой новой технологии)? Это же прорыв, который меняет всё?
Любая новая технология кажется революционной, но оценить её реальное влияние можно системно. Один из способов — использовать Wardley Maps, о которых мы говорили в этой статье.
Если мы загрузим в GPT-4 эти карты и попросим проанализировать появление новой технологии (например, DeepSeek), то модель сможет:
Найти информацию о ней,
Проанализировать ее отличие от текущих технологий,
Оценить, куда сдвигается рынок и какие изменения действительно значимы.
Таким образом, вместо эмоциональных реакций «это меняет всё!», можно получить рациональный анализ, который покажет, действительно ли новая разработка представляет собой технологический скачок или просто маркетинговый шум.
![Как с помощью GPT и Wardley Maps можно анализировать рынок Wardley Map - Frame 3.jpg](https://habrastorage.org/getpro/habr/upload_files/1ee/d83/1ec/1eed831eceefaaf6e7bab696eed1fd18.jpeg)
А если возникает вопрос, можно ли решить бизнес‑задачу с помощью ML/ИИ, — всегда можно спросить у GPT. Ну, хотя бы для первичного фильтра:‑)