Всем привет!

Меня зовут Александр Костюков, я занимаюсь стратегическим развитием ИИ-аналитика EasyReport. Сегодня хочу поделиться с вами своими размышлениями о том, как анализ “что если” превращается из экселевской игрушки в реальный управленческий инструмент, который теперь можно автоматизировать.

«Что если» и с чем его едят

Выравниваем инфо-поле:

What-if анализ — это метод оценки последствий изменения входных параметров какой-то рассчитываемой модели, например:

  • «Что произойдет с себестоимостью единицы продукции и маржой, если тариф на э/э вырастет на 3%?»

  • «Что если индексировать зарплаты на 8% в следующем квартале? Как изменятся средневзвешенная стоимость капитала (WACC) и свободный денежный поток (FCF)?»

  • «Что если среднее время доставки увеличится на 2 дня? Как изменится уровень запасов и оборачиваемость?»

Если кратко — это способ не просто констатировать факт, а заглянуть на шаг вперёд, смоделировав альтернативные сценарии и понять, какие из них приведут анализируемые метрики к целевым показателям, а какие — к кассовым разрывам и другим последствиям.

Польза очевидна: при хорошем сценарном моделировании можно заранее подготовить план действий, выделить ресурсы, оценить риски и улучшить качество принятия решений (а не действовать навскидку). 

В условиях сильнейшей волатильности и неопределенности 2025 года, what-if анализ становится не прикольной опцией, а базовым инструментов для принятия взвешенных решений в бизнесе.

Вчера, сегодня, завтра

Как было

Этот тип анализа появился ещё в 1960–1970-х как часть классических систем поддержки принятия решений (СППР, Decision Support Systems, они же DSS), когда профессора MIT и Carnegie Mellon начали применять математические модели для бизнес-планирования.

В те времена всё считалось вручную или в ранних электронных таблицах — Lotus 1-2-3, затем Microsoft Excel (в котором до сих пор миллионы людей двигают цифры в ячейках, строят неподъемные сводные таблицы и верят, что всё под контролем и максимально достоверно).

Как сейчас

Сегодня этот подход уже переехал в BI-платформы и различные аналитические движки: Power BI, Qlik Sense, Tableau, SAP Analytics Cloud или во что-то отечественное (Visiology, PIX, Insight и т.д.) — можно взять почти любую аналитическую платформу, и каждая из них в том или ином виде умеет использовать переменные значения с внешней регуляцией в расчетных формулах и последующим изменением на панелях.

Отдельно стоит отметить большой пласт систем интегрированного бизнес-планирования (Форсайт, Optimacros, KS), где подобные подходы решаются комплексно и являются неотъемлемой частью бизнес-процессов, а what-if в них – лишь один из инструментов.

Будущее

В будущем what-if станет основой прескриптивной аналитики — то есть систем, которые не просто моделируют, но и сами предлагают оптимальные действия, т.е. аналитика переходит от “давай подсчитаем что, если...” к “система предлагает и реализует, если...” 

В этом контексте выглядят интересным прогнозы космических кораблей от Gartner’а:

“By 2027, 50% of business decisions will be augmented or automated by AI agents for decision intelligence.” (gartner.com)

“By 2027, 75% of new analytics content will be contextualised for intelligent applications through generative AI.” (IT Brief Asia).

Ограничения и влияние на бизнес

Сейчас what-if анализ в большинстве компаний — это огромный ручной труд и Excel-зоопарк.

Внедряя EasyReport мы столкнулись с тем, что даже в крупных холдингах со зрелой BI-инфраструктурой по-прежнему 70–80 % сценариев моделируются вручную: выгрузки, сводные таблицы, корректировки “на коленке”.

И так не только в России. По данным McKinsey, аналитики тратят до 45 % времени на подготовку данных и верификацию моделей, а не на сам анализ. Как результат –  деньги и время расходуются иррационально.

Ключевые проблемы “ручного” анализа:

  • сложности масштабирования моделей;

  • ошибки в данных → неверные сценарии;

  • отсутствие единой методологии → результаты не согласованы;

  • снижение доверия к аналитике → решения принимаются интуитивно.

Также не стоит забывать, что если сценарий построен вручную, то его построение занимать дни и недели, а реальное положение дел часто меняется за часы, особенно в динамичных отраслях, типа ритейла.

В итоге what-if существует “для галочки”, и инструмент не успевает принести реальную пользу.

Как обычно обходят ограничения

Чтобы ускорить процесс, многие компании идут по пути “ручной автоматизации”:

  • используют макросы и VBA-скрипты в Excel;

  • подключают Google Sheets или аналогичные облачные таблицы для “совместной работы”;

  • создают Python-сценарии в Jupyter, которые выводят миллион сценариев по сценарному дереву.

Формально это работает. На практике — появляется хаос из множества версий, разрыв данных и «теневая аналитика».

Например, отдел A сделал версию “scenario_v5_final.xlsx”, отдел B — “scenario_v3_modified.xlsm”, и никто не знает, какая цифра актуальна. Данные берутся “откуда получится” — ни о каком едином источнике правды говорить не приходится.


Именно это сейчас губит большинство корпоративных what-if инициатив — не технологии, а отсутствие культуры работы с данными и сквозной методологии.

В итоге решения принимаются на не полностью достоверных данных и сомнительных сценариях, и это снижает доверие к аналитическим системам.

Технологии и риски 

Здесь наконец я перехожу к самой интересной части: технологиям, которые буквально накачивают what-if анализ стероидами.

LLM 

Сейчас активно распространена иллюзия, что ИИ и GPT-based решения в частности – это серебряная пуля, которая позволяет вместо бесконечных выгрузок, ручного написания формул и настройки сложных сценариев просто спросить:

“Покажи, как изменится EBITDA, если закупочная цена вырастет на 3%, а курс валюты — на 5%”.

И всем кажется, что LLM просто интерпретирует запрос, формирует нужный SQL, подставляет параметры и выдаёт результат.

Налицо сплошные бенефиты:

  • сокращение времени моделирования: с часов до минут;

  • доступность: любой бизнес-пользователь может задавать прямые вопросы на естественном языке;

  • уменьшение ошибок: меньше ручной работы -> минимизация человеческого фактора.

LLM-based ассистенты действительно могут стать тем самым “умным посредником” между бизнес-пользователями, сложными расчетными моделями и ворохом информационных систем.

Но это правда ровно до того момента пока ты не начинаешь работать с большими выборками данных, хранилищами, с крупными справочниками на сотни и тысячи позиций, и, самое главное, – пока не начинаешь считать.

Проблематика

Ни для кого не секрет, что решения на чистом LLM часто галлюцинируют, искажают факты, упираются в ограничение контекста, и не умеют адекватно считать.

Высокая вероятность галлюцинаций полностью убивает доверие к любой системе, которая так или иначе работает с цифрами и фактами, потому что риск принятия неверного решения или ощутимой задержки по времени – это потенциальные огромные денежные потери.

Особенно чувствительны любые сценарии моделирования, поскольку принцип “garbage in – garbage out” имеет кумулятивный эффект.

Эту фразу очень хорошо иллюстрирует известный мем, бродящий по сети: 

Изображение выглядит как текст, мультфильм  Содержимое, созданное искусственным интеллектом, может быть неверным.

Варианты решения и нивелирование рисков 

Один из самых верных и адекватных сценариев использования подобных технологий – это применение гибридных архитектурных сценариев при разработке ИИ-ассистента:

  1. Агентные архитектуры (supervisor и тд). Концепция, позволяющая выделить задачи на определенных агентов для достижения максимально точного и релевантного результата.

  2. Классический ML / Python и другие методы для расчетов и обработки как часть пайплайна работы ассистента.

  3. Использование RAG/CAG/KAG архитектурных методов для качественного улучшения работы LLM и отдельных взятых агентов, в т.ч. при работе с базами знаний.

Построение многоуровневых пайплайнов позволяет существенно митигировать риски галлюцинаций, а также расширить функциональные возможности целевых ассистентов и гибкость настроек.

Подобный подход часто встречается в сценариях, где помимо экстракций и генерации ответов может присутствовать несколько встроенных механизмов валидации ответа перед отправкой (https://www.mdpi.com/2073-431X/14/8/332).

Некоторые даже позиционируют эти сложности как фичу и предлагают считать галлюцинации частью системной архитектуры!

Интересные отсылки на концепцию мультиагентных решений и наличие галлюцинаций встречаются в статьях ниже:

  • Multi-agent или rule-based + LLM: исследование “Mitigating LLM Hallucinations Using a Multi-Agent Framework” показало, что гибридная архитектура (LLM + правила) улучшает консистентность ответов на 85,5 %. (MDPI)

  • Governance pipelines: статья “Multi-Layered Framework for LLM Hallucination Mitigation in High-Stakes Applications” предлагает подход с многоуровневыми контролями: структурированные промпты, RAG с проверкой источников, fine-tuning и человеческий контроль. (MDPI)

  • Управление рисками LLM: “Hallucinations in LLMs: Technical challenges, systemic risks and AI governance implications” подчёркивает, что “the modelling architecture … cannot learn all ground truth functions; hallucination is part of the system architecture”. (iapp.org)

Перспективы развития

СППР и prescriptive-аналитика

Однозначно видится движение в сторону систем поддержки принятия решений (СППР / DSS — Decision Support Systems) и далее — к prescriptive аналитике (системы, которые не только моделируют, но и предписывают действия). 

Исследование “Prescriptive analytics systems revised: a systematic literature review…” говорит:

“…prescriptive analytics is an overarching concept … describing a task objective or even a decision-making paradigm nested in a socio-technical system instead of a specific technique or algorithm.” (link.springer.com)

То есть, аналитика активно переходит от привычного “что произойдёт” к пока что пугающему “что нам делать”.

Другие исследования показывают, что DSS/HI-DSS (гибридные интеллектуальные DSS) объединяют возможности человека и машины:

“Design principles for a Hybrid Intelligence decision support system … combine the complementary capabilities of human and machine intelligence.” (arXiv)

Следовательно, в будущем what-if станет не просто моделированием, а интеллектуальным помощником, предлагающим решения и даже частично их реализующим.

Интеграция с LLM и агентами

Как я уже говорил ранее, LLM, агенты, RAG-системы, гибридные архитектуры становятся ядром новых “умных DSS”: сценарии запускаются автоматически, модель генерирует варианты, проверка проходит по правилам и данные передаются системе, которая может давать рекомендации или предлагать корректирующие мероприятия.

Например: агент видит, что закупочная цена выросла на 5%, а курс валюты на 4%, запускает сценарии моделирования, оценивает влияние на прибыль, рекомендует: “заблокировать сбыточный контракт, ускорить закупку сырья, пересмотреть маржу продукта”. 

Сейчас это все кажется космосом и утопией, но подобные механизмы постепенно становятся реальностью.

Есть более приземленные сценарии применения, и в них языковые модели выполняют больше задачу интерпретатора пользовательских запросов с последующим формированием итогового результата работы низлежащих “тулов” и различных расчетных движков.

Влияние на бизнес-циклы

Относительно влияния на бизнес у Gartner’а есть любопытное мнение:

“Scenario simulation combined with AI-driven decision intelligence will reduce strategic planning cycles by up to 50%.” (суммарный эффект) (IT Brief Asia)

То есть компании смогут планировать не раз в год, а постоянно, практически “в реальном времени”.

Пререквизиты и верхнеуровневая архитектура

Если смотреть снизу-вверх, то для реализации подобных решений (и не только!) будут необходимы следующие блоки:

  • Гибридное/облачное хранилище данных (DLH/DWH, Snowflake, Databricks);

  • Методологический блок (+ Data Catalog);

  • Слой моделирования (Python, R или др среда для расчетов);

  • LLM-слой + RAG/CAG/KAG + Data Governance;

  • Фронт: BI-отчётность или полноценные агенты (трёхуровневый: аналитик ↔ LLM-ассистент ↔ агент автоматически исполняет корректирующие действия).

При этом обязательно нужно отметить два ключевых момента:

  1. Наличие детальной МРД – методико-регламентной документации по анализируемым и моделируемым данным.

    Сюда входят детальные алгоритмы расчетов со всеми фильтрами и исключениями. Сегодня, как правило, это “знание” реализуется в решениях на базе различных дата-каталогов и является необходимым фундаментальным пререквизитом для реализации.

  2. Наличие исходных данных и возможность декомпозировать уже посчитанные агрегаты на уровне хранения.

    Часто DM-слой в своих витринах содержит уже максимально агрегированные и посчитанные материализованные метрики, а исходные значения, из которых они собраны, недоступны. Для реализации любого сценария моделирования (структурного или факторного) – необходимо наличие соответствующих данных для реализации алгоритмов, описанных в МРД.

Что важно для бизнес-пользователей

  • перейти от “моделирования раз в год” к “постоянной симуляции”;

  • вовлечься в использование современных инструментов: освоить AI и data-literacy;

  • выстроить Data Governance-подход к данным и моделям для обеспечения точности и достоверности;

  • попробовать на себе – гибкий пилот с четкими рамками, критериями успеха и сценариями применения. 

Именно такое видение лежит в развитии нашего ИИ-аналитика Easy Report — повседневный what-if на энтерпрайз-данных с версионированием сценариев и едиными правилами расчёта.

Краткое резюме 

What-if анализ — это не просто кнопка в BI и не очередная модная «игрушка». Это органическое продолжение структурного и факторного анализа, фундамент прескриптивной аналитики и мостик к более взвешенным и осознанным решениям, который сегодня уже может быть адекватно автоматизирован.

Раньше ответ “что будет, если…” стоил несколько часов, а то и дней работы аналитика. Современный стек может помочь свести все это к одной фразе. 

И запрос на подобный функционал начинает звучать все чаще, поэтому совсем скоро он появится и в нашем решении.

Но, как и прежде, всё решают данные и работа с ними: DWH, Data Governance, Data culture (data-driven, insight-driven, value-driven – новые термины появляются чаще, чем успеваешь о них узнать). 

На этот счет где-то мелькала очень хорошая давняя цитата, не теряющая актуальности:

“Bad data leads to bad models. Bad models lead to bad strategy. And bad strategy is the most expensive mistake in business.” 

Пользуется ли ваш бизнес инструментами для моделирования? Верите ли, что современный технологический стек позволяет автоматизировать подобные процессы?

Комментарии (0)