Для многих сейчас понятия 'Business Intellegence' и 'Дашборд' практически тождественны. А можете представить BI без дашбордов?

Давайте начнём с того, что дашборды бизнесу не нужны ?. Нужны ответы на вопросы. Дашборд - это инструмент, позволяющий отвечать на вопросы. А что, если вместо дашбордов будет другой инструмент? Это не фантастика, и возможно уже сейчас.

В классическом BI мы вручную пишем SQL, строим отчёты и визуализации. Но сегодня нейросети делают всё больше работы: сами пишут запросы, формируют дашборды и даже выдают инсайты. У этого направления уже есть название - Generative BI (GenBI). Адептов GenBI становится всё больше.

Представьте что есть только одно окно (как в ChatGPT), где можно задавать вопросы на родном языке и получать ответы на базе своих данных. Кроме этого, за минуты собираются отчёты, строятся графики, подключаются внешние источники для обогащения данных. Всё делают нейронки. Работает и на локальных компах и в облаке.

Примеры компаний, реализующих GenBI

Snowflake предлагает Enterprise AI - безопасный доступ к топовым LLM внутри корпоративного контура.

Кроме них, в гонке уже:

Компания WrenAI делает GenBI сервис и рассказывает в блоге о будущем BI.

4 уровня GenBI. Из статьи Wren AI
4 уровня GenBI. Из статьи Wren AI

Архитектура GenBI делится на 4 уровня (из статьи выше):

  1. Уровень данных

  2. Семантический уровень

  3. Агентский уровень

  4. Уровень представления

Главное отличие от классического BI - агентский уровень. Он отвечает за "человеческий" разговор с данными. На этом уровне нейросети преобразуют запросы пользователя в машинные запросы и алгоритмы. На семантическом уровне строятся связи с данными: что и откуда брать для запроса. На уровне представления: дашборды, инсайты, эдхоки и интерфейс диалога с машиной (тоже новая штука).

В корпоративных решениях решаются 2 ключевые проблемы нейронок для BI:

  1. Галлюцинации. Если LLM натравить только на подготовленные и структурированные данные с их описанием, то LLM практически не даёт неверных ответов. Это подтвердилось и в наших локальных экспериментах с нейронками.

  2. Безопасность данных. Большие вендоры предоставляют доступ до передовых LLM только внутри компании, наружу данные не уходят.

Следующая компания с AI решением в аналитике - Grab.

Grab и Jarvis AI

Для справки: Grab - сингапурская компания, первый южно-азиатский декакорн (стартап с оценкой $10+ млрд). Это "Uber + Delivery Club + Tinkoff" в одном приложении: такси, каршеринг, доставка еды и свой финтех. Работает во всей Юго-Восточной Азии.

Grab разработал Jarvis (отсылка сами знаете к кому) - решение для поиска инсайтов. С ноября прошлого года Grab пишет в своём блоге о разработке AI сервиса.

Из блога "How AI is driving faster data-driven decisions at Grab":

"Главный вызов - сделать данные доступными для всех сотрудников Grab. Раньше сотрудникам приходилось обращаться к внутренним аналитикам, осваивать сложные дашборды или писать SQL-запросы. Мы захотели упростить доступ к данным для всех, в пределах их роли, без специальных технических навыков. С появлением больших языковых моделей (LLM), умеющих переводить текст в SQL, мы увидели отличную возможность.
Так появился Jarvis - ассистент, позволяющий получать инсайты так же просто, как задавать вопрос."

Две главные функции Jarvis:

  1. Text-to-SQL engine: from question to query - от вопроса к запросу

  2. Insights generator: from data to understanding - от данных к пониманию

Jarvis стал посредником между бизнес-пользователем и данными. Вся аналитическая цепочка: диалог, SQL, отчёты, инсайты теперь внутри одного ассистента. Время ответа снизилось с 4+ часов до 3-5 минут, 1000 отчётов сгенерировано в мае 2025г и 4000 ответов получено в июне 2025. Дальше Джарвиса хотят подключать к Слаку и внутренним инструментам.

Ниже - картинки из их блога. В верхней картинке из аналитической цепочки процессов выкидываются все функции кожаных аналитиков: диалог с заказчиком, SQL, репорты, исследования и инсайты. Флоу работы с данными меняется кардинально - работа аналитиков заменяется LLM.

Воркфлоу и архитектура аналитической системы Grab
Воркфлоу и архитектура аналитической системы Grab

Достоинства и недостатки GenBI

➕Плюсы:

  • Self-service с "человеческим" лицом. То, о чём долго мечтали - просто говорить с данными на человеческом языке.

  • Не надо кастомизировать дашборды и отчёты под каждый отдел. Всё решается глубиной промта.

  • Вылетает вся цепочка аналитики, от бизнес/системного анализа до разработки дашбордов и источников под них. Это колоссальная экономия времени и резкое снижение Time-to-market.

➖Минусы:

  • Нельзя открыто подключать самые мощные нейросети к корпоративным данным из-за соображений безопасности. Надо делать создавать и совершенствовать свои LLM внутри компании, а это не все могут.

  • Нужно по-другому собирать и готовить данные для LLM: включать описания, словари и т.п.. Здесь предстоит серьёзная работа с семантическим слоем

  • Подход не изучен ещё, может быть много препятствий для внедрения.

Локальный пример LLM + база данных

Делаем пет-проект автоматического анализа зарплат VILKY и экспериментируем с подходом GenBI, подключаем разные LLM к базам данных и генерируем отчёты.

На домашнем компьютере несложно поднять базу данных и по MCP подключить к ней LLM. Claude Desktop c Sonnet / Opus может собирать информацию о данных прямо из базы, генерировать отчёты и инсайты. Правда, нужна Pro подписка.

MCP (Model Context Protocol) - протокол общения нейросетей с внешним миром. По нему к LLM можно подключать любые источники данных или системы управления, и всё это по одному универсальному стандарту.

Собрали все вакансии Habr Career с 2012 года с описаниями, всё это в PostgreSQL. Claude Desktop может по промптам ходить в базу данных и генерировать отчёты PDF, HTML или просто ответы. MCP Server и базу данных можно развернуть на локальном компьютере в докере или в облаке. Получается довольно круто - Claude размышляет, генерирует ряд SQL запросов (их можно посмотреть), вытаскивает за минуты инсайты, для которых аналитику надо больше часа. Автоматические PDF отчеты скидываем в tg канал. Понятно, что нужно проверять, добавлять уточнения, внешнюю информацию и т.д.. Сюда PDF не прикрепляется, поэтому скрин:

Часть отчёта о плюшках IT компаний
Часть отчёта о плюшках IT компаний

Промпты для базы данных вакансий могут как быть простые: "Найди релевантные вакансии для резюме (прикладываем документ резюме)", так и сложные, например: "Составь отчёт об эволюции аналитики и тренды инструментов за последние 10 лет". Для такого будет примерно 20 SQL запросов.

Итоги

То, о чём мечтают менеджеры - просто разговаривать с данными, уже реальность. Биайщики и аналитики в будущем, скорее всего, превратятся в архитекторов подобных систем. Дашборды вряд ли быстро умрут, но их число в компании можно сократить. GenBI сейчас - устойчивое понятие, подразумевающее генерацию инсайтов и инструментов для принятия решений на основе данных. Лидеры рынка идут в этом направлении. BI-системы эволюционируют, и если их не перестраивать сегодня - завтра можно остаться в хвосте рынка.

Комментарии (1)


  1. Vorchun
    02.09.2025 06:24

    Штука интересная, как минимум. Если данных много, а у меня много разнообразных вопросов - это прекрасно. Но...

    Мне не очень заходит мысль "дашбоарды не нужны". Я не работал в биг биг кампани, но работаю в производстве. Это и отдел продаж, и мониторинг станков. Вопросы - они понятны. У каждого сотрудника есть несколько основных вопросов. И ответы на них очень хорошо можно показать на дашбоарде. Это визуально понятно. Особенно, если речь идет о наблюдении за показателями (соответствие или отклонение).

    Не так давно мне презентовали проект по мониторингу станков. Там куча датчиков, собирается куча инфы и потом идет анализ через ML. Обычно, это все выводят в виде графиков и на основе данных строят прогнозы. Например, о дате замене инструмента или о прогнозе поломки. А ребята подключили чат а-ля GPT и можно задавать вопросы.

    Стало ли удобнее? Не факт. Инженеру теперь надо формулировать вопросы. Каждый раз. Хотя вопросы те же самые. Да, там есть авто ответы, шаблоны и прочее. Но это доп. усилия. Зачем? Есть же нормальная графическая форма.

    А вот если надо в этих данных покапаться, найти аномалии, порассуждать, составить какой-то сложный запрос на человеческом языке и получить ответ не в виде таблицы, на нормальном человеческом - тогда да, чаты подойдут.

    Я привел пример из производства. Но в продажах +/- такая же история.