Для многих сейчас понятия 'Business Intellegence' и 'Дашборд' практически тождественны. А можете представить BI без дашбордов?
Давайте начнём с того, что дашборды бизнесу не нужны ?. Нужны ответы на вопросы. Дашборд - это инструмент, позволяющий отвечать на вопросы. А что, если вместо дашбордов будет другой инструмент? Это не фантастика, и возможно уже сейчас.
В классическом BI мы вручную пишем SQL, строим отчёты и визуализации. Но сегодня нейросети делают всё больше работы: сами пишут запросы, формируют дашборды и даже выдают инсайты. У этого направления уже есть название - Generative BI (GenBI). Адептов GenBI становится всё больше.
Представьте что есть только одно окно (как в ChatGPT), где можно задавать вопросы на родном языке и получать ответы на базе своих данных. Кроме этого, за минуты собираются отчёты, строятся графики, подключаются внешние источники для обогащения данных. Всё делают нейронки. Работает и на локальных компах и в облаке.
Примеры компаний, реализующих GenBI
Snowflake предлагает Enterprise AI - безопасный доступ к топовым LLM внутри корпоративного контура.
Кроме них, в гонке уже:
Salesforce
Microsoft
-
и другие.
Компания WrenAI делает GenBI сервис и рассказывает в блоге о будущем BI.

Архитектура GenBI делится на 4 уровня (из статьи выше):
Уровень данных
Семантический уровень
Агентский уровень
Уровень представления
Главное отличие от классического BI - агентский уровень. Он отвечает за "человеческий" разговор с данными. На этом уровне нейросети преобразуют запросы пользователя в машинные запросы и алгоритмы. На семантическом уровне строятся связи с данными: что и откуда брать для запроса. На уровне представления: дашборды, инсайты, эдхоки и интерфейс диалога с машиной (тоже новая штука).
В корпоративных решениях решаются 2 ключевые проблемы нейронок для BI:
Галлюцинации. Если LLM натравить только на подготовленные и структурированные данные с их описанием, то LLM практически не даёт неверных ответов. Это подтвердилось и в наших локальных экспериментах с нейронками.
Безопасность данных. Большие вендоры предоставляют доступ до передовых LLM только внутри компании, наружу данные не уходят.
Следующая компания с AI решением в аналитике - Grab.
Grab и Jarvis AI
Для справки: Grab - сингапурская компания, первый южно-азиатский декакорн (стартап с оценкой $10+ млрд). Это "Uber + Delivery Club + Tinkoff" в одном приложении: такси, каршеринг, доставка еды и свой финтех. Работает во всей Юго-Восточной Азии.
Grab разработал Jarvis (отсылка сами знаете к кому) - решение для поиска инсайтов. С ноября прошлого года Grab пишет в своём блоге о разработке AI сервиса.
Из блога "How AI is driving faster data-driven decisions at Grab":
"Главный вызов - сделать данные доступными для всех сотрудников Grab. Раньше сотрудникам приходилось обращаться к внутренним аналитикам, осваивать сложные дашборды или писать SQL-запросы. Мы захотели упростить доступ к данным для всех, в пределах их роли, без специальных технических навыков. С появлением больших языковых моделей (LLM), умеющих переводить текст в SQL, мы увидели отличную возможность.
Так появился Jarvis - ассистент, позволяющий получать инсайты так же просто, как задавать вопрос."
Две главные функции Jarvis:
Text-to-SQL engine: from question to query - от вопроса к запросу
Insights generator: from data to understanding - от данных к пониманию
Jarvis стал посредником между бизнес-пользователем и данными. Вся аналитическая цепочка: диалог, SQL, отчёты, инсайты теперь внутри одного ассистента. Время ответа снизилось с 4+ часов до 3-5 минут, 1000 отчётов сгенерировано в мае 2025г и 4000 ответов получено в июне 2025. Дальше Джарвиса хотят подключать к Слаку и внутренним инструментам.
Ниже - картинки из их блога. В верхней картинке из аналитической цепочки процессов выкидываются все функции кожаных аналитиков: диалог с заказчиком, SQL, репорты, исследования и инсайты. Флоу работы с данными меняется кардинально - работа аналитиков заменяется LLM.

Достоинства и недостатки GenBI
➕Плюсы:
Self-service с "человеческим" лицом. То, о чём долго мечтали - просто говорить с данными на человеческом языке.
Не надо кастомизировать дашборды и отчёты под каждый отдел. Всё решается глубиной промта.
Вылетает вся цепочка аналитики, от бизнес/системного анализа до разработки дашбордов и источников под них. Это колоссальная экономия времени и резкое снижение Time-to-market.
➖Минусы:
Нельзя открыто подключать самые мощные нейросети к корпоративным данным из-за соображений безопасности. Надо делать создавать и совершенствовать свои LLM внутри компании, а это не все могут.
Нужно по-другому собирать и готовить данные для LLM: включать описания, словари и т.п.. Здесь предстоит серьёзная работа с семантическим слоем
Подход не изучен ещё, может быть много препятствий для внедрения.
Локальный пример LLM + база данных
Делаем пет-проект автоматического анализа зарплат VILKY и экспериментируем с подходом GenBI, подключаем разные LLM к базам данных и генерируем отчёты.
На домашнем компьютере несложно поднять базу данных и по MCP подключить к ней LLM. Claude Desktop c Sonnet / Opus может собирать информацию о данных прямо из базы, генерировать отчёты и инсайты. Правда, нужна Pro подписка.
MCP (Model Context Protocol) - протокол общения нейросетей с внешним миром. По нему к LLM можно подключать любые источники данных или системы управления, и всё это по одному универсальному стандарту.
Собрали все вакансии Habr Career с 2012 года с описаниями, всё это в PostgreSQL. Claude Desktop может по промптам ходить в базу данных и генерировать отчёты PDF, HTML или просто ответы. MCP Server и базу данных можно развернуть на локальном компьютере в докере или в облаке. Получается довольно круто - Claude размышляет, генерирует ряд SQL запросов (их можно посмотреть), вытаскивает за минуты инсайты, для которых аналитику надо больше часа. Автоматические PDF отчеты скидываем в tg канал. Понятно, что нужно проверять, добавлять уточнения, внешнюю информацию и т.д.. Сюда PDF не прикрепляется, поэтому скрин:

Промпты для базы данных вакансий могут как быть простые: "Найди релевантные вакансии для резюме (прикладываем документ резюме)", так и сложные, например: "Составь отчёт об эволюции аналитики и тренды инструментов за последние 10 лет". Для такого будет примерно 20 SQL запросов.
Итоги
То, о чём мечтают менеджеры - просто разговаривать с данными, уже реальность. Биайщики и аналитики в будущем, скорее всего, превратятся в архитекторов подобных систем. Дашборды вряд ли быстро умрут, но их число в компании можно сократить. GenBI сейчас - устойчивое понятие, подразумевающее генерацию инсайтов и инструментов для принятия решений на основе данных. Лидеры рынка идут в этом направлении. BI-системы эволюционируют, и если их не перестраивать сегодня - завтра можно остаться в хвосте рынка.
Vorchun
Штука интересная, как минимум. Если данных много, а у меня много разнообразных вопросов - это прекрасно. Но...
Мне не очень заходит мысль "дашбоарды не нужны". Я не работал в биг биг кампани, но работаю в производстве. Это и отдел продаж, и мониторинг станков. Вопросы - они понятны. У каждого сотрудника есть несколько основных вопросов. И ответы на них очень хорошо можно показать на дашбоарде. Это визуально понятно. Особенно, если речь идет о наблюдении за показателями (соответствие или отклонение).
Не так давно мне презентовали проект по мониторингу станков. Там куча датчиков, собирается куча инфы и потом идет анализ через ML. Обычно, это все выводят в виде графиков и на основе данных строят прогнозы. Например, о дате замене инструмента или о прогнозе поломки. А ребята подключили чат а-ля GPT и можно задавать вопросы.
Стало ли удобнее? Не факт. Инженеру теперь надо формулировать вопросы. Каждый раз. Хотя вопросы те же самые. Да, там есть авто ответы, шаблоны и прочее. Но это доп. усилия. Зачем? Есть же нормальная графическая форма.
А вот если надо в этих данных покапаться, найти аномалии, порассуждать, составить какой-то сложный запрос на человеческом языке и получить ответ не в виде таблицы, на нормальном человеческом - тогда да, чаты подойдут.
Я привел пример из производства. Но в продажах +/- такая же история.