Давайте разберем, как выглядит работа с MCP, на реальном примере из опыта моего дата-консалтинга. В этой статье теории не будет, только практика, много скриншотов и пара лайфхаков.
Дано:
Средних масштабов компания, которая специализируется на оказании услуг по ремонту электрики и сантехники.
Интересующая нас инфраструктура — BigQuery для хранения данных, Dataform для трансформации.
Наша задача:
Создать витрину данных об эффективности работы субподрядчиков.
Перед началом работы нужно настроить MCP-сервер BigQuery. Не буду подробно на этом вопросе останавливаться, потому что уже есть пошаговая инструкция — если все сделать, как там написано, то проблем быть не должно. Если все-таки будут, то советы, как решать самые распространенные ошибки, там тоже есть.
Дисклеймер: я хочу сразу извиниться за качество картинок в этой статье. Это скрины из вебинара, который проводили для команды и, к сожалению, он сохранился только в таком качестве. Чтобы не переделывать витрину заново, пришлось использовать то, что есть. Если у вас есть вопросы к тому, что написано на скриншотах — пишите, все дешифрую и поясню.
Начало работы
Когда MCP настроен, запускаем Claude Code, нажав на иконку наверху или введя команду в терминале.

Затем даем доступ к mcp.json (его мы создаем во время подготовки, это описано в инструкции от BigQuery). Если все сделано правильно, то он увидит список ваших датасетов.


Описания стейджингов
Наша первая команда для Claude — подготовить описания стейджингов. Рекомендую именно с этого всегда начинать, чтобы он познакомился со структурой данных и взаимосвязями.
Писать команды можно как на русском, так и на английском.

Claude начинает выполнять команду, считать токены и отправлять запросы к BigQuery.

Иногда он будет просить разрешения. Если уверены, что Claude ничего в проде не поломает, можно выдать все сразу, но лучшая практика — давать разрешения по одному, на каждую команду по отдельности.

Когда все готово, то в контекстном окне можно будет увидеть, какие именно изменения он будет вносить.

Создание витрины данных
Следующее задание — то, ради чего мы здесь и собрались: просим Claude сделать витрину данных. Как я уже говорил, писать можно и на русском. Главное, не переоценивайте ИИ, не давайте ему слишком сложные задачи, разбивайте их на отдельные шаги. Иначе он только токены потратит и сделает совсем не то.

Можем даже сходить проверить, что он начал делать:

Когда все готово — пуш, коммит и идем в датаформ, смотреть, что получилось. И… видим, что что-то не так. Да, Claude ссылается на несуществующие таблицы в ref.

Что ж, идем обратно и просим быть повнимательнее. Я специально не стал вырезать ошибку ИИ из статьи, чтобы на этом примере показать, почему лучше ограничиваться простыми задачами, а сложные — упрощать и дробить на этапы. Так проще проверять работу и вовремя вносить правки, если где-то возникают ошибки.

Когда все готово, возвращаемся в Dataform и проверяем результат еще раз.
За 20 минут мы получили витрину данных со всеми колонками, которые нам могут понадобиться, и описания стейджингов. Да, как мы уже убедились, работу ИИ нужно перепроверять, но в любом случае это быстрее, чем все делать самостоятельно. Он уже сэкономил нам довольно много времени.

Подведем итог?
Без MCP и доступа к хранилищу Claude не смог бы выполнить эту задачу, а без Claude человек ее бы сделал, но потратил бы явно больше 20 минут — и это даже с учетом ошибки с ref’ами. Для меня это однозначный аргумент в пользу использования ИИ, но, конечно, только если заказчик не против.
Если вам было интересно, подписывайтесь на мой канал Коля Валиотти • Дата консалтинг — я там пишу про данные, технологии и просто про жизнь.
Ninil
Ваша "витрина", несколько позволяют разобрать не очень качественные скриншоты - просто обычный SQL запрос. Почему вы его витриной называете?Обычный аналитик такой напишет быстрее чем за 20 минут. Кроме того не вижу на скриншотах логики инкрементального обновления данных. Лучшая антиреклама подхода и канала)))