Давайте разберем, как выглядит работа с MCP, на реальном примере из опыта моего дата-консалтинга. В этой статье теории не будет, только практика, много скриншотов и пара лайфхаков. 

Дано: 

  • Средних масштабов компания, которая специализируется на оказании услуг по ремонту электрики и сантехники. 

  • Интересующая нас инфраструктура — BigQuery для хранения данных, Dataform для трансформации. 

Наша задача:

  • Создать витрину данных об эффективности работы субподрядчиков. 

Перед началом работы нужно настроить MCP-сервер BigQuery. Не буду подробно на этом вопросе останавливаться, потому что уже есть пошаговая инструкция — если все сделать, как там написано, то проблем быть не должно. Если все-таки будут, то советы, как решать самые распространенные ошибки, там тоже есть. 

Дисклеймер: я хочу сразу извиниться за качество картинок в этой статье. Это скрины из вебинара, который проводили для команды и, к сожалению, он сохранился только в таком качестве. Чтобы не переделывать витрину заново, пришлось использовать то, что есть.  Если у вас есть вопросы к тому, что написано на скриншотах — пишите, все дешифрую и поясню.

Начало работы

Когда MCP настроен, запускаем Claude Code, нажав на иконку наверху или введя команду в терминале. 

Затем даем доступ к mcp.json (его мы создаем во время подготовки, это описано в инструкции от BigQuery). Если все сделано правильно, то он увидит список ваших датасетов.

Описания стейджингов

Наша первая команда для Claude — подготовить описания стейджингов. Рекомендую именно с этого всегда начинать, чтобы он познакомился со структурой данных и взаимосвязями. 

Писать команды можно как на русском, так и на английском. 

Claude начинает выполнять команду, считать токены и отправлять запросы к BigQuery.

Иногда он будет просить разрешения. Если уверены, что Claude ничего в проде не поломает, можно выдать все сразу, но лучшая практика — давать разрешения по одному, на каждую команду по отдельности. 

Когда все готово, то в контекстном окне можно будет увидеть, какие именно изменения он будет вносить. 

Создание витрины данных

Следующее задание — то, ради чего мы здесь и собрались: просим Claude сделать витрину данных. Как я уже говорил, писать можно и на русском. Главное, не переоценивайте ИИ, не давайте ему слишком сложные задачи, разбивайте их на отдельные шаги. Иначе он только токены потратит и сделает совсем не то. 

Можем даже сходить проверить, что он начал делать:

Когда все готово — пуш, коммит и идем в датаформ, смотреть, что получилось. И… видим, что что-то не так. Да, Claude ссылается на несуществующие таблицы в ref.

Что ж, идем обратно и просим быть повнимательнее. Я специально не стал вырезать ошибку ИИ из статьи, чтобы на этом примере показать, почему лучше ограничиваться простыми задачами, а сложные — упрощать и дробить на этапы. Так проще проверять работу и вовремя вносить правки, если где-то возникают ошибки. 

Когда все готово, возвращаемся в Dataform и проверяем результат еще раз.

За 20 минут мы получили витрину данных со всеми колонками, которые нам могут понадобиться, и описания стейджингов. Да, как мы уже убедились, работу ИИ нужно перепроверять, но в любом случае это быстрее, чем все делать самостоятельно. Он уже сэкономил нам довольно много времени.

Подведем итог? 

Без MCP и доступа к хранилищу Claude не смог бы выполнить эту задачу, а без Claude человек ее бы сделал, но потратил бы явно больше 20 минут — и это даже с учетом ошибки с ref’ами. Для меня это однозначный аргумент в пользу использования ИИ, но, конечно, только если заказчик не против. 

 Если вам было интересно, подписывайтесь на мой канал Коля Валиотти • Дата консалтинг — я там пишу про данные, технологии и просто про жизнь.

Комментарии (1)


  1. Ninil
    15.12.2025 21:25

    Ваша "витрина", несколько позволяют разобрать не очень качественные скриншоты - просто обычный SQL запрос. Почему вы его витриной называете?Обычный аналитик такой напишет быстрее чем за 20 минут. Кроме того не вижу на скриншотах логики инкрементального обновления данных. Лучшая антиреклама подхода и канала)))