Новички часто не понимают, что именно считается деплоем ML-модели и насколько глубоко в этом нужно разбираться. Ниже я покажу, как деплой выглядит на практике, насколько он важен для начинающего ML-инженера и с какими технологиями имеет смысл познакомиться в первую очередь.
Деплой ML-модели — это момент, когда обученная модель становится частью продукта. Модель перестаёт жить в ноутбуке и начинает работать в бизнес-логике: её можно вызывать из других сервисов и систем.
В вакансиях ML-инженеров часто упоминают десятки технологий, связанных с деплоем: Docker, Kubernetes, CI/CD и другие.
Новичку сложно понять, какие из них действительно важны, а какие встречаются «для галочки», потому что без опыта продакшена сам процесс деплоя остаётся абстрактным.
Какие требования к деплою бывают в компаниях?
Чтобы разобраться в вопросе, я глубоко изучил, как деплой устроен на практике. Я опросил ML-инженеров из более чем 10 разных компаний, проанализировал 600+ вакансий и выделил четыре варианта требований к навыкам деплоя:
Навыки деплоя не требуются.
Деплоем занимается отдельная команда или платформа, а ML-инженер передаёт модель дальше.Навыки деплоя указаны как «будет плюсом».
В компании есть готовый процесс выкатки в прод, и от ML-инженера требуется лишь следовать инструкции: собрать Docker-образ, поправить конфигурацию или параметры запуска.Деплой — часть обязанностей ML-инженера.
В этом случае ML-инженер сам отвечает за развёртывание модели и её обновление.Ожидается полноценный MLOps-функционал.
Такое чаще встречается в стартапах, где один человек закрывает сразу несколько ролей.
По моему опыту, в большинстве компаний от ML-инженера не ждут глубоких навыков деплоя. Обычно деплоем занимается отдельная команда, а ML-инженеру нужно лишь изредка внести правки — например, в Docker-образ.
Анализ вакансий показывает похожую картину: навыки деплоя упоминаются примерно в 15–25% позиций. При этом лишь для 5–10% вакансий деплой действительно критичен — его отсутствие может стать причиной отказа ещё до технического этапа.
Деплой — не самый важный навык на старте карьеры ML-инженера. Гораздо важнее понимать, какие навыки действительно нужны для входа в профессию и в каком порядке их изучать. Этот вопрос я подробно разобрал в отдельной статье с Roadmap по NLP.
Если интересно, как именно я анализировал вакансии и откуда взялись цифры, ниже я оставил подробную методику.
Методика подсчета
Я выгрузил вакансии по запросам «ML engineer» и «Data Scientist» и оставил только уникальные позиции. Из-за особенностей полнотекстового поиска на HH в выборку попадают и нерелевантные вакансии — например, бекенд-разработчики, которым нужно просто взаимодействовать с ML-моделями. Поэтому я дополнительно отфильтровал вакансии по названию, оставив только позиции, действительно относящиеся к ML.
В итоге в выборке осталось около 600 вакансий. Далее по всем текстовым полям я искал упоминания навыков, связанных с деплоем.
Ниже — топ навыков, которые чаще всего встречались в вакансиях из этой выборки.
Выборка: ~600 вакансий ML Engineer / Data Scientist (HH, декабрь 2025)
Навык |
Вакансий с требованием |
Доля вакансий, % |
Docker |
228 |
36.8 |
Kubernetes |
115 |
18.6 |
CI/CD |
112 |
18.1 |
FastAPI |
99 |
16.0 |
Flask |
36 |
5.8 |
Triton |
29 |
4.7 |
TensorRT |
23 |
3.7 |
Jenkins |
18 |
2.9 |
GitLab CI |
13 |
2.1 |
Django |
12 |
1.9 |
Почему вакансий с Docker оказалось 36%, а я говорю что навыки деплоя требуются в 15-25% компаний?
Эту статистику я собирал в начале декабря 2025 года. В конце года найм часто замедляется из-за согласования бюджетов, особенно в бигтехах, где часто навыки деплоя не нужны, поэтому эти цифры нельзя воспринимать как точное отражение рынка — скорее как ориентир.
Важно учитывать контекст: во многих вакансиях навыки деплоя указаны как «будет плюсом», а не как обязательное требование.
ВАЖНО!
На собеседованиях по теме деплоя редко уходят в детали — чаще всего спрашивают, приходилось ли вообще участвовать в деплое и на каком уровне.
Дальше я коротко пройду по базовым инструментам деплоя, с которыми имеет смысл познакомиться на старте, и поясню, зачем они нужны ML-инженеру.
FastAPI
FastAPI — это лёгкий Python-фреймворк, который позволяет «подключить» ML-модель к другим частям системы.
Проще говоря, с помощью FastAPI модель можно превратить в сервис, который принимает запросы, обрабатывает их с помощью модели и возвращает результат. Например, другой сервис может отправить текст на классификацию и получить ответ модели в виде JSON.
Как учить FastAPI
Для старта не требуется глубокое погружение. Достаточно понять базовые принципы: как описывать эндпоинты, принимать запросы и возвращать ответы. Пары практических примеров обычно хватает, чтобы уверенно чувствовать себя на собеседовании и в работе.
Мне нравятся видео Артёма Шуйменко — они короткие и хорошо объясняют основы:
Docker
Docker — это способ упаковать ML-модель, код и все зависимости в единый контейнер, чтобы сервис одинаково работал в любом окружении.
На практике это решает простую, но важную проблему: модель может без ошибок запускаться у вас на ноутбуке, на тестовом сервере и в продакшене. Не нужно заново настраивать окружение или гадать, почему «у меня работает, а в проде нет». Именно поэтому почти все ML-сервисы деплоят через Docker.
Как учить Docker
Если хочется разобраться в Docker глубже, мне нравится бесплатный курс от Karpov.Courses. Он достаточно подробный и хорошо объясняет базовые концепции. При этом курс довольно объёмный, поэтому имеет смысл проходить его уже после того, как вы освоили базовые навыки ML-инженера и понимаете, зачем вам Docker в работе.
Если же цель — просто познакомиться с Docker на базовом уровне, понять, что такое контейнер и как собрать простой образ для ML-сервиса, достаточно этого гайда на ютубе: тык
CI/CD
CI/CD — это автоматический процесс, который обновляет сервис без ручных действий.
Проще говоря, вы вносите изменения в код и отправляете их в репозиторий, а дальше всё происходит автоматически: код проверяется, собирается Docker-образ и выкатывается новая версия сервиса.
Для ML-инженера CI/CD важен не как отдельная технология, а как часть общего процесса деплоя. Обычно не требуется настраивать пайплайны с нуля — достаточно понимать, как они работают, где смотреть логи и как происходит обновление модели в продакшене.
Как учить CI/CD
На старте достаточно базового понимания концепции: что такое пайплайн, какие шаги в нём обычно есть и как выглядит процесс выкладки сервиса. Для этого подойдут короткие обзорные видео:
Kubernetes
Kubernetes — это система, которая управляет запуском и работой сервисов в продакшене.
Если упростить, представим, что мы обучили ML-модель и завернули инференс в FastAPI и Docker. Kubernetes запускает несколько копий этого сервиса, следит, чтобы они не падали, и автоматически масштабирует их, когда растёт нагрузка.
Когда мы обновляем модель или код инференса, Kubernetes постепенно заменяет старую версию сервиса на новую — без остановки системы. Для пользователя этот процесс обычно проходит незаметно.
Как учить Kubernetes
Для ML-инженера Kubernetes — это не про настройку инфраструктуры. В большинстве случаев достаточно понимать, как ML-сервис живёт в продакшене: как он запускается, обновляется и где смотреть логи. Глубокое погружение в Kubernetes и DevOps-задачи от ML-инженера, как правило, не требуется.
Для базового понимания концепции Kubernetes этого видео более чем достаточно: Kubernetes простым языком
Как обычно выглядит деплой ML-модели в работе
На практике деплой ML-модели редко выглядит как сложный инфраструктурный проект. По моему опыту и по опыту коллег из других компаний, зона ответственности ML-инженера обычно ограничивается подготовкой сервиса и участием в выкладке, а дальше процесс живёт сам.
Если упростить, типичный процесс деплоя ML-модели в компании выглядит примерно так:
ML-инженер обучает модель и проверяет её качество.
Модель оборачивается в сервис на FastAPI.
Сервис упаковывается в Docker-контейнер. В этом процессе обычно не используются продвинутые возможности Docker - только база.
Код отправляется в репозиторий, где автоматически запускается CI/CD и выкатывается новая версия сервиса. CI/CD за все время работы я правил буквально пару раз.
Дальнейшей поддержкой и стабильной работой сервиса обычно занимается платформа или MLOps-команда.
Отдельно важно понимать, где заканчивается зона ответственности ML-инженера.
ML Engineer vs MLOps
В крупных компаниях деплоем и ML-инфраструктурой обычно занимаются отдельные команды. MLOps — это скорее DevOps с ML-контекстом, а не «прокачанная» версия ML-инженера.
Хотя в вакансиях требования часто выглядят похоже — Docker, Kubernetes, CI/CD — на практике роли разные. ML-инженер отвечает за то, чтобы модель стала рабочим сервисом: API, Docker и участие в процессе выката. MLOps отвечает за платформу, на которой эти сервисы запускаются, масштабируются и стабильно работают.
Проще говоря, ML-инженер делает модель пригодной для продакшена, а MLOps — следит за тем, чтобы продакшен не ломался.
Продвинутые инструменты
Иногда в вакансиях ML-инженеров можно встретить ONNX, Triton или TensorRT. Эти инструменты относятся к более продвинутому уровню деплоя и инференса.
ONNX — это формат представления модели. Сам по себе он не является сложной технологией, но чаще используется как часть более сложного пайплайна инференса.
Triton и TensorRT применяются для сервинга и оптимизации тяжёлых нейросетевых моделей, как правило в высоконагруженных системах. В большинстве случаев работа с этими инструментами относится к зоне ответственности MLOps или platform-команд.
Знать о существовании ONNX, Triton и TensorRT полезно, но изучать их в глубину на старте карьеры ML-инженера не требуется.
Итог
Деплой ML-моделей — это не отдельная дисциплина, а часть процесса превращения модели в продукт. Для начинающего ML-инженера важно не становиться MLOps-специалистом, а понимать, как модель попадает в продакшен и что с ней происходит дальше.
На старте достаточно базового стека: FastAPI, Docker и общего понимания CI/CD и Kubernetes. Этого обычно хватает, чтобы ориентироваться в вакансиях и уверенно чувствовать себя на собеседованиях.
Я пишу такие тексты, потому что сам когда-то искал нормальные объяснения. Если такой формат откликается, в своем Telegram я публикую похожие разборы и мысли про ML-карьеру.