
Решил установить и протестировать возможности DeepSeek 1.5B — компактной языковой модели, которая работает без тяжёлого железа и запускается даже на домашнем сервере.
В этой статье покажу и расскажу:
Что такое DeepSeek и какие у него возможности.
Как подготовить сервер Ubuntu 24.04, установить и настроить Ollama.
Как развернуть DeepSeek 1.5B и наладить его работу.
Как настроить Open WebUI — веб-интерфейс, чтобы общаться с моделью.
Как использовать модель и какие нюансы в работе нашёл.
Статью написал Solution Architect со стажем 19 лет.
DeepSeek и его возможности
У модели DeepSeek 1.5B — 1,5 миллиарда параметров. Это немного по меркам топовых моделей, но для большинства задач этого хватает с головой. Особенно если не хочется поднимать ферму или платить за каждую сессию в API.
Поэтому я решил запустить DeepSeek через Ollama — удобный инструмент для управления локальными LLM. Там всё максимально просто: загрузка модели, развёртывание, обновления — на всё одна команда. Модель работает на сервере, без обращения к внешним API. То есть данные не уходят за периметр и можно не переживать о политике конфиденциальности очередного SaaS-сервиса.
Для фронта буду использовать Open WebUI. Интерфейс лаконичный, но функциональный, подойдёт, если лень всё гонять через CLI или писать свои обёртки.
Где можно использовать DeepSeek?
У меня изначально был простой запрос: найти локальную модель, которую можно запустить без облаков и без покупки RTX 4090. А DeepSeek 1.5B спокойно работает на сервере с 8–16 Гб оперативки и средним процессором. Умеет создавать чат-ботов, отвечать на вопросы, анализировать и писать тексты, генерировать идеи и код.
Узнал, что DeepSeek 1.5B часто тестируют небольшие команды, стартапы или просто айтишники, которые хотят поэкспериментировать с языковыми моделями без сложной инфраструктуры и лишних трат.
Я как раз такой айтишник.
Подготовка сервера Ubuntu 24.04
Перед тем как запускать DeepSeek 1.5B, привёл сервер в порядок — модель не взлетит, если система завалена мусором. Поэтому сначала чистка, апдейты, установка нужных пакетов. Важно, чтобы всё работало стабильно: Ollama, WebUI и сама модель.
Первые шаги: обновление системы
Сначала я освежил Ubuntu 24.04. Подключиться к серверу можно через SSH или открыть терминал, если работаете локально.
sudo apt update && sudo apt upgrade -y
Так я обновил списки пакетов и установил последние версии программ. Дождался завершения процесса и взялся за установку важных утилит:
sudo apt install -y curl git build-essential
curl — для загрузки файлов из сети.
git — на случай, если захотите клонировать репозитории.
build-essential — для компиляции, если она понадобится.
Проверка ресурсов сервера
Чтобы убедиться, что сервер впустит DeepSeek 1.5B, проверяю доступную оперативную память с помощью команды: free -h
Чтобы модель работала, хватит 8 Гб RAM, но 16 Гб дадут больше свободы. Если памяти не хватает, надо создать swap-файл, чтобы система не капризничала во время нагрузки.
Как создать swap-файл на 4 Гб:
sudo fallocate -l 4G /swapfile
sudo chmod 600 /swapfile
sudo mkswap /swapfile
sudo swapon /swapfile

Чтобы swap-файл работал и после перезагрузки, добавляю его в /etc/fstab:
echo '/swapfile none swap sw 0 0' | sudo tee -a /etc/fstab

Теперь проверяю процессор: Lscpu

Да, DeepSeek не требует суперсовременного CPU, но многоядерный процессор (4 ядра и более) ускорит работу. Даже если у вас сервер поменьше, модель всё равно запустится, просто не так быстро.
Я тестировал на «MacBook Pro M1 Pro» — всё ок.
Установка Docker: фундамент для Ollama и Open WebUI
Здесь нужны Ollama и Open WebUI, которые лучше всего работают в контейнерах Docker. Для установки сначала добавляю официальный репозиторий Docker:
sudo apt update
sudo apt install -y ca-certificates curl
sudo install -m 0755 -d /etc/apt/keyrings
sudo curl -fsSL https://download.docker.com/linux/ubuntu/gpg -o /etc/apt/keyrings/docker.asc
sudo chmod a+r /etc/apt/keyrings/docker.asc

Добавляю репозиторий в источники APT:
echo \
"deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.asc] https://download.docker.com/linux/ubuntu \
$(. /etc/os-release && echo "$VERSION_CODENAME") stable" | \
sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
Теперь устанавливаю Docker:
sudo apt update
sudo apt install -y docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin
Так как у меня он уже установлен, то сообщение выглядит чуть иначе:

Запускаю Docker и включаю его автозапуск:
sudo systemctl enable docker
sudo systemctl start docker
Чтобы работать с Docker без sudo, добавляю своего пользователя в группу docker:
sudo usermod -aG docker $USER
Теперь нужно перезайти в сессию (или переподключиться по SSH), чтобы всё заработало.
Проверка окружения
Решил семь раз отмерить — один отрезать. Хочу убедиться, что всё готово, поэтому проверяю версию Docker: docker --version
На экране должно появиться что-то вроде Docker version 27.0.3 или новее. Теперь проверяю, работает ли docker compose:
docker compose version

Если обе команды отвечают без ошибок, сервер готов. Но если есть проблема, проверяйте логи (sudo journalctl -u docker) или почитайте документацию Docker.
В итоге я обновил систему, установил Docker, чтобы Ollama и Open WebUI чувствовали себя как дома, и проверил ресурсы, чтобы DeepSeek задышал.
Установка и настройка Ollama
Ollama — это инструмент с открытым кодом, созданный для работы с языковыми моделями на локальных машинах. Она берёт на себя работу по загрузке, управлению и запуску моделей, давая для этого простой интерфейс, будь то командная строка или API.
Установка Ollama
Ollama официально поддерживает запуск через собственный скрипт, но я выбрал другой путь — с Docker. Поэтому сначала создал директорию для хранения данных Ollama, чтобы модели и настройки не терялись: mkdir -p ~/ollama
Теперь запускаю Ollama в Docker-контейнере:
docker run -d -v ~/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
-d — запускает контейнер в фоновом режиме.
--gpus all — даёт Ollama доступ к GPU, если он есть. Если его нет, команду убираем.
-v ~/ollama:/root/.ollama — подключает локальную папку ~/ollama к контейнеру, чтобы сохранить модели и настройки.
-p 11434:11434 — открывает порт 11434, через который мы будем общаться с Ollama.
--name ollama — даёт контейнеру имя для удобства.
ollama/ollama — образ Docker, который мы используем.
После выполнения команды проверяю, работает ли контейнер: docker ps

Так контейнер с именем ollama появляется в списке. А если что-то пошло не так, проверяйте логи снова:
docker logs ollama

Проверяю, что Ollama работает: curl http://localhost:11434

Если с ней всё окей, вы получите ответ, похожий на: Ollama is running. Но если ответа нет, проверьте, открыт ли порт 11434 (sudo netstat -tuln | grep 11434) и работает ли контейнер.
Настраиваю Ollama для DeepSeek
Ollama сама по себе не содержит DeepSeek 1.5B — модель нужно загрузить. Но сначала надо убедиться, что Ollama настроена правильно. По умолчанию она использует порт 11434 и хранит модели в папке, которую я подключил (~/ollama). Если хочется изменить порт или другие параметры, можно отредактировать запуск контейнера. Например, для другого порта (скажем, 11435):
docker stop ollama
docker rm ollama
docker run -d -v ~/ollama:/root/.ollama -p 11435:11434 --name ollama ollama/ollama
Но для моего случая стандартный порт подойдёт. Если у вас есть GPU, то Ollama автоматически попытается использовать его для ускорения работы моделей. Чтобы проверить, видит ли Ollama GPU, я запускаю тестовую модель (маленькую llama3):
docker exec -it ollama ollama run llama3
Если модель загрузилась и отвечает — отлично. Выйти из режима общения можно с помощью Ctrl+D. Загрузка может занять время, но это нормально для первого запуска.
Автозапуск Ollama
Чтобы Ollama запускалась вместе с сервером, я настроил Docker для автозапуска. Но важно, чтобы в случае сбоев контейнер перезапустился. Поэтому добавляю политику перезапуска:
docker update --restart unless-stopped ollama
Теперь Ollama будет подниматься автоматически.
Вообще, Ollama — это мост между вами и DeepSeek 1.5B. То есть она упрощает работу с моделью и позволяет запускать её без глубоких знаний о нейронных сетях. Через её API я смогу подключить Open WebUI, чтобы общаться с моделью через браузер или интегрировать её в приложения.
Разворачиваю DeepSeek 1.5B
DeepSeek 1.5B весит около 3–4 Гб в сжатом виде, но перед загрузкой всё равно надо убедиться, что у меня есть хотя бы 10 Гб свободного места в директории ~/ollama, чтобы учесть временные файлы и кеш.
Ollama умеет загружать модели автоматически, но DeepSeek 1.5B может потребовать уточнения имени или источника, так как это не стандартная модель из её библиотеки. На момент написания статьи (май 2025 года) DeepSeek 1.5B доступна через сторонние репозитории или кастомные настройки. Для простоты предположу, что вы используете модель, доступную через Ollama, или уже загрузили её файл вручную.
Вот так Ollama скачает и подготовит DeepSeek 1.5B:
docker exec -it ollama ollama pull deepseek-r1:1.5b

Примечание. Если модель deepseek:1.5b недоступна напрямую в Ollama, нужно импортировать её из файла. Загрузите файл модели (обычно в формате GGUF) из официального источника DeepSeek или из других доверенных источников вроде Hugging Face.
Затем импортируйте её в Ollama:
docker cp deepseek-1.5b.gguf ollama:/root/.ollama/models/
docker exec -it ollama ollama import deepseek-1.5b.guf deepseek-r1:1.5b
Жду завершения загрузки. У каждого это будет разное время — всё зависит от скорости интернета и мощности сервера. Просто смотрите за прогрессом в терминале.
После завершения загрузки запускаю DeepSeek через Ollama:
docker exec -it ollama ollama run deepseek-r1:1.5b

Ollama откроет интерактивный режим, где я могу задать любой вопрос. Например:

Если модель отвечает — поздравляю, всё получилось. Для выхода из режима нажмите Ctrl+D.
Если модель не запускается, проверяю логи: docker logs ollama
Частые проблемы: недостаток памяти (проверьте free -h), неверный формат файла модели или ошибка сети при загрузке. Если возникли баги, убедитесь, что файл модели цел и совместим с Ollama.
Тестирование возможностей
Чтобы лучше понять, на что способен DeepSeek 1.5B, задайте ему несколько вопросов разной сложности. Например:
Практический — «Напиши Python-скрипт для парсинга CSV-файла».
Аналитический — «Проанализируй этот текст: [вставьте короткий текст]».
Творческий — «Придумай сюжет для короткого фантастического рассказа».
Ещё советую записать ответы и использовать их позже при настройке Open WebUI.
Оптимизация работы
DeepSeek 1.5B достаточно лёгок, но на слабых серверах может работать медленно. Как спастись от тормозов системы:
Убедитесь, что Ollama использует GPU (с помощью nvidia-smi внутри контейнера, если у вас есть GPU).
Уменьшите количество одновременно обрабатываемых запросов, добавив флаг --max-queue 1 при запуске Ollama.
Увеличьте swap-файл, если памяти не хватает (как описано в главе о подготовке сервера).
У меня всё работает, и я готов к созданию удобного интерфейса с помощью Open WebUI.
Настраиваю Open WebUI
Общаться с ИИ через терминал я не хочу, а красивый и удобный интерфейс — хочу. Поэтому обратился к Open WebUI — открытому веб-приложению, который и создан для работы с языковыми моделями через Ollama.
Так всё будет происходить в чате, история сообщений сохранится и можно будет дополнительно настраивать поведение модели. Open WebUI работает в браузере, а значит, можно общаться с ИИ с любого устройства.
Установка Open WebUI
Open WebUI, как и Ollama, лучше всего себя чувствует в Docker-контейнере. Мой сервер уже знает Docker, так что я просто добавлю ещё один контейнер, который свяжется с Ollama.
Сначала создаю директорию для хранения данных Open WebUI: mkdir -p ~/open-webui
Теперь запускаю Open WebUI в Docker-контейнере:
docker run -d -p 8080:8080 --add-host=host.docker.internal:host-gateway -v ~/open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

-d — запускает контейнер в фоновом режиме.
-p 8080:8080 — открывает порт 8080, через который мы будем заходить в Open WebUI.
--add-host=host.docker.internal:host-gateway — позволяет Open WebUI найти Ollama, работающую на том же сервере.
-v ~/open-webui:/app/backend/data — сохраняет данные (настройки, историю чатов) в папке ~/open-webui.
--name open-webui — даёт контейнеру имя.
--restart always — обеспечивает автозапуск контейнера при перезагрузке сервера.
ghcr.io/open-webui/open-webui:main — официальный образ Open WebUI.
Проверяю, работает ли контейнер: docker ps

Должен появиться контейнер с именем open-webui. Если что-то идёт не так, проверяйте логи: docker logs open-webui

Подключение Open WebUI к Ollama
Open WebUI автоматически ищет Ollama по адресу host.docker.internal:11434. Поскольку я запустил Ollama на порте 11434 (как описано в предыдущей главе), они должны легко найти друг друга.
Чтобы убедиться, что всё работает, открываю браузер и перехожу по адресу:
http://<ваш_IP_сервера>:8080
Например, если ваш сервер имеет IP 192.168.1.100, введите http://192.168.1.100:8080. Если вы работаете локально, используйте http://localhost:8080.
При первом запуске Open WebUI просит создать учётную запись. Я ввожу имя пользователя, пароль и адрес электронной почты. Это защитит мой интерфейс от чужих глаз, особенно если сервер доступен из внешней сети.

Захожу и вижу чат-интерфейс. В верхнем меню выбираю модель deepseek-r1:1.5b (она должна появиться, если Ollama работает корректно). Если модель не отображается, проверяю:
Работает ли Ollama (curl http://localhost:11434 должно вернуть Ollama is running).
Доступен ли порт 11434 внутри контейнера Open WebUI. Если нет, перезапускаю Open WebUI с правильным адресом Ollama:
docker stop open-webui
docker rm open-webui
docker run -d -p 8080:8080 -e OLLAMA_API_BASE_URL=http://host.docker.internal:11434 -v ~/open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Теперь, когда Open WebUI настроен, нужно задать DeepSeek вопрос через веб-интерфейс. Что-то из этого:
«Как написать REST API на Python с Flask?»
«Расскажи историю о путешественнике во времени».
«Проанализируй этот код: [вставьте небольшой код]».
Ещё Open WebUI помогает настраивать параметры модели, такие как температура (для креативности ответов) или максимальная длина ответа, через настройки в интерфейсе.
Дополнительная настройка: безопасность и доступ
Если ваш сервер доступен из интернета, обезопасьте Open WebUI:
Паролем. Он должен быть надёжным при создании учётной записи.
HTTPS. Настройте обратный прокси (например, через Nginx) с SSL-сертификатом от Let’s Encrypt. Это защитит данные.
Ограничением доступа. Настройте файрвол (например, ufw), чтобы порт 8080 был открыт только для определённых IP:
sudo ufw allow from <ваш_IP> to any port 8080
sudo ufw enable
Если вам захочется поделиться с кем-то доступом, создайте дополнительные учётные записи в интерфейсе Open WebUI (раздел Settings → Users).
Ну и всё. Теперь Open WebUI превратил DeepSeek 1.5B из командной строки в полноценного помощника, с которым можно общаться через браузер.

Тонкости работы с DeepSeek
В процессе работы понял, что у DeepSeek 1.5B есть несколько секретов.
1. Точность запросов
DeepSeek лучше отвечает, если запрос чёткий и содержит контекст. Чем больше деталей, тем лучше результат. Вместо «Напиши код» уточните:
«Напиши Python-функцию для сортировки списка чисел методом пузырька».
2. Параметры в Open WebUI
В Open WebUI вы можете менять параметры модели:
Температура. Низкая (0.3–0.5) — для точных, предсказуемых ответов; высокая (0.8–1.0) — для креативных.
Максимальная длина ответа. Увеличьте для длинных текстов, уменьшите для небольших.
Top-p. Контролирует разнообразие слов. Значение 0.9 обычно работает хорошо.
Экспериментируйте с этими настройками в разделе Model Settings в Open WebUI.
3. Ограничения модели
DeepSeek 1.5B не гигант вроде GPT-4, поэтому:
Он может путаться в очень сложных задачах (например, глубокий анализ больших данных).
Иногда даёт неточные или выдуманные факты. Проверяйте важные ответы.
Лучше работает с короткими и средними текстами.
Если задача слишком сложная, разбейте её на части. Вместо «Напиши приложение», начните с «Напиши структуру REST API».
4. Оптимизация производительности
На слабых серверах DeepSeek может быть медленным. Чтобы ускорить его:
Убедитесь, что Ollama использует GPU, если он есть (nvidia-smi внутри контейнера).
Ограничьте количество одновременных запросов в Ollama:
docker stop ollama
docker run -d --gpus all -v ~/ollama:/root/.ollama -p 11434:11434 --name ollama -e OLLAMA_MAX_QUEUE=1 ollama/ollama
Если памяти мало, увеличьте swap-файл (см. главу о подготовке сервера).
5. Локализация и языки
DeepSeek хорошо понимает русский язык, но иногда его ответы не такие естественные, как на английском. Если результат не идеален, попробуйте переформулировать запрос или задать его на английском, а затем попросите перевести:
Answer in English: what is quantum computing? Then translate to Russian.
Заключение и перспективы
Что я в итоге сделал: начал с подготовки сервера Ubuntu 24.04 и убрал всё лишнее. Затем добавил Ollama, которая оживила DeepSeek 1.5B. Загрузил модель и поместил в Open WebUI, чтобы общаться с ней через браузер.
Затем проверил её: протестировал на ответы для клиентов и на написание кода. Узнал тонкости, которые делают её работу ещё лучше.
Получается, что DeepSeek помогает:
Экономить время, отвечая на рутинные вопросы или генерируя контент.
Сохранять приватность, не отправляя ваши секреты в облака.
Вдохновлять, помогая в творчестве, обучении или разработке.
Кто-нибудь из вас пробовал работать с DeepSeek? Как вам?
Комментарии (15)
Rezzet
14.05.2025 10:59У меня сервер работает под TrueNas Scale там это все разворачивается тремя кликами, OpenWebUI можно поставить сразу с встроенным ollama, можно сделать пять кликов и поставить ollama отдельно.
Но все это действительно не имеет смысла. 1.5B это ооооочень маленькая модель, зачем она нужно вообще не сильно понятно, какой-то сервис сделать с донастройкой(дообучением) под внутренние или внешние задачи проекта(компании).
Основной вопрос зачем вам своя маленькая модель, если бесплатно доступна большая, и даже если вы хотите сделать свой сервис на основе дипсика, то проще их апи купить, там цены достаточно низкие.
Можно локально развернуть и 670B - но тут как говорится два стула: первый развернуть на CPU и это относительно дешевый вариант, т.к. найти сервер с 1,5Tb памяти не так сложно как кажется и не так дорого, стартовый ценник от $1k, если использовать старые Xeon, до $5k, если брать что-то поновее типа EPYC. Только в любом случае получите производительно 1.5-3 токена в секунду и ответы у вас будут минут за 20 появляться, а то и больше, когда контекст разговора вырастет. Следующий шаг это исполнение на GPU и тут стартовый ценник увеличивается на порядок или два порядка(~$100k, нужно просто 8 Nvidia A100). И снова не сильно понятно зачем это нужно, первый вариант работает слишком медленно что бы им пользоваться, а второй вариант непонятно зачем нужен если вы можете купить доступ к апи за гораздо меньшие деньги. За те же $10k вам доступа к апи хватит надолго, даже на продовый продукт, очень сомневаюсь что в ваш стартап сразу прибегут миллионы пользователей, а привлечь какую-то аудиторию и сделать софт-ланч точно хватит и $10k.
Сейчас предел для энтузиаста это модели 30B. Это влезет на хороший домашний компьютер с 4090 или 5090. Может быть можно замахнуться на 70B, но по видеопамяти вы уже выйдете за пределы 5090 и будет использовать видео-своп(не знаю как правильно называется, подкачку из оперативы), работать будет все равно быстрее чем на любом CPU.
На computex ожидаются релизы видеокарт от интел с 48Гб видеопамяти и может амд чет представит, но ценник все равно будет не маленький это будут тысячи долларов(думаю 5-7). Если счет идет на тысячи долларов то можно думать о NVIDIA RTX PRO 6000(96Gb) - это 70B модели будет тягать очень бодро, ценник около $12k.
Вот и все реалии. А 1,5B даже и не знаю кому и зачем может пригодиться, так поиграться разве что.
tiagon
14.05.2025 10:59я на 4070ti super развернул gemini 27b. работает шустро, но справляется плохо и непонятно зачем оно нужно. даже разворачивал модель на 70b и она все равно справлялась плохо и вдобавок работала на 2 токена в секунду (да, это обычный домашний комп с 64 гигами оперативки). Нормальные, обученные модели - все равно прерогатива больших компаний, которые делятся с тобой частичкой благодати через браузер (для большинства пользователей).
Rezzet
14.05.2025 10:59gemini 27b не самая лучшая модель. Если хотите хорошие локальные модели то это: gemma3:27B, qwen3(чем больше тем лучше), QwQ-32B
melodictsk
14.05.2025 10:59Вот простой способ.
Качаем Lmstudio
Запускаем, из неё выбираем подходящую модель, в том числе и эту.
-
Запускаем и пользуемся хоть локально, хоть через веб.
Делов на 3 минуты в 5 кликов. Дольше модели качать.
mephastopheles
14.05.2025 10:59невероятно полезная а главное нужная статья. спасибо за то что захламляете интернет тоннами шлака
Neikist
14.05.2025 10:59Если есть 30+ гигов RAM то лучше qwen3:30b-a3b использовать. Качество отличное 30b размеру соответствует, и с приемлемой скоростью вообще без GPU работает.
13werwolf13
очередная пустая статья ниочём.
зачем в этой схеме докер, почему webui а не что-то поудобнее, ни слова о производительности, ни сравнения с другими моделями (скорее всего потому что нормальным моделям нужно сиииильно больше памяти)..
мог бы минусануть - минусанул бы
loyal_carner_07
Очевидно же, что статья для новичков. А docker, ollama и openui выбраны как самые простые способы установить ИИ и начать с ней РАБОТАТЬ
MountainGoat
Это сложные способы. Особенно если Докер не стоит уже налаженный и пользоваться им человек не умеет. Простой - это скачать KoboldCPP.EXE и запустить двойным кликом. Всё, никаких окружений, соединений контейнеров и прочего.
Если очень надо на Linux, там есть такой же бинарник.
IgorLutiy
Для новичков LM Studio. Скачал, установил. Скачиваешь из нее же любую модель (на которую хватит ресурсов машины) и пользуешься. Буквально 3-4 клика.
linux-over
Эм. докер - очевидно для того, чтобы не геморроиться настраивать окружение, а скачать его.
Насколько я вижу, гуй к этому - другой докер. Получается всё правильно: нужен модуль - берёшь модуль, нет - нет.
Не очень я понял Вашей гневной реакции и стремления минусовать. Да статья не идеал. Я бы хотел видеть готовые конфиги уровня docker-compose (вместо ручного управления), но даже в таком виде очень хорошо:
я, например, до этой статьи и не задумывался, что можно попробовать подобного уровня вещи запускать на своём ноутбуке. А теперь вот выделю время и поиграю.
То есть у таких статей ценность не только в том, "как настроить", а в том, что посредством их доносится информация о том, что "это вообще возможно".
Я лично плюсанул.
13werwolf13
давайте я сокращу статью:
а уж сколько разных клиентов есть которые будут и проще для новичков и удобнее и легковеснее я наверное промолчу. тем более что львиная доля вообще не будет юзать отдельный клиент а задействует плагин для своей ide.
Ну вот и объясните мне зачем захламлять систему лишними ненужными сервисами, лишним рантаймом и тратить время на написание статьи ниочём?
это не статья для новичков, это статья для отпугивания новичков.
HyperWin
Карма автора такая явно не просто так. Очень понравились фразы про то что DeepSeek не запустится на захламленной системе (шьто? Скачал репу, сбилдил, запустил) и что из артефактов выделил "добре", когда она там сыпет иероглифами и таким подобным. Разрешает пользователю использовать докер без root прав... Зачем??