Дисклеймер

Я пишу эту статью, как туториал для себя (на случай, если придётся переустанавливать) и для друзей. Все это, конечно же, можно нагуглить, но только что уже это сделал, погуглил, початогепетил и собрал результаты в виде одной инструкции. Возможно, кому-то полезно будет.

Я не являюсь опытным пользователем нейросетей, это мой первый опыт установки и использования, но он может быть полезен, т.к. я прошелся по граблям и нашёл рабочий вариант. Советы и указания на косяки приветствуются.

Подготовка

Мои исходные данные: OS: Linux Mint 22 x86_64, GPU: NVIDIA 5070 Ti, установлен NVIDIA driver 570.153.02.

Сначала проверяем, что установлен Python ≥ 3.9:

python3 --version

и устанавливаем необходимые пакеты:

sudo apt update
sudo apt install python3-pip python3-venv git cmake xdg-utils

Проверяем корректную работу GPU командой:

$ nvidia-smi
Sat Jun 21 11:07:37 2025       
+-----------------------------------------------------------------------------------------+
| NVIDIA-SMI 570.153.02             Driver Version: 570.153.02     CUDA Version: 12.8     |
|-----------------------------------------+------------------------+----------------------+
| GPU  Name                 Persistence-M | Bus-Id          Disp.A | Volatile Uncorr. ECC |
| Fan  Temp   Perf          Pwr:Usage/Cap |           Memory-Usage | GPU-Util  Compute M. |
|                                         |                        |               MIG M. |
|=========================================+========================+======================|
|   0  NVIDIA GeForce RTX 5070 Ti     Off |   00000000:01:00.0  On |                  N/A |
|  0%   51C    P5             34W /  300W |    1443MiB /  16303MiB |     21%      Default |
|                                         |                        |                  N/A |
+-----------------------------------------+------------------------+----------------------+

Нам нужно убедиться, что отображается CUDA, и устройство определяется.

Установка

Дальше будем всё ставить с помощью Comfy CLI, насколько я понял, это рекомендованный способ.

Создаём и активируем виртуальное окружение:

python3 -m venv comfy-env
source comfy-env/bin/activate

Ставим Comfy CLI:

pip install comfy-cli

Ставим сам ComfyUI

comfy install

Ставим PyTorch с поддержкой CUDA

Важно подобрать правильный индекс-URL для вашей CUDA. Я, конечно же, по совету ChatGPT поставил не ту версию и ничего не заработало. Для CUDA Version: 12.8 правильный вариант такой:

pip install --pre torch torchvision torchaudio --index-url https://download.pytorch.org/whl/nightly/cu128

Нашёл это решение тут https://github.com/comfyanonymous/ComfyUI/issues/7127#issuecomment-2746096337

Проверяем GPU на Python, предварительно убедившись, что используем правильное окружение

$ which python
<home>/comfy-env/bin/python
$ python
Python 3.12.3 (main, May 26 2025, 18:50:19) [GCC 13.3.0] on linux
Type "help", "copyright", "credits" or "license" for more information.
>>> import torch
>>> print(torch.cuda.is_available())
True
>>> print(torch.version.cuda)
12.8
>>> 

Ставим модели Stable Diffusion

comfy model download --url <URL> --relative-path models/checkpoints

Я сразу поставил sd_xl_base_1.0.safetensors и sd_xl_refiner_1.0.safetensors Зачем нужен refiner и как его использовать, напишу позже, я пока играюсь и заметку по этому поводу ещё не доделал.

Запускаем ComfyUI

comfy launch

В браузере идём сюда:

http://localhost:8188

Выбираем базовый шаблон workflow по генерации изображения, указываем скачанную модель, убеждаемся, что всё работает:

Только работать оно будет до первой перезагрузки, что не очень здорово. Исправим это.

Systemd‑сервис для ComfyUI

Создаём сервис

sudo vim /etc/systemd/system/comfyui.service

с таким содержимым:

[Unit]
Description=ComfyUI Stable Diffusion Server
After=network-online.target
Wants=network-online.target

[Service]
Type=simple
User=<user>
WorkingDirectory=<home>/comfy/ComfyUi
ExecStart=<home>/comfy/start-comfyui.sh
Restart=always
RestartSec=5

[Install]
WantedBy=multi-user.target

Создаём скрипт start-comfyui.sh

#!/bin/bash

source <home>/comfy-env/bin/activate
cd <home>/comfy/ComfyUi
exec python main.py --listen 0.0.0.0

Делаем его исполняемым

chmod +x ~/comfy/start-comfyui.sh

Активируем сервис

sudo systemctl daemon-reload
sudo systemctl enable comfyui
sudo systemctl start comfyui

и проверяем, что всё работает

$ systemctl status comfyui
● comfyui.service - ComfyUI Stable Diffusion Server
     Loaded: loaded (/etc/systemd/system/comfyui.service; enabled; preset: enabled)
     Active: active (running) since Tue 2025-06-17 15:12:03 CST; 3 days ago
   Main PID: 2127 (python)
      Tasks: 63 (limit: 76101)
     Memory: 16.4G (peak: 16.8G swap: 91.5M swap peak: 177.9M)
        CPU: 4min 5.076s
     CGroup: /system.slice/comfyui.service
             └─2127 python main.py --listen 0.0.0.0

По умолчанию ComfyUI запускается на порту 8188, поменять можно, указав параметр --port.

Если после перезагрузки или вообще что-то идёт не так, как запланировано

Проверяем, что сервис живой:

systemctl is-active comfyui

и смотрим последние логи, например, так:

journalctl -u comfyui --since "15 minutes ago"

На этом пока всё. Замечаниям, уточнениям, советам всегда рад.

Комментарии (4)


  1. turbo_f
    22.06.2025 07:05

    Вы используете его буквально как сервис для локальной сети? Для чего ещё его кидать в автозагрузку?)

    Стоит Fooocus (для быстрых вещей) и Stable Diffusion (для чего-то по-сложнее), каждый раз необходимо активировать окружение, это же нормально вроде бы)


    1. Moog_Prodigy
      22.06.2025 07:05

      Когда это на рабочем компе - ну терпимо, а когда это на локальном же сервере - уже вымораживает каждый раз по удаленке туда цепляться и активировать для каждого своё. Обычно если они там запущены и апи торчат в локалку - ну ладно, до первой перезагрузки)


  1. NaClO
    22.06.2025 07:05

    Важно подобрать правильный индекс-URL для вашей CUDA. Я, конечно же, по совету поставил не ту версию и ничего не заработало.

    Нашёл это решение тут https://github.com/comfyanonymous/ComfyUI/issues/7127#issuecomment-2746096337

    Хм… Зачем мучить ChatGPT?

    1. Заходим на https://pytorch.org/

    2. Листаем вниз до раздела «Install PyTorch».

    3. Указываем желаемые параметры (для Вашего случая: PyTorch Build — Stable, Your OS — Linux, Package — pip, Language — Python, Compute Platform — CUDA 12.8).

    4. В строке «Run this Command» получаем готовую команду (с указанными выше параметрами, pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128)


  1. foxairman
    22.06.2025 07:05

    Привет, спасибо за гайд!

    На мой взгляд удобнее разворачивать это в docker compose с проброской gpu. Модели можно скачивать через ComfyUI‑Manager (правда некоторые придется скачивать напрямую в контейнер). Можно будет открыть порт и подключаться с другого ПК или смартфона через браузер.

    Я пробовал пример из этого репозитория, но мне нужно было запустить все на cpu (не советую, все очень медленно генерируется, просто тестил возможность).