Автор: Максим Макаров, специалист отдела DevOps компании HOSTKEY
Proxmox VE 9.0 вышел 5 августа 2025 года и принес с собой серьезные изменения: переход на Debian Trixie, снапшоты на LVM thick, обновленный мобильный интерфейс и поддержку добавления дисков в RAIDZ на лету. Версия стала заметно удобнее, но вместе с новыми фичами появились и подводные камни — от переименованных репозиториев до изменений в правах доступа.
Серверы с Proxmox VE 9 |
2. Первый вход. Проверяем узел
3. Сеть. Настраиваем мост vmbr0
5. ISO-образы: загрузка правильно
6. Создаем первую виртуальную машину
В предыдущей статье мы рассказывали, как поднимали Debian 13 и Proxmox VE 9.0 в продакшене со стороны хостинг-провайдера: адаптировали деплой под новую версию дистрибутива, дорабатывали Ansible-плейбуки и решали проблемы с измененной логикой EFI-разделов. Теперь, когда инфраструктура готова и клиенты получают серверы с предустановленным Proxmox 9, самое время разобрать настройку системы с точки зрения конечного пользователя.
При этом базовые вопросы настройки остались прежними, и дл�� новичков они по-прежнему неочевидны. Заказали сервер с предустановленным Proxmox, получили доступ к веб-интерфейсу — и дальше начинается квест. Где настраивать сетевой мост? Куда правильно загружать ISO-образы? Почему виртуальная машина не видит диск или не может выйти в интернет? Документация Proxmox подробная, но разбросана по разным разделам, а на поиск нужной информации уходят часы.
Этот гайд собирает всё необходимое для быстрого старта: от первого входа до создания рабочих VM и контейнеров. Пошаговые инструкции, готовые команды и решения частых проблем: настройка vmbr0 без потери доступа, подключение хранилищ, установка Ubuntu и Windows с VirtIO-драйверами, профили виртуальных машин. Плюс шпаргалка по диагностике и финальный чек-лист. Материал получился объемный, но он поможет вам в дальнейшем.
1. Оформление заказа
Начинаем с регистрации в панели управления оборудованием invapi.hostkey.ru и пополнения баланса. Дальше переходим в раздел «Новый сервер» и выбираем регион размещения сервера:

Важно: Proxmox требователен к ресурсам, особенно если планируете запускать несколько виртуальных машин. На минимальных конфигурациях с 2 ГБ оперативной памяти работать будет некомфортно. Рекомендую сразу выбирать Storage, Storage-Optimized VPS или Bare-metal — виртуализация любит мощность.
Выбрали подходящую конфигурацию — нажимаем «Заказать». Откроется окно с преднастройками сервера:

Здесь система сгенерирует пароль для root-доступа (также можно задать свой пароль). Сохраните его в менеджер паролей — без него в систему не попасть.
Дальше выбираем способ установки операционной системы. Доступны два варианта, и между ними есть важные различия.
Вариант А: Proxmox как панель управления
Сначала устанавливается чистый Debian, а Proxmox разворачивается поверх него как панель управления. Получается стандартный Debian с веб-интерфейсом для виртуализации:

Преимущество этого варианта — доменная ссылка для доступа к интерфейсу. Удобно, если не хочется запоминать IP-адрес.
Вариант Б: Proxmox как операционная система
Второй путь — установка Proxmox сразу в качестве основной ОС. Этот вариант доступен только для Bare Metal, GPU и vGPU серверов.

Важный момент: при таком подходе дополнительную панель управления выбирать не нужно. Просто нажать кнопку «Заказать» >> Оплатить >> Дождаться завершения установки.
При выборе этого варианта доменная ссылка недоступна. Веб-интерфейс работает только по прямому адресу: https://ваш_IP:8006. IP-адрес всегда можно посмотреть в карточке сервера в панели управления или сохранить в закладки.
Вне зависимости от выбранного варианта, после оплаты сервер появится в списке в панели управления:

Остается дождаться завершения установки, после чего на указанную при регистрации почту придет письмо с учетными данными для доступа к серверу. В нем будут логин, пароль и ссылка на панель управления.
По умолчанию для входа используется учетная запись root с паролем, который вы указали на этапе оформления заказа. Если выбирали вариант установки с Proxmox в качестве панели управления — в письме будет доменная ссылка для доступа к веб-интерфейсу. Если ставили Proxmox как операционную систему — доступ будет по адресу https://IP_вашего_сервера:8006.
Сохраните это письмо или перенесите данные в менеджер паролей. IP-адрес, логин и пароль понадобятся как для входа в веб-интерфейс Proxmox, так и для подключения по SSH, если потребуется работать через консоль.
Теперь можно переходить к первому входу в систему и базовой настройке.
2. Первый вход. Проверяем узел
После получения данных для доступа открываем браузер и переходим по адресу https://<IP-сервера>:8006. В форме авторизации вводим логин root и пароль, который задавали при заказе:

После успешного входа первым делом стоит проверить состояние сервера. Переходим в раздел Datacenter >> Node >> Summary. Здесь отображается основная информация: загрузка CPU, использование оперативной памяти, состояние дисков и время работы (аптайм). Если всё в порядке — значения должны быть адекватными, без критических предупреждений:

Отключение enterprise-репозитория
Если у вас нет платной подписки Proxmox (а у большинства ее нет), необходимо отключить enterprise-репозиторий. Иначе при попытке обновления системы будете получать ошибки о недоступности репозитория.
Переходим в Node >> Repositories и отключаем pve-enterprise (кнопка «Disable»). Оставляем активным только pve-no-subscription — это бесплатный репозиторий для обновлений:

Альтернативный способ через консоль:
sed -i 's/^deb/#deb/g' /etc/apt/sources.list.d/pve-enterprise.list || true
apt update
Эта команда закомментирует строку с enterprise-репозиторием и обновит список пакетов. После ее выполнения система перестанет ругаться на недоступный репозиторий.
3. Сеть. Настраиваем мост vmbr0
Сетевой мост vmbr0 — это ключевой элемент сетевой конфигурации Proxmox. По сути, это виртуальный коммутатор, к которому подключаются все виртуальные машины и контейнеры. Мост связывает виртуальные интерфейсы с физическим сетевым адаптером сервера (обычно это ens18, eno1 или eth0).
Настройка через веб-интерфейс
Переходим в Node >> System >> Network. Здесь отображаются все сетевые интерфейсы сервера:

В большинстве случаев мост vmbr0 уже создан автоматически при установке. Проверьте его наличие и настройки. Если моста нет или его нужно пересоздать — нажимаем Create >> Linux Bridge и заполняем параметры:
Name: vmbr0
IPv4/CIDR: если у сервера статический IP - указываем его в формате 192.168.1.10/24. Если используется DHCP - оставляем поле пустым.
Gateway (IPv4): адрес шлюза, обычно это первый IP в подсети (например, 192.168.1.1). При DHCP тоже оставляем пустым.
Bridge ports: здесь указываем физический сетевой интерфейс, к которому привязывается мост. Проверьте название в списке интерфейсов - это может быть ens18, ens1, eno1 или eth0.
После заполнения сохраняем настройки и нажимаем Ok для применения изменений:

Настройка через CLI (если потеряли доступ к веб-интерфейсу)
Иногда после неправильной правки сетевых настроек можно потерять доступ к веб-интерфейсу. В таком случае подключаемся к серверу через SSH или через удаленную консоль управления и правим конфигурацию вручную.
Открываем файл /etc/network/interfaces:
# Пример конфигурации для статического IP
auto lo
iface lo inet loopback
auto ens18
iface ens18 inet manual
auto vmbr0
iface vmbr0 inet static
address 192.0.2.10/24
gateway 192.0.2.1
bridge-ports ens18
bridge-stp off
bridge-fd 0
После правки применяем изменения:
ifreload -a
Если сервер получает IP по DHCP, замените строку iface vmbr0 inet static на iface vmbr0 inet dhcp и удалите строки с address и gateway. Система автоматически получит настройки от DHCP-сервера.
Частые ошибки при настройке сети
Неправильно указан bridge-ports
Самая распространенная проблема - указан не тот физический интерфейс в параметре bridge-ports. Например, указали ens18, а на самом деле интерфейс называется eno1. Результат - полная потеря сетевого доступа к серверу.
Решение: подключитесь через консоль провайдера (VNC/IPMI), проверьте реальное название интерфейса командой ip a, исправьте bridge-ports в конфигурации и выполните ifreload -a.
Неверный шлюз или подсеть
Если указали неправильный адрес шлюза или маску подсети - локальная связь между сервером и устройствами в той же сети будет работать, но доступа в интернет не будет.
Решение: уточните у провайдера правильные параметры сети (IP, маску, шлюз) и пропишите их корректно. Проверить текущие настройки можно командами ip a (адрес и маска) и ip r (шлюз).
4. Диски и хранилища
После базовой настройки сети стоит разобраться с дисковым пространством. По умолчанию Proxmox использует системный диск для хранения виртуальных машин, но если у сервера есть дополнительные диски - их можно и нужно задействовать под хранилища для ВМ и контейнеров.
Добавление второго диска под хранилище ВМ
Переходим в Node >> Disks и проверяем, что новый диск определился в системе. Обычно это sdb, sdc и так далее, в зависимости от количества дисков:

Для подключения диска есть два основных подхода, каждый со своими плюсами:
Вариант A: LVM-Thin (рекомендуется для большинства случаев)
LVM-Thin позволяет создавать снапшоты виртуальных машин - это удобно для бэкапов и тестирования. Диски виртуальных машин выделяются динамически, то есть занимают только реально используемое пространство.
Переходим в Disks >> LVM-Thin >> Create. Выбираем нужный диск, задаем имя Volume Group (например, pve2) и имя thin-pool (например, data2):

После создания новое хранилище автоматически появится в списке Datacenter >> Storage и будет доступно для размещения дисков виртуальных машин:

Вариант B: Directory (простое файловое хранилище)
Второй вариант - создать обычную файловую систему и использовать ее как директорию для хранения. Подходит, если не нужны снапшоты или если планируется использовать ZFS.
Создаем файловую систему через интерфейс (Disks >> ZFS) или вручную командой mkfs.ext4, затем монтируем диск в каталог /mnt/название:

После монтирования переходим в Datacenter >> Storage >> Add >> Directory. Указываем путь к примонтированному каталогу (например, /mnt/data) и отмечаем галочками типы контента, которые будут храниться: Disk image (диски ВМ), ISO image (образы) и другие при необходимости.
Совет по выбору типа хранилища:
Если у сервера достаточно оперативной памяти (от 8 ГБ и выше) и нужна продвинутая файловая система с проверкой целостности данных - выбирайте ZFS. Она хороша для production-окружений, но требовательна к ресурсам.
Для VPS с ограниченной памятью лучше использовать LVM-Thin или простую Directory с ext4. Эти варианты менее требовательны и работают стабильно даже на минимальных конфигурациях.
5. ISO-образы: загрузка правильно
Для установки операционных систем на виртуальные машины понадобятся ISO-образы. Proxmox позволяет загружать их двумя способами.
Способ A: Через веб-интерфейс
Самый простой вариант - загрузить ISO напрямую через браузер.
Переходим в Datacenter >> Storage >> выбираем хранилище с типом ISO (обычно это local) >> Content. Нажимаем кнопку Upload, выбираем нужный ISO-файл на локальном компьютере (например, ubuntu-25.10-live-server-amd64.iso) и ждем завершения загрузки:

Скорость загрузки зависит от вашего интернет-канала. Для больших образов (особенно Windows, которые весят 4-5 ГБ) процесс может занять продолжительное время.
Способ B: Через командную строку
Если у сервера быстрый канал, а у вас медленный домашний интернет - логичнее скачать ISO напрямую на сервер. Подключаемся по SSH и выполняем команды:
# Переходим в каталог для ISO-образов
cd /var/lib/vz/template/iso
# Скачиваем образ Ubuntu 25.10
wget https://releases.ubuntu.com/25.10/ubuntu-25.10-live-server-amd64.iso
Образ будет скачан на сервер и сразу появится в списке доступных ISO.
Если ISO не появляется в списке
Иногда после загрузки образ не отображается в веб-интерфейсе. В та��ой ситуации стоит проверить два момента:
Файл действительно лежит в правильной папке - /var/lib/vz/template/iso для хранилища local;
У хранилища включен тип контента ISO Image (проверить можно в Datacenter >> Storage >> выбрать хранилище >> Content).
Если все на месте, но образ все равно не виден - попробуйте обновить список через кнопку Refresh в интерфейсе или перезапустите веб-службы Proxmox командой systemctl restart pveproxy.
6. Создаем первую виртуальную машину
Теперь, когда инфраструктура настроена, можно переходить к главному - созданию виртуальных машин. Начнем с классического примера: Ubuntu Server 25.10 на конфигурации с 2 vCPU.
В правом верхнем углу интерфейса нажимаем кнопку Create VM:

Откроется мастер создания виртуальной машины. Проходим по всем вкладкам:
General (Общие настройки)
ID можно оставить по умолчанию - Proxmox сам подберет свободный номер. В поле Name задаем понятное имя, например ubuntu2510:

OS (Операционная система)
Выбираем загруженный ранее ISO-образ ubuntu-25.10-live-server-amd64.iso. В поле Type указываем Linux - Proxmox автоматически подберет оптимальные параметры виртуального железа под Linux-системы:

System (Системные параметры)
Здесь задаются параметры виртуального железа:
Graphics card: оставляем Default;
BIOS: выбираем OVMF (UEFI) - современный стандарт загрузки;
Machine: q35 - эмуляция современного чипсета;
SCSI Controller: VirtIO SCSI single - оптимизированный контроллер дисков для виртуализации.
Qemu Agent пока не трогаем - включим его после установки системы:

Disks (Диски)
Настраиваем виртуальный диск для системы:
Bus/Device: SCSI
SCSI Controller: VirtIO SCSI single
Storage: выбираем созданное ранее хранилище (LVM-Thin или Directory)
Size: для тестов хватит 20 ГБ, для рабочих систем лучше 40 ГБ и больше
Discard (TRIM): включаем, если используется thin-пул - позволит освобождать место на хосте при удалении файлов в гостевой системе

CPU (Процессор)
Распределяем вычислительные ресурсы:
Sockets: 1 (количество процессорных сокетов);
Cores: 2 (количество ядер на сокет);
Type: host - пробрасывает реальные инструкции процессора, дает максимальную производительность.

Memory (Оперативная память)
Для Ubuntu Server достаточно 2048-4096 МБ. Можно включить Ballooning - технологию динамического выделения памяти. Например, Min 1024, Max 4096 - система будет использовать от 1 до 4 ГБ в зависимости от нагрузки:

Network (Сеть)
Настраиваем сетевой адаптер:
Model: VirtIO (paravirtualized) - оптимизированный сетевой драйвер для виртуализации;
Bridge: vmbr0 - подключаем к настроенному ранее мосту;
VLAN Tag: оставляем пустым, если не используете VLAN:

Confirm (Подтверждение)
Проверяем все параметры и ставим галочку в чекбоксе Start after created, затем Finish:

Установка операционной системы
Виртуальная машина создана, но пока пуста. Запускаем ее кнопкой Start и открываем Console (noVNC) для доступа к виртуальному монитору. Появится загрузочное меню Ubuntu - выбираем Try or Install Ubuntu:

Установщик Ubuntu довольно простой:
Настройка сети - если используется DHCP, адрес получится автоматически. Для статического IP нужно указать параметры вручную;
Выбор диска - Use entire disk, система использует весь виртуальный диск;
Создание пользователя - задаем имя, логин и пароль;
Дополнительные пакеты - обязательно отмечаем Install OpenSSH server для удаленного доступа.
После установки система предложит перезагрузиться. Можно зайти как через консоль, так и по SSH с использованием созданной учетной записи.
Настройка после установки
После первого входа выполняем обновление системы и устанавливаем гостевой агент:
# Обновление списка пакетов и установка всех доступных обновлений системы
sudo apt update && sudo apt -y full-upgrade
# Установка агента QEMU для улучшенного взаимодействия с гипервизором
sudo apt -y install qemu-guest-agent
# Включение и немедленный запуск службы qemu-guest-agent
sudo systemctl enable --now qemu-guest-agent
Qemu Guest Agent - это служба, улучшающая взаимодействие между хостом и гостевой системой. Благодаря ей Proxmox получает прямой доступ к гостевой ОС: может корректно завершать работу системы через системные вызовы, видеть реальные IP-адреса и выполнять команды внутри ВМ.
После установки агента в гостевой системе включаем его в настройках виртуальной машины: VM >> Options >> Qemu Agent = Enabled:

Настройка порядка загрузки
Если после перезагрузки виртуальная машина снова загружается с ISO вместо установленной системы, нужно поправить Boot Order. Переходим в Options >> Boot Order и перетаскиваем scsi0 (жесткий диск) выше cdrom. Теперь система будет грузиться с диска, а не с установочного образа.
6.1 Установка Windows (для более мощных узлов)
Windows Server требует больше ресурсов, чем Linux. Для комфортной работы понадобится минимум 4 vCPU и 8 ГБ RAM. На слабых конфигурациях Windows будет тормозить при любой нагрузке: от обновлений до простого открытия Server Manager.
Подготовка ISO-образов
Для установки Windows понадобятся два образа:
Установочный ISO Windows Server (2019, 2022 или 2025)
virtio-win.iso - пакет драйверов для паравиртуализированного оборудования (диски, сеть, память).
Загружаем оба образа в Storage >> Content:

Создание виртуальной машины
Нажимаем Create VM и заполняем параметры:
OS: выбираем тип Microsoft Windows и установочный ISO. Ставим галочку «Add additional drive for VirtIO drivers» - она автоматически подключит второй виртуальный CD-ROM с драйверами virtio-win. Без этого на этапе выбора диска установщик не увидит VirtIO SCSI контроллер:

System:
BIOS: OVMF (UEFI);
Machine: q35;
Add EFI Disk: включаем для современных версий Windows;
Add TPM: включаем для Windows 11 и Windows Server 2025.
При проблемах с загрузкой (черный экран, отсутствие реакции) измените тип BIOS с OVMF на SeaBIOS и отключите EFI/TPM в настройках виртуальной машины. Некоторые образы Windows Server требуют legacy-загрузку для стабильной работы:

Disks:
Bus: SCSI;
Controller: VirtIO SCSI;
Size: 40-80 ГБ (Windows любит место);
IO Threads: включить для улучшения производительности дисковой подсистемы:

CPU: 2-4 vCPU, Type: host:

Memory: 4-8 ГБ:

Network: Model VirtIO, Bridge - vmbr0:

После создания ВМ переходим в Hardware >> CD/DVD Drive и подключаем второй ISO-образ virtio-win.iso. Теперь у виртуальной машины два виртуальных CD-привода: один с установщиком Windows, второй с драйверами:

Установка Windows
Запускаем виртуальную машину и открываем консоль. Установщик Windows загрузится, но на этапе выбора диска ничего не обнаружит - это нормально. Дело в том, что Windows не содержит драйверов для VirtIO-контроллера.
Нажимаем Load driver и указываем второй CD-привод с VirtIO. В списке выбираем vioscsi или viostor - драйвер дискового контроллера. После этого диск появится в списке и установка продолжится как обычно:

После установки системы откройте Диспетчер устройств и найдите сетевой адаптер. Вероятнее всего, он будет отмечен желтым восклицательным знаком - Windows не распознала устройство автоматически. Устанавливаем драйвер NetKVM вручную с того же virtio-win ISO, который подключен как второй CD-привод.
Гостевой агент для Windows
Для улучшения интеграции с Proxmox можно установить Qemu Guest Agent для Windows. Он находится на том же virtio-win ISO, файл guest-agent/qemu-ga-x86_64.msi. Запускаем установщик и перезагружаем систему:

После установки не забудьте включить Qemu Agent в настройках ВМ: Options >> Qemu Agent = Enabled.
Типичные проблемы с Windows
Черный экран или не грузится
Самая частая причина - несовместимость UEFI с конкретным образом. Решение: пересоздайте ВМ с BIOS: SeaBIOS вместо OVMF, отключите Add EFI Disk и Add TPM.
Нет сети после установки
Проверьте два момента: сетевая карта должна быть Model: VirtIO, и в гостевой системе должен быть установлен драйвер NetKVM из virtio-win.
Медленная работа дисков
Убедитесь, что используется Bus: SCSI с VirtIO контроллером и что драйвер vioscsi установлен в гостевой системе. Также включите IO Threads в настройках диска.
6.2 LXC-контейнеры
Помимо VM в Proxmox доступны LXC-контейнеры - легковесная альтернатива полной виртуализации. Используют ядро хоста напрямую, стартуют за секунды и потребляют минимум ресурсов. Оптимальны для простых изолированных сервисов: веб-серверы, базы данных, прокси.
Загрузка шаблона контейнера
Сначала нужно скачать готовый шаблон операционной системы. Переходим в Datacenter >> Storage >> выбираем хранилище с типом Container Templates (обычно это local) >> Content >> Templates.
Выбираем нужный шаблон, например ubuntu-25.04-standard и скачиваем его. Шаблоны весят немного - обычно 100-200 МБ:

Создание контейнера
Нажимаем Create CT в правом верхнем углу.
General:
ID и Name задаем по аналогии с ВМ;
Unprivileged container: оставляем включенным - это безопаснее. Непривилегированный контейнер изолирован от хостовой системы;
Password: задаем пароль для root или добавляем SSH-ключ:

Template: выбираем скачанный ранее шаблон:

Disks: указываем хранилище и размер. Для тестов хватит 8 ГБ, для рабочих контейнеров - 20 ГБ:

CPU/RAM: контейнеры очень экономичны. Для простых задач достаточно 1 vCPU и 1-2 ГБ RAM:

Network:
Bridge: vmbr0 (или vmbr1, если используете NAT);
IPv4: DHCP для автоматического получения адреса, или Static для ручной настройки;
VLAN Tag при необходимости.
Если планируете использовать NAT на отдельном мосту vmbr1, укажите этот мост и настройте статический IP из внутренней подсети:

DNS: по умолчанию контейнер использует DNS-настройки хоста, но можно указать свои серверы:

Features: дополнительные возможности контейнера
nesting: разрешает запуск контейнеров внутри контейнера (Docker, LXC);
fuse: поддержка файловой системы FUSE;
keyctl: нужен для некоторых приложений, работающих с ключами.
Включайте эти опции только если приложению они действительно нужны.
Также можно настроить автозапуск контейнера при загрузке хоста: Start at boot и Start after created.
Работа с контейнером
После создания запускаем контейнер и подключаемся через консоль или SSH. Обновляем систему:
apt update && apt -y upgrade |

Дальше устанавливаем нужное программное обеспечение стандартными пакетными менеджерами.
Важные отличия от виртуальных машин:
В контейнерах не нужен Qemu Guest Agent - они напрямую интегрированы с хостом;
Монтирование каталогов с хоста делается через Mount Points (MP) в настройках контейнера;
Контейнеры используют ядро хоста, поэтому нельзя запустить другую ОС (например, Windows в Linux-контейнере);
Потребление ресурсов минимально - можно запустить десятки контейнеров на одном сервере.
7. Резервные копии и шаблоны
Настройка бэкапов - критически важная задача, которую легко отложить «на потом». Не повторяйте чужих ошибок.
Автоматическое резервное копирование
Proxmox включает встроенный инструмент vzdump для создания резервных копий. Настраивается через Datacenter >> Backup или Node >> Backup:

При создании задачи резервного копирования указываем:
1. Хранилище - куда сохранять бэкапы. Важно: не храните бэкапы на том же LVM thin-пуле, где работают виртуальные машины. Используйте отдельный диск или сетевое хранилище.
2. Расписание - когда делать бэкапы. Обычно настраивают ночные копии, когда нагрузка минимальна.
3. Режим:
snapshot - создает снапшот «на лету», ВМ продолжает работать. Быстро, но требует поддержки снапшотов в хранилище (LVM-Thin, ZFS);
stop - останавливает ВМ, делает копию, запускает обратно. Медленнее, но гарантирует консистентность данных.
Шаблоны виртуальных машин
Если нужно разворачивать однотипные ВМ, используйте шаблоны. Процесс простой:
Создаете виртуальную машину;
Устанавливаете ОС;
Настраиваете все необходимое (пакеты, конфигурации);
Выключаете ВМ;
Правой кнопкой >> Convert to Template:

Теперь эту ВМ нельзя запустить, но можно клонировать. Клонирование через нажатие правой кнопки мыши >> Clone занимает секунды и создает полноценную копию со всеми настройками. Это экономит время и исключает ошибки при ручной настройке.
Заключение
Proxmox VE 9 после базовой настройки становится надежной основой для виртуальной инфраструктуры любого масштаба. Мы прошли путь от первого входа до запуска VM и контейнеров, разобрались с сетью, хранилищами и резервным копированием.
Большинство проблем возникает на старте: ошибка в имени интерфейса при настройке моста оставит без доступа, забытые VirtIO-драйверы превратят установку Windows в квест, переполненный корневой раздел остановит все службы. Действуйте последовательно, проверяйте результат каждого шага - и все заработает.
Официальная документация Proxmox детальная, но требует времени на навигацию. Эта инструкция собирает необходимое для старта с акцентом на практику и решение реальных проблем. Дальше - набивайте руку на собственных проектах и экспериментируйте с тестовыми машинами. При нестандартных ситуациях обращайтесь к официальной wiki Proxmox.
Серверы с Proxmox VE 9 |
4kirill20
Пригодится, спасибо