Автор: Максим Макаров, специалист отдела DevOps компании HOSTKEY

Proxmox VE 9.0 вышел 5 августа 2025 года и принес с собой серьезные изменения: переход на Debian Trixie, снапшоты на LVM thick, обновленный мобильный интерфейс и поддержку добавления дисков в RAIDZ на лету. Версия стала заметно удобнее, но вместе с новыми фичами появились и подводные камни — от переименованных репозиториев до изменений в правах доступа.

Серверы с Proxmox VE 9
Выделенные серверы и VPS с предустановленным Proxmox VE 9

Выбрать

1. Оформление заказа

2. Первый вход. Проверяем узел

3. Сеть. Настраиваем мост vmbr0

4. Диски и хранилища

5. ISO-образы: загрузка правильно

6. Создаем первую виртуальную машину

7. Резервные копии и шаблоны

Заключение

В предыдущей статье мы рассказывали, как поднимали Debian 13 и Proxmox VE 9.0 в продакшене со стороны хостинг-провайдера: адаптировали деплой под новую версию дистрибутива, дорабатывали Ansible-плейбуки и решали проблемы с измененной логикой EFI-разделов. Теперь, когда инфраструктура готова и клиенты получают серверы с предустановленным Proxmox 9, самое время разобрать настройку системы с точки зрения конечного пользователя.

При этом базовые вопросы настройки остались прежними, и дл�� новичков они по-прежнему неочевидны. Заказали сервер с предустановленным Proxmox, получили доступ к веб-интерфейсу — и дальше начинается квест. Где настраивать сетевой мост? Куда правильно загружать ISO-образы? Почему виртуальная машина не видит диск или не может выйти в интернет? Документация Proxmox подробная, но разбросана по разным разделам, а на поиск нужной информации уходят часы.

Этот гайд собирает всё необходимое для быстрого старта: от первого входа до создания рабочих VM и контейнеров. Пошаговые инструкции, готовые команды и решения частых проблем: настройка vmbr0 без потери доступа, подключение хранилищ, установка Ubuntu и Windows с VirtIO-драйверами, профили виртуальных машин. Плюс шпаргалка по диагностике и финальный чек-лист. Материал получился объемный, но он поможет вам в дальнейшем.

1. Оформление заказа

Начинаем с регистрации в панели управления оборудованием invapi.hostkey.ru и пополнения баланса. Дальше переходим в раздел «Новый сервер» и выбираем регион размещения сервера:

Важно: Proxmox требователен к ресурсам, особенно если планируете запускать несколько виртуальных машин. На минимальных конфигурациях с 2 ГБ оперативной памяти работать будет некомфортно. Рекомендую сразу выбирать Storage, Storage-Optimized VPS или Bare-metal — виртуализация любит мощность.

Выбрали подходящую конфигурацию — нажимаем «Заказать». Откроется окно с преднастройками сервера:

Здесь система сгенерирует пароль для root-доступа (также можно задать свой пароль). Сохраните его в менеджер паролей — без него в систему не попасть.

Дальше выбираем способ установки операционной системы. Доступны два варианта, и между ними есть важные различия.

Вариант А: Proxmox как панель управления

Сначала устанавливается чистый Debian, а Proxmox разворачивается поверх него как панель управления. Получается стандартный Debian с веб-интерфейсом для виртуализации:

Преимущество этого варианта — доменная ссылка для доступа к интерфейсу. Удобно, если не хочется запоминать IP-адрес.

Вариант Б: Proxmox как операционная система

Второй путь — установка Proxmox сразу в качестве основной ОС. Этот вариант доступен только для Bare Metal, GPU и vGPU серверов.

Важный момент: при таком подходе дополнительную панель управления выбирать не нужно. Просто нажать кнопку «Заказать» >> Оплатить >> Дождаться завершения установки.

При выборе этого варианта доменная ссылка недоступна. Веб-интерфейс работает только по прямому адресу: https://ваш_IP:8006. IP-адрес всегда можно посмотреть в карточке сервера в панели управления или сохранить в закладки.

Вне зависимости от выбранного варианта, после оплаты сервер появится в списке в панели управления:

Остается дождаться завершения установки, после чего на указанную при регистрации почту придет письмо с учетными данными для доступа к серверу. В нем будут логин, пароль и ссылка на панель управления.

По умолчанию для входа используется учетная запись root с паролем, который вы указали на этапе оформления заказа. Если выбирали вариант установки с Proxmox в качестве панели управления — в письме будет доменная ссылка для доступа к веб-интерфейсу. Если ставили Proxmox как операционную систему — доступ будет по адресу https://IP_вашего_сервера:8006.

Сохраните это письмо или перенесите данные в менеджер паролей. IP-адрес, логин и пароль понадобятся как для входа в веб-интерфейс Proxmox, так и для подключения по SSH, если потребуется работать через консоль.

Теперь можно переходить к первому входу в систему и базовой настройке.

2. Первый вход. Проверяем узел

После получения данных для доступа открываем браузер и переходим по адресу https://<IP-сервера>:8006. В форме авторизации вводим логин root и пароль, который задавали при заказе:

После успешного входа первым делом стоит проверить состояние сервера. Переходим в раздел Datacenter >> Node >> Summary. Здесь отображается основная информация: загрузка CPU, использование оперативной памяти, состояние дисков и время работы (аптайм). Если всё в порядке — значения должны быть адекватными, без критических предупреждений:

Отключение enterprise-репозитория

Если у вас нет платной подписки Proxmox (а у большинства ее нет), необходимо отключить enterprise-репозиторий. Иначе при попытке обновления системы будете получать ошибки о недоступности репозитория.

Переходим в Node >> Repositories и отключаем pve-enterprise (кнопка «Disable»). Оставляем активным только pve-no-subscription — это бесплатный репозиторий для обновлений:

Альтернативный способ через консоль:

sed -i 's/^deb/#deb/g' /etc/apt/sources.list.d/pve-enterprise.list || true
apt update

Эта команда закомментирует строку с enterprise-репозиторием и обновит список пакетов. После ее выполнения система перестанет ругаться на недоступный репозиторий.

3. Сеть. Настраиваем мост vmbr0

Сетевой мост vmbr0 — это ключевой элемент сетевой конфигурации Proxmox. По сути, это виртуальный коммутатор, к которому подключаются все виртуальные машины и контейнеры. Мост связывает виртуальные интерфейсы с физическим сетевым адаптером сервера (обычно это ens18, eno1 или eth0).

Настройка через веб-интерфейс

Переходим в Node >> System >> Network. Здесь отображаются все сетевые интерфейсы сервера:

В большинстве случаев мост vmbr0 уже создан автоматически при установке. Проверьте его наличие и настройки. Если моста нет или его нужно пересоздать — нажимаем Create >> Linux Bridge и заполняем параметры:

  • Name: vmbr0

  • IPv4/CIDR: если у сервера статический IP - указываем его в формате 192.168.1.10/24. Если используется DHCP - оставляем поле пустым.

  • Gateway (IPv4): адрес шлюза, обычно это первый IP в подсети (например, 192.168.1.1). При DHCP тоже оставляем пустым.

  • Bridge ports: здесь указываем физический сетевой интерфейс, к которому привязывается мост. Проверьте название в списке интерфейсов - это может быть ens18, ens1, eno1 или eth0.

После заполнения сохраняем настройки и нажимаем Ok для применения изменений:

Настройка через CLI (если потеряли доступ к веб-интерфейсу)

Иногда после неправильной правки сетевых настроек можно потерять доступ к веб-интерфейсу. В таком случае подключаемся к серверу через SSH или через удаленную консоль управления и правим конфигурацию вручную.

Открываем файл /etc/network/interfaces:

# Пример конфигурации для статического IP
auto lo
iface lo inet loopback

auto ens18
iface ens18 inet manual

auto vmbr0
iface vmbr0 inet static
    address 192.0.2.10/24
    gateway 192.0.2.1
    bridge-ports ens18
    bridge-stp off
    bridge-fd 0

После правки применяем изменения:

ifreload -a

Если сервер получает IP по DHCP, замените строку iface vmbr0 inet static на iface vmbr0 inet dhcp и удалите строки с address и gateway. Система автоматически получит настройки от DHCP-сервера.

Частые ошибки при настройке сети

Неправильно указан bridge-ports

Самая распространенная проблема - указан не тот физический интерфейс в параметре bridge-ports. Например, указали ens18, а на самом деле интерфейс называется eno1. Результат - полная потеря сетевого доступа к серверу.

Решение: подключитесь через консоль провайдера (VNC/IPMI), проверьте реальное название интерфейса командой ip a, исправьте bridge-ports в конфигурации и выполните ifreload -a.

Неверный шлюз или подсеть

Если указали неправильный адрес шлюза или маску подсети - локальная связь между сервером и устройствами в той же сети будет работать, но доступа в интернет не будет.

Решение: уточните у провайдера правильные параметры сети (IP, маску, шлюз) и пропишите их корректно. Проверить текущие настройки можно командами ip a (адрес и маска) и ip r (шлюз).

4. Диски и хранилища

После базовой настройки сети стоит разобраться с дисковым пространством. По умолчанию Proxmox использует системный диск для хранения виртуальных машин, но если у сервера есть дополнительные диски - их можно и нужно задействовать под хранилища для ВМ и контейнеров.

Добавление второго диска под хранилище ВМ

Переходим в Node >> Disks и проверяем, что новый диск определился в системе. Обычно это sdb, sdc и так далее, в зависимости от количества дисков:

Для подключения диска есть два основных подхода, каждый со своими плюсами:

Вариант A: LVM-Thin (рекомендуется для большинства случаев)

LVM-Thin позволяет создавать снапшоты виртуальных машин - это удобно для бэкапов и тестирования. Диски виртуальных машин выделяются динамически, то есть занимают только реально используемое пространство.

Переходим в Disks >> LVM-Thin >> Create. Выбираем нужный диск, задаем имя Volume Group (например, pve2) и имя thin-pool (например, data2):

После создания новое хранилище автоматически появится в списке Datacenter >> Storage и будет доступно для размещения дисков виртуальных машин:

Вариант B: Directory (простое файловое хранилище)

Второй вариант - создать обычную файловую систему и использовать ее как директорию для хранения. Подходит, если не нужны снапшоты или если планируется использовать ZFS.

Создаем файловую систему через интерфейс (Disks >> ZFS) или вручную командой mkfs.ext4, затем монтируем диск в каталог /mnt/название:

После монтирования переходим в Datacenter >> Storage >> Add >> Directory. Указываем путь к примонтированному каталогу (например, /mnt/data) и отмечаем галочками типы контента, которые будут храниться: Disk image (диски ВМ), ISO image (образы) и другие при необходимости.

Совет по выбору типа хранилища:

Если у сервера достаточно оперативной памяти (от 8 ГБ и выше) и нужна продвинутая файловая система с проверкой целостности данных - выбирайте ZFS. Она хороша для production-окружений, но требовательна к ресурсам.

Для VPS с ограниченной памятью лучше использовать LVM-Thin или простую Directory с ext4. Эти варианты менее требовательны и работают стабильно даже на минимальных конфигурациях.

5. ISO-образы: загрузка правильно

Для установки операционных систем на виртуальные машины понадобятся ISO-образы. Proxmox позволяет загружать их двумя способами.

Способ A: Через веб-интерфейс

Самый простой вариант - загрузить ISO напрямую через браузер.

Переходим в Datacenter >> Storage >> выбираем хранилище с типом ISO (обычно это local) >> Content. Нажимаем кнопку Upload, выбираем нужный ISO-файл на локальном компьютере (например, ubuntu-25.10-live-server-amd64.iso) и ждем завершения загрузки:

Скорость загрузки зависит от вашего интернет-канала. Для больших образов (особенно Windows, которые весят 4-5 ГБ) процесс может занять продолжительное время.

Способ B: Через командную строку

Если у сервера быстрый канал, а у вас медленный домашний интернет - логичнее скачать ISO напрямую на сервер. Подключаемся по SSH и выполняем команды:

# Переходим в каталог для ISO-образов
cd /var/lib/vz/template/iso
# Скачиваем образ Ubuntu 25.10
wget https://releases.ubuntu.com/25.10/ubuntu-25.10-live-server-amd64.iso

Образ будет скачан на сервер и сразу появится в списке доступных ISO.

Если ISO не появляется в списке

Иногда после загрузки образ не отображается в веб-интерфейсе. В та��ой ситуации стоит проверить два момента:

  1. Файл действительно лежит в правильной папке - /var/lib/vz/template/iso для хранилища local;

  2. У хранилища включен тип контента ISO Image (проверить можно в Datacenter >> Storage >> выбрать хранилище >> Content).

Если все на месте, но образ все равно не виден - попробуйте обновить список через кнопку Refresh в интерфейсе или перезапустите веб-службы Proxmox командой systemctl restart pveproxy.

6. Создаем первую виртуальную машину

Теперь, когда инфраструктура настроена, можно переходить к главному - созданию виртуальных машин. Начнем с классического примера: Ubuntu Server 25.10 на конфигурации с 2 vCPU.

В правом верхнем углу интерфейса нажимаем кнопку Create VM:

Откроется мастер создания виртуальной машины. Проходим по всем вкладкам:

General (Общие настройки)

ID можно оставить по умолчанию - Proxmox сам подберет свободный номер. В поле Name задаем понятное имя, например ubuntu2510:

OS (Операционная система)

Выбираем загруженный ранее ISO-образ ubuntu-25.10-live-server-amd64.iso. В поле Type указываем Linux - Proxmox автоматически подберет оптимальные параметры виртуального железа под Linux-системы:

System (Системные параметры)

Здесь задаются параметры виртуального железа:

  • Graphics card: оставляем Default;

  • BIOS: выбираем OVMF (UEFI) - современный стандарт загрузки;

  • Machine: q35 - эмуляция современного чипсета;

  • SCSI Controller: VirtIO SCSI single - оптимизированный контроллер дисков для виртуализации.

Qemu Agent пока не трогаем - включим его после установки системы:

Disks (Диски)

Настраиваем виртуальный диск для системы:

  • Bus/Device: SCSI

  • SCSI Controller: VirtIO SCSI single

  • Storage: выбираем созданное ранее хранилище (LVM-Thin или Directory)

  • Size: для тестов хватит 20 ГБ, для рабочих систем лучше 40 ГБ и больше

  • Discard (TRIM): включаем, если используется thin-пул - позволит освобождать место на хосте при удалении файлов в гостевой системе

CPU (Процессор)

Распределяем вычислительные ресурсы:

  • Sockets: 1 (количество процессорных сокетов);

  • Cores: 2 (количество ядер на сокет);

  • Type: host - пробрасывает реальные инструкции процессора, дает максимальную производительность.

Memory (Оперативная память)

Для Ubuntu Server достаточно 2048-4096 МБ. Можно включить Ballooning - технологию динамического выделения памяти. Например, Min 1024, Max 4096 - система будет использовать от 1 до 4 ГБ в зависимости от нагрузки:

Network (Сеть)

Настраиваем сетевой адаптер:

  • Model: VirtIO (paravirtualized) - оптимизированный сетевой драйвер для виртуализации;

  • Bridge: vmbr0 - подключаем к настроенному ранее мосту;

  • VLAN Tag: оставляем пустым, если не используете VLAN:

Confirm (Подтверждение)

Проверяем все параметры и ставим галочку в чекбоксе Start after created, затем Finish:

Установка операционной системы

Виртуальная машина создана, но пока пуста. Запускаем ее кнопкой Start и открываем Console (noVNC) для доступа к виртуальному монитору. Появится загрузочное меню Ubuntu - выбираем Try or Install Ubuntu:

Установщик Ubuntu довольно простой:

  1. Настройка сети - если используется DHCP, адрес получится автоматически. Для статического IP нужно указать параметры вручную;

  2. Выбор диска - Use entire disk, система использует весь виртуальный диск;

  3. Создание пользователя - задаем имя, логин и пароль;

  4. Дополнительные пакеты - обязательно отмечаем Install OpenSSH server для удаленного доступа.

После установки система предложит перезагрузиться. Можно зайти как через консоль, так и по SSH с использованием созданной учетной записи.

Настройка после установки

После первого входа выполняем обновление системы и устанавливаем гостевой агент:

# Обновление списка пакетов и установка всех доступных обновлений системы
sudo apt update && sudo apt -y full-upgrade
# Установка агента QEMU для улучшенного взаимодействия с гипервизором
sudo apt -y install qemu-guest-agent
# Включение и немедленный запуск службы qemu-guest-agent
sudo systemctl enable --now qemu-guest-agent

Qemu Guest Agent - это служба, улучшающая взаимодействие между хостом и гостевой системой. Благодаря ей Proxmox получает прямой доступ к гостевой ОС: может корректно завершать работу системы через системные вызовы, видеть реальные IP-адреса и выполнять команды внутри ВМ.

После установки агента в гостевой системе включаем его в настройках виртуальной машины: VM >> Options >> Qemu Agent = Enabled:

Настройка порядка загрузки

Если после перезагрузки виртуальная машина снова загружается с ISO вместо установленной системы, нужно поправить Boot Order. Переходим в Options >> Boot Order и перетаскиваем scsi0 (жесткий диск) выше cdrom. Теперь система будет грузиться с диска, а не с установочного образа.

6.1 Установка Windows (для более мощных узлов)

Windows Server требует больше ресурсов, чем Linux. Для комфортной работы понадобится минимум 4 vCPU и 8 ГБ RAM. На слабых конфигурациях Windows будет тормозить при любой нагрузке: от обновлений до простого открытия Server Manager.

Подготовка ISO-образов

Для установки Windows понадобятся два образа:

  1. Установочный ISO Windows Server (2019, 2022 или 2025)

  2. virtio-win.iso - пакет драйверов для паравиртуализированного оборудования (диски, сеть, память).

Загружаем оба образа в Storage >> Content:

Создание виртуальной машины

Нажимаем Create VM и заполняем параметры:

OS: выбираем тип Microsoft Windows и установочный ISO. Ставим галочку «Add additional drive for VirtIO drivers» - она автоматически подключит второй виртуальный CD-ROM с драйверами virtio-win. Без этого на этапе выбора диска установщик не увидит VirtIO SCSI контроллер:

System:

  • BIOS: OVMF (UEFI);

  • Machine: q35;

  • Add EFI Disk: включаем для современных версий Windows;

  • Add TPM: включаем для Windows 11 и Windows Server 2025.

При проблемах с загрузкой (черный экран, отсутствие реакции) измените тип BIOS с OVMF на SeaBIOS и отключите EFI/TPM в настройках виртуальной машины. Некоторые образы Windows Server требуют legacy-загрузку для стабильной работы:

Disks:

  • Bus: SCSI;

  • Controller: VirtIO SCSI;

  • Size: 40-80 ГБ (Windows любит место);

  • IO Threads: включить для улучшения производительности дисковой подсистемы:

CPU: 2-4 vCPU, Type: host:

Memory: 4-8 ГБ:

Network: Model VirtIO, Bridge - vmbr0:

После создания ВМ переходим в Hardware >> CD/DVD Drive и подключаем второй ISO-образ virtio-win.iso. Теперь у виртуальной машины два виртуальных CD-привода: один с установщиком Windows, второй с драйверами:

Установка Windows

Запускаем виртуальную машину и открываем консоль. Установщик Windows загрузится, но на этапе выбора диска ничего не обнаружит - это нормально. Дело в том, что Windows не содержит драйверов для VirtIO-контроллера.

Нажимаем Load driver и указываем второй CD-привод с VirtIO. В списке выбираем vioscsi или viostor - драйвер дискового контроллера. После этого диск появится в списке и установка продолжится как обычно:

После установки системы откройте Диспетчер устройств и найдите сетевой адаптер. Вероятнее всего, он будет отмечен желтым восклицательным знаком - Windows не распознала устройство автоматически. Устанавливаем драйвер NetKVM вручную с того же virtio-win ISO, который подключен как второй CD-привод.

Гостевой агент для Windows

Для улучшения интеграции с Proxmox можно установить Qemu Guest Agent для Windows. Он находится на том же virtio-win ISO, файл guest-agent/qemu-ga-x86_64.msi. Запускаем установщик и перезагружаем систему:

После установки не забудьте включить Qemu Agent в настройках ВМ: Options >> Qemu Agent = Enabled.

Типичные проблемы с Windows

Черный экран или не грузится

Самая частая причина - несовместимость UEFI с конкретным образом. Решение: пересоздайте ВМ с BIOS: SeaBIOS вместо OVMF, отключите Add EFI Disk и Add TPM.

Нет сети после установки

Проверьте два момента: сетевая карта должна быть Model: VirtIO, и в гостевой системе должен быть установлен драйвер NetKVM из virtio-win.

Медленная работа дисков

Убедитесь, что используется Bus: SCSI с VirtIO контроллером и что драйвер vioscsi установлен в гостевой системе. Также включите IO Threads в настройках диска.

6.2 LXC-контейнеры

Помимо VM в Proxmox доступны LXC-контейнеры - легковесная альтернатива полной виртуализации. Используют ядро хоста напрямую, стартуют за секунды и потребляют минимум ресурсов. Оптимальны для простых изолированных сервисов: веб-серверы, базы данных, прокси.

Загрузка шаблона контейнера

Сначала нужно скачать готовый шаблон операционной системы. Переходим в Datacenter >> Storage >> выбираем хранилище с типом Container Templates (обычно это local) >> Content >> Templates.

Выбираем нужный шаблон, например ubuntu-25.04-standard и скачиваем его. Шаблоны весят немного - обычно 100-200 МБ:

Создание контейнера

Нажимаем Create CT в правом верхнем углу.

General:

  • ID и Name задаем по аналогии с ВМ;

  • Unprivileged container: оставляем включенным - это безопаснее. Непривилегированный контейнер изолирован от хостовой системы;

  • Password: задаем пароль для root или добавляем SSH-ключ:

Template: выбираем скачанный ранее шаблон:

Disks: указываем хранилище и размер. Для тестов хватит 8 ГБ, для рабочих контейнеров - 20 ГБ:

CPU/RAM: контейнеры очень экономичны. Для простых задач достаточно 1 vCPU и 1-2 ГБ RAM:

Network:

  • Bridge: vmbr0 (или vmbr1, если используете NAT);

  • IPv4: DHCP для автоматического получения адреса, или Static для ручной настройки;

  • VLAN Tag при необходимости.

Если планируете использовать NAT на отдельном мосту vmbr1, укажите этот мост и настройте статический IP из внутренней подсети:

DNS: по умолчанию контейнер использует DNS-настройки хоста, но можно указать свои серверы:

Features: дополнительные возможности контейнера

  • nesting: разрешает запуск контейнеров внутри контейнера (Docker, LXC);

  • fuse: поддержка файловой системы FUSE;

  • keyctl: нужен для некоторых приложений, работающих с ключами.

Включайте эти опции только если приложению они действительно нужны.

Также можно настроить автозапуск контейнера при загрузке хоста: Start at boot и Start after created.

Работа с контейнером

После создания запускаем контейнер и подключаемся через консоль или SSH. Обновляем систему:

apt update && apt -y upgrade

Дальше устанавливаем нужное программное обеспечение стандартными пакетными менеджерами.

Важные отличия от виртуальных машин:

  • В контейнерах не нужен Qemu Guest Agent - они напрямую интегрированы с хостом;

  • Монтирование каталогов с хоста делается через Mount Points (MP) в настройках контейнера;

  • Контейнеры используют ядро хоста, поэтому нельзя запустить другую ОС (например, Windows в Linux-контейнере);

  • Потребление ресурсов минимально - можно запустить десятки контейнеров на одном сервере.

7. Резервные копии и шаблоны

Настройка бэкапов - критически важная задача, которую легко отложить «на потом». Не повторяйте чужих ошибок.

Автоматическое резервное копирование

Proxmox включает встроенный инструмент vzdump для создания резервных копий. Настраивается через Datacenter >> Backup или Node >> Backup:

При создании задачи резервного копирования указываем:

1. Хранилище - куда сохранять бэкапы. Важно: не храните бэкапы на том же LVM thin-пуле, где работают виртуальные машины. Используйте отдельный диск или сетевое хранилище.

2. Расписание - когда делать бэкапы. Обычно настраивают ночные копии, когда нагрузка минимальна.

3. Режим:

  • snapshot - создает снапшот «на лету», ВМ продолжает работать. Быстро, но требует поддержки снапшотов в хранилище (LVM-Thin, ZFS);

  • stop - останавливает ВМ, делает копию, запускает обратно. Медленнее, но гарантирует консистентность данных.

Шаблоны виртуальных машин

Если нужно разворачивать однотипные ВМ, используйте шаблоны. Процесс простой:

  1. Создаете виртуальную машину;

  2. Устанавливаете ОС;

  3. Настраиваете все необходимое (пакеты, конфигурации);

  4. Выключаете ВМ;

  5. Правой кнопкой >> Convert to Template:

Теперь эту ВМ нельзя запустить, но можно клонировать. Клонирование через нажатие правой кнопки мыши >> Clone занимает секунды и создает полноценную копию со всеми настройками. Это экономит время и исключает ошибки при ручной настройке.

Заключение

Proxmox VE 9 после базовой настройки становится надежной основой для виртуальной инфраструктуры любого масштаба. Мы прошли путь от первого входа до запуска VM и контейнеров, разобрались с сетью, хранилищами и резервным копированием.

Большинство проблем возникает на старте: ошибка в имени интерфейса при настройке моста оставит без доступа, забытые VirtIO-драйверы превратят установку Windows в квест, переполненный корневой раздел остановит все службы. Действуйте последовательно, проверяйте результат каждого шага - и все заработает.

Официальная документация Proxmox детальная, но требует времени на навигацию. Эта инструкция собирает необходимое для старта с акцентом на практику и решение реальных проблем. Дальше - набивайте руку на собственных проектах и экспериментируйте с тестовыми машинами. При нестандартных ситуациях обращайтесь к официальной wiki Proxmox.

Серверы с Proxmox VE 9
Выделенные серверы и VPS с предустановленным Proxmox VE 9

Выбрать

Комментарии (1)


  1. 4kirill20
    27.11.2025 19:15

    Пригодится, спасибо