Proxmox VE — базовые принципы, установка, сеть, хранилище и кластеризация

Oct, 26, 2025

🧩 Что такое Proxmox VE

Proxmox Virtual Environment (VE) — это платформа виртуализации с открытым исходным кодом, построенная на базе Debian GNU/Linux и объединяющая технологии:

  • KVM (Kernel-based Virtual Machine) — гипервизор аппаратной виртуализации;
  • LXC (Linux Containers) — контейнеризация на уровне ядра;
  • QEMU — эмулятор аппаратных ресурсов;
  • ZFS, LVM, Ceph — системы хранения данных.

Proxmox предоставляет единое веб-интерфейсное и CLI-окружение для управления виртуальными машинами, сетями и хранилищами.


⚙️ Установка Proxmox VE

Установочный образ можно скачать с официального сайта.
Процесс установки напоминает Debian Installer и включает:

  1. Выбор диска — установка базовой системы Linux и гипервизора.
  2. Настройка сети — IP-адрес, шлюз, DNS.
  3. Выбор файловой системы — обычно ZFS для надёжности и снапшотов.
  4. Создание учётной записи root и настройка веб-интерфейса.

После перезагрузки доступ к панели осуществляется по адресу:

https://<ip-адрес>:8006

Интерфейс Proxmox доступен через браузер, SSH и CLI (pvecli, qm, pct).


🌐 Сеть в Proxmox: от хоста до виртуальных машин

Сетевая модель Proxmox построена на принципах Linux bridge — это виртуальный коммутатор, связывающий интерфейсы хоста и виртуальные адаптеры ВМ.


🔧 Как это работает

  1. Физический интерфейс (eth0, enp3s0) подключён к мосту (vmbr0).
  2. Мост (bridge) выступает как виртуальный свитч — он принимает трафик от ВМ и отправляет в физическую сеть.
  3. ВМ или контейнеры получают виртуальные интерфейсы (tap, veth), подключённые к vmbr0.
  4. Хост Proxmox при этом сам может использовать этот мост как свой IP-интерфейс.

🧠 Пример конфигурации сети

Файл /etc/network/interfaces:

auto lo
iface lo inet loopback

auto enp3s0
iface enp3s0 inet manual

auto vmbr0
iface vmbr0 inet static
    address 192.168.1.10/24
    gateway 192.168.1.1
    bridge-ports enp3s0
    bridge-stp off
    bridge-fd 0

Здесь:

  • enp3s0 — физическая сетевая карта;
  • vmbr0 — мост, через который хост и ВМ выходят в сеть;
  • IP назначен мосту, а не физическому интерфейсу.

🧭 Как сеть работает между хостом и ВМ

Когда виртуальная машина создаёт соединение (например, ping 8.8.8.8), пакет проходит цепочку:

VM  виртуальный адаптер (tap)  vmbr0  физический интерфейс  маршрутизатор

А обратный трафик проходит тем же путём, возвращаясь в контекст ВМ.


🔌 Как получить доступ к виртуальной машине

Есть несколько способов:

  1. Через веб-консоль в интерфейсе Proxmox.
  2. Через SSH (если ВМ имеет IP в одной сети с хостом).
  3. Через внутреннюю сеть Proxmox (например, vmbr1 для изоляции трафика).
  4. Через NAT-сеть, если IP-адреса ВМ не видны снаружи.

💾 Хранилище (Storage) в Proxmox

Proxmox поддерживает различные типы хранилищ:

  • Local (Directory) — локальные каталоги на хосте;
  • LVM / LVM-Thin — блочные тома;
  • ZFS — файловая система с контрольными суммами и снапшотами;
  • NFS / CIFS — сетевые файловые системы;
  • Ceph / iSCSI — распределённые кластеры хранения.

🧠 Как работает хранилище

Каждое хранилище имеет тип и название, задаваемое в /etc/pve/storage.cfg.
При создании ВМ или контейнера выбирается, где будут храниться диски, образы ISO и резервные копии.

Пример:

dir: local
    path /var/lib/vz
    content iso,backup,vztmpl
    maxfiles 5

ZFS и Ceph позволяют создавать снапшоты, клонировать ВМ и автоматически реплицировать данные между узлами.


🧬 Создание кластера Proxmox

Кластер позволяет объединять несколько хостов (нод) в единую управляемую систему.
Все конфигурации синхронизируются между узлами через corosync.


🧱 Как создать кластер

На первом узле выполняем:

pvecm create mycluster

На других узлах:

pvecm add <ip-адрес-первого-узла>

Проверить состояние кластера:

pvecm status

После объединения нод вы можете:

  • перемещать ВМ между узлами (live migration),
  • использовать общие хранилища (Ceph, NFS, iSCSI),
  • управлять всей инфраструктурой из одного интерфейса.

Ceph как распределённое хранилище

Для продвинутых сценариев используется Ceph — система распределённого хранения, интегрированная в Proxmox.
Она обеспечивает:

  • отказоустойчивость (репликацию данных),
  • высокую производительность,
  • доступ к общему пулу данных из всех узлов.

Команда для установки Ceph:

pveceph install

После установки можно создать Ceph pool, который будет использоваться для хранения дисков ВМ в кластере.


🧠 Заключение

Proxmox VE — это гибкая и мощная платформа, объединяющая:

  • аппаратную виртуализацию (KVM),
  • контейнеризацию (LXC),
  • модульную сетевую архитектуру (bridge, VLAN, NAT),
  • масштабируемые хранилища (ZFS, Ceph, NFS),
  • кластерное управление и отказоустойчивость.

Она подходит как для лабораторных стендов, так и для продакшн-инфраструктур любого масштаба.

📚 Официальная документация Proxmox
📖 Proxmox Networking Guide
📖 Proxmox Cluster Management

Proxmox VE — базовые принципы, установка, сеть, хранилище и кластеризация | Aleksandr Suprun