🧩 Что такое Proxmox VE
Proxmox Virtual Environment (VE) — это платформа виртуализации с открытым исходным кодом, построенная на базе Debian GNU/Linux и объединяющая технологии:
- KVM (Kernel-based Virtual Machine) — гипервизор аппаратной виртуализации;
- LXC (Linux Containers) — контейнеризация на уровне ядра;
- QEMU — эмулятор аппаратных ресурсов;
- ZFS, LVM, Ceph — системы хранения данных.
Proxmox предоставляет единое веб-интерфейсное и CLI-окружение для управления виртуальными машинами, сетями и хранилищами.
⚙️ Установка Proxmox VE
Установочный образ можно скачать с официального сайта.
Процесс установки напоминает Debian Installer и включает:
- Выбор диска — установка базовой системы Linux и гипервизора.
- Настройка сети — IP-адрес, шлюз, DNS.
- Выбор файловой системы — обычно ZFS для надёжности и снапшотов.
- Создание учётной записи root и настройка веб-интерфейса.
После перезагрузки доступ к панели осуществляется по адресу:
https://<ip-адрес>:8006
Интерфейс Proxmox доступен через браузер, SSH и CLI (pvecli, qm, pct).
🌐 Сеть в Proxmox: от хоста до виртуальных машин
Сетевая модель Proxmox построена на принципах Linux bridge — это виртуальный коммутатор, связывающий интерфейсы хоста и виртуальные адаптеры ВМ.
🔧 Как это работает
- Физический интерфейс (
eth0,enp3s0) подключён к мосту (vmbr0). - Мост (bridge) выступает как виртуальный свитч — он принимает трафик от ВМ и отправляет в физическую сеть.
- ВМ или контейнеры получают виртуальные интерфейсы (
tap,veth), подключённые кvmbr0. - Хост Proxmox при этом сам может использовать этот мост как свой IP-интерфейс.
🧠 Пример конфигурации сети
Файл /etc/network/interfaces:
auto lo
iface lo inet loopback
auto enp3s0
iface enp3s0 inet manual
auto vmbr0
iface vmbr0 inet static
address 192.168.1.10/24
gateway 192.168.1.1
bridge-ports enp3s0
bridge-stp off
bridge-fd 0
Здесь:
enp3s0— физическая сетевая карта;vmbr0— мост, через который хост и ВМ выходят в сеть;- IP назначен мосту, а не физическому интерфейсу.
🧭 Как сеть работает между хостом и ВМ
Когда виртуальная машина создаёт соединение (например, ping 8.8.8.8), пакет проходит цепочку:
VM → виртуальный адаптер (tap) → vmbr0 → физический интерфейс → маршрутизатор
А обратный трафик проходит тем же путём, возвращаясь в контекст ВМ.
🔌 Как получить доступ к виртуальной машине
Есть несколько способов:
- Через веб-консоль в интерфейсе Proxmox.
- Через SSH (если ВМ имеет IP в одной сети с хостом).
- Через внутреннюю сеть Proxmox (например,
vmbr1для изоляции трафика). - Через NAT-сеть, если IP-адреса ВМ не видны снаружи.
💾 Хранилище (Storage) в Proxmox
Proxmox поддерживает различные типы хранилищ:
- Local (Directory) — локальные каталоги на хосте;
- LVM / LVM-Thin — блочные тома;
- ZFS — файловая система с контрольными суммами и снапшотами;
- NFS / CIFS — сетевые файловые системы;
- Ceph / iSCSI — распределённые кластеры хранения.
🧠 Как работает хранилище
Каждое хранилище имеет тип и название, задаваемое в /etc/pve/storage.cfg.
При создании ВМ или контейнера выбирается, где будут храниться диски, образы ISO и резервные копии.
Пример:
dir: local
path /var/lib/vz
content iso,backup,vztmpl
maxfiles 5
ZFS и Ceph позволяют создавать снапшоты, клонировать ВМ и автоматически реплицировать данные между узлами.
🧬 Создание кластера Proxmox
Кластер позволяет объединять несколько хостов (нод) в единую управляемую систему.
Все конфигурации синхронизируются между узлами через corosync.
🧱 Как создать кластер
На первом узле выполняем:
pvecm create mycluster
На других узлах:
pvecm add <ip-адрес-первого-узла>
Проверить состояние кластера:
pvecm status
После объединения нод вы можете:
- перемещать ВМ между узлами (live migration),
- использовать общие хранилища (Ceph, NFS, iSCSI),
- управлять всей инфраструктурой из одного интерфейса.
⚡ Ceph как распределённое хранилище
Для продвинутых сценариев используется Ceph — система распределённого хранения, интегрированная в Proxmox.
Она обеспечивает:
- отказоустойчивость (репликацию данных),
- высокую производительность,
- доступ к общему пулу данных из всех узлов.
Команда для установки Ceph:
pveceph install
После установки можно создать Ceph pool, который будет использоваться для хранения дисков ВМ в кластере.
🧠 Заключение
Proxmox VE — это гибкая и мощная платформа, объединяющая:
- аппаратную виртуализацию (KVM),
- контейнеризацию (LXC),
- модульную сетевую архитектуру (bridge, VLAN, NAT),
- масштабируемые хранилища (ZFS, Ceph, NFS),
- кластерное управление и отказоустойчивость.
Она подходит как для лабораторных стендов, так и для продакшн-инфраструктур любого масштаба.
📚 Официальная документация Proxmox
📖 Proxmox Networking Guide
📖 Proxmox Cluster Management