Как я две недели воевал с Proxmox на сервере HPE и в итоге сдался

Фух. Выпал на две недели из-за проблем с оборудованием. Напомню, что-то вредоносное попало на сервер, и я решил подстраховаться, все переустановить и усовершенствовать инфраструктуру перейдя на виртуализацию, заодно и “прокачать” наш и без того мощный сервер. Хотел применить лучшие практики и использовать виртуализацию. Итак, по порядку:

Дано

  • 2U HPE 10 Gen DL380, 2 x Intel XEON 6248R. 12 LFF front + 2 SFF rear.
  • HP P00924-B21 24×32 ГБ = 768 Гб (P00924-B21) — было 512 Гб, добавил еще 256 Гб
  • HPE Smart Array P816i-a SR Gen10
  • Высокопроизводительные накопители
    • 2 x SAS SSD Samsung PM1643a 1.92 ТБ
    • 2 x SAS SSD Samsung PM1643a 3.84 ТБ — докупил
    • 1 x NVMe Samsung PCI-E 3.2 ТБ
    • 2 x SSD Intel D3-S4520 SATA III 960 GB
    • 2 x SSD Intel D3-S4520 SATA III 480 GB (под систему где будут крутиться виртуалки) — докупил и поставил в два задних пустых отсека.
    • Архивные HDD (Seagate Exos X18 SAS 7200 RPM 18 ТБ x2) mirror
  • Всего 10 дисков SAS/SATA/HDD + 1 NVMe PCI

Очень хотел все настроить на Proxmox, но не вышло, а экспериментировать я не захотел.

До этого никогда всерьез не рассматривал виртуализацию серверов на Linux, но изучил вопрос и мне очень понравился Proxmox с его zfs. План был прост: взять эту среду виртуализации и на ее базе сделать RDP-сервер, поднять сервер 1С, телефонию и т.д. Но проблема пришла из не самого очевидного места, а именно с драйверами.

Как я понял, возникли проблемы с конкретно моим HPE Smart Array P816i-a и драйверами. Не нашел я настроек как перевести массив из Mixed-режима в HBA JBod для zfs, и использовал все на Mixed-режиме без железного RAID. Но тут случилось не самое лучшее. Когда сервер был развернут и я тестировал работу 1С, то все работало. Скорость по замерам производительности тестов Гилева прекрасная — порядка 40 попугаев. Но как-то странно себя начали вести жесткие при работе из ОС Windows. Открываешь проводник и… ничего не происходит. Не открывается! Хотя все работает. В другой виртуальной машине начал пробовать — те же проблемы!

Начал погружаться в вопрос и понял, что все это из-за Mixed-мода, который на сервере HPE я просто не могу отключить. Нет такой настройки! Понял, что, наверное, в этом смысле на эксперименты времени нет, тем более в продуктовой среде. И обойдемся мы виртуализацией на Hyper-V. Да, мне не нравится это. Не очень надежно, на мой взгляд.

Схема работы основных виртуальных машин:

  • host — Windows Server только с ролью Hyper-V
  • dc01 — контроллер домена и DNS-сервер в одном лице
  • rdp — виртуальная машина для RDP с 256 Гб ОЗУ для работы всех сотрудников достаточно.
  • srv1c — сервер 1С

Ну и куча виртуальных машин на Linux, типа gitlab (self hosted), сервер телефонии, reverse proxy, тестовые среды и т.п.

Proxmox

Мое главное разочарование, что не удалось его завести. Прям печаль. 😟

Плюсы

  • Мне понравился веб-интерфейс. Очень современно и быстро все работает.
  • Мне понравилось как можно прокидывать USB-ключи 1С в Proxmox. Один щелчок и в нужной виртуалке нужная железка. На Windows пришлось покупать отдельно USB Network Gate за $179. Свои нюансы и там и там, но все же proxmox выглядит значительно лучше в этом.
  • Понравились шаблоны виртуальных машин. В Hyper-V этого нет и очень зря.
  • Теги виртуальных машин. Это очень удобно, если их много!
  • ZFS — файловая система для серверов. С контролем записываемых данных и очень быстрая. Сжимает то что пишет на диск и за счет этого уменьшенная нагрузка на дисковую подсистему (но тут повышенное процессорное время, за все надо платить).
  • Скорость замеров 1С была выше на Proxmox ~40 баллов теста Гилева, вместо 35 на Windows Hyper-V. Непонятно за счет чего, но это факт. Совсем чуть-чуть быстрее. Важное уточнение: виртуальные машины были одинаковой конфигурации что в Proxmox, что на Hyper-V, оборудование одно и тоже.
  • Цена. Это все бесплатно. Есть план с $99 с техподдержкой на год, но и без всего этого все прекрасно работает, а информации в интернете по настройке просто море.

Минусы

  • Самое главное для меня оказалась плохая работа с драйверами SCSI в ОС Windows. Не знаю, возможно, это у меня так получилось из-за моих кривых рук, но мне не удалось заставить работать Windows стабильно.

Итог: откат на Hyper-V

Я снес Proxmox и поставил Windows Server. Развернул ту же схему на Hyper-V. Все предсказуемо, все работает. Но…

  1. Замеры 1С на том же железе и ВМ той же конфигурации показали ~35 попугаев (против 40 на Proxmox). Непонятно, почему, но факт.
  2. Пришлось покупать софт для проброса USB.
  3. Интерфейс управления, на мой взгляд, менее удобен.

Выводы (уроки, оплаченные моим временем)

  1. Proxmox + ZFS = только HBA. Никаких «Mixed-mode» и аппаратных RAID (даже если вы их не используете).
  2. HPE Smart Array P816i-a — не лучший выбор для ZFS. У них нет режима HBA (или я не нашел). Для ZFS нужны контроллеры LSI в режиме IT Mode (точно ли?).
  3. То, что я потерял 5 «попугаев» производительности 1С, не так страшно, как нестабильность. Но все равно обидно.

Вот так. Жаль, что не взлетело.

А вы сталкивались с подобной несовместимостью «железячных» контроллеров и софтверных хранилищ типа ZFS? Как решали?

Барилко Виталий
Оцените автора
( Пока оценок нет )
Добавить комментарий