Руководство по установке
Версия zVirt: 3.2
Аннотация
В руководстве описан процесс развёртывания системы управления виртуализацией zVirt на хосты с установленной zVirt Node - минимальной операционной системой, предназначенной для обеспечения простого метода настройки физической машины для работы в качестве гипервизора.
1. Описание процесса установки
Установка включает в себя следующие шаги:
-
Подготовка хранилища в качестве домена хранения
hosted_storage
(для ВМ менеджера управления при развертывании среды виртуализации в режимеHostedEngine
) и для стандартных доменов хранения. Вы можете использовать следующие типы хранения:-
NFS;
-
ISCSI;
-
Fibre Channel (FCP);
-
Gluster Storage.
-
-
Установка операционной системы на хост, который станет первым хостом с размещенным на нем менеджером управления.
-
Настройка репозитория
-
Развертывание и настройка менеджера управления.
|
2. Подготовка хранилища
Необходимо заранее подготовить хранилище объёмом не менее 55 ГиБ, которое будет использоваться как домен хранения данных для развертывания ВМ HostedEngine. После развертывания рекомендуется добавить дополнительные домены данных для хранения дисков ВМ. Домен данных hosted_storage предназначен только для хранения дисков ВМ HostedEngine. |
В доменах данных хранятся виртуальные жесткие диски и файлы OVF всех виртуальных машин и шаблонов центра данных. Домены данных не могут одновременно использоваться несколькими центрами данных когда они активны (но могут быть перенесены между центрами данных). Домены данных нескольких типов хранения могут быть добавлены в один и тот же центр данных при условии, что они являются общими, а не локальными доменами. Поддерживаются следующие типы хранилищ:
-
NFS;
-
ISCSI;
-
Fibre Channel (FCP);
-
Gluster Storage.
При использовании протокола iSCSI, домен хранения hosted_storage должен использовать выделенный iSCSI target. Любые дополнительные домены хранения должны использовать отдельные iSCSI target. |
В случае появления следующей ошибки во время установки:
[ ERROR ] Error: Fault reason is "Operation Failed". Fault detail is "[Physical device initialization failed. Please check that the device is empty and accessible by the host.]". HTTP response code is 400.
Выполнить инициализацию системы хранения при помощи команды:
dd if=/dev/zero of=/dev/mapper/LUN_ID bs=1M count=200 oflag=direct
где /dev/mapper/LUN_ID
- путь до LUN
Будьте аккуратны при выполнении этой операции: не выполняйте её на LUN, содержащим важные данные. |
2.1. Подготовка хранилища NFS
Следующие шаги универсальны для семейства Unix-подобных операционных систем на базе ядра Linux. Для уточнения конкретных шагов обратитесь к официальному руководству ОС.
-
Создать каталог (должно быть доступно более 55 ГиБ свободного места):
mkdir -p /storage/domain
-
Установить права доступа:
chown 36:36 /storage/domain chmod 0775 /storage/domain
-
Опубликовать каталог, прописав его в конфигурационном файле
NFS-сервера
:echo "/storage/domain *(rw,anonuid=36,anongid=36)" >> /etc/exports
-
Убедиться в правильности задания параметров доступа:
cat /etc/exports
-
Запустить необходимые сервисы:
systemctl enable nfs-server systemctl enable rpcbind systemctl enable nfs-blkmap systemctl restart nfs-server systemctl restart rpcbind systemctl restart nfs-blkmap
-
Создать правила межсетевого экрана для обеспечения доступности хранилища для других хостов:
firewall-cmd --permanent --add-service=nfs firewall-cmd --permanent --add-service=mountd firewall-cmd --permanent --add-service=rpc-bind firewall-cmd --reload
Если в качестве ОС используется не
zVirt Node
, то необходимо создать служебных пользователей и группы:groupadd sanlock -g 179 groupadd kvm -g 36 useradd sanlock -u 179 -g 179 -G kvm useradd vdsm -u 36 -g 36 -G sanlock
2.2. Подготовка хранилища iSCSI
zVirt поддерживает хранилища доступные по протоколу iSCSI. Хранилища после добавление в среду виртуализации как домены хранения будут использоваться в качестве Volume Group (VG), состоящие из одного или более LUN (PV).
Volume Group (VG) и LUN (PV) не могут быть одновременно использоваться несколькими доменам хранения.
В настоящее время zVirt не поддерживает хранилище с размером блока 4K, поэтому необходимо сконфигурировать хранилище в legacy mode
(512b block). Если ваш хост загружается из хранилища SAN и теряет связь с хранилищем, файловые системы хранилища становятся доступными только для чтения и остаются в этом состоянии после восстановления соединения.
Для предотвращения подобной ситуации рекомендуется добавить в файл конфигурации службы multipath
wwid загрузочного LUN, для обеспечения постановки его в очередь при наличии соединения:
multipaths {
multipath {
wwid LUN_ID
no_path_retry queue
}
2.3. Подготовка FCP-хранилища
zVirt поддерживает хранилища, доступные по протоколу Fibre Channel. Хранилища после добавление в среду виртуализации как домены хранения будут использоваться в качестве Volume Group (VG), состоящие из одного или более LUN (PV).
В настоящее время zVirt не поддерживает хранилище с размером блока 4K, поэтому необходимо сконфигурировать хранилище в legacy mode
(512b block). Если ваш хост загружается из хранилища SAN и теряет связь с хранилищем, файловые системы хранилища становятся доступными только для чтения и остаются в этом состоянии после восстановления соединения.
Для предотвращения подобной ситуации рекомендуется добавить в файл конфигурации службы multipath
wwid загрузочного LUN, для обеспечения постановки его в очередь при наличии соединения:
multipaths {
multipath {
wwid LUN_ID
no_path_retry queue
}
2.4. Подготовка Gluster Storage
Информацию по настройке Gluster Storage см. в официальной документации, учитывая следующие особенности - тома Gluster Storage
должны использовать либо трехстороннюю репликацию, либо арбитражную репликацию. Такой вариант снижает риск возникновения split-brain
в кластере.
Поддерживаются следующие типы томов:
-
трехсторонне реплицированные и распределенные реплицированные тома (replica count 1)
-
арбитражные реплицированные или распределенные арбитражные реплицированные тома (replica 3 arbiter 1)
Дополнительно необходимо назначить следующие настройки для тома:
gluster volume set VOLUME_NAME group virt
gluster volume set VOLUME_NAME performance.strict-o-direct on
gluster volume set VOLUME_NAME network.remote-dio off
gluster volume set VOLUME_NAME storage.owner-uid 36
gluster volume set VOLUME_NAME storage.owner-gid 36
gluster volume set VOLUME_NAME network.ping-timeout 30
Техническая поддержка по службе Gluster Storage не оказывается. |
2.5. Настройка multipath в соответствии с рекомендациями производителя системы хранения данных
Вы можете настроить параметры конфигурации multipath
в соответствии с требованиями и рекомендациями производителя системы хранения данных. Эти настройки могут отключать как параметры, определенные по умолчанию, так и параметры, указанные в файле /etc/multipath.conf. Чтобы отключить определенные параметры multipath
, не вносите изменения в файл /etc/multipath.conf. Служба VDSM
управляет файлом /etc/multipath.conf, установка или обновление VDSM
может привести к перезаписи этого файл, включая все содержащиеся в нем настройки. Такая перезапись может привести к сбоям в работе с системой хранения данных. Вместо этого создайте файл в каталоге /etc/multipath/conf.d, который будет содержать параметры, которые вы хотите изменить или отключить.
VDSM
выполняет файлы в каталоге /etc/multipath/conf.d в определенном порядке. Для того, чтобы контролировать порядок выполнения, создавайте файлы с именем, которые начинается с цифр, что позволит выполнить его последним по порядку. Например, /etc/multipath/conf.d/90-fcdevice.conf.
В целях исключения серьезных сбоев в работе с системой хранения данных, следуйте следующим рекомендациям:
-
Не изменяйте файл /etc/multipath.conf. Если файл содержит пользовательские изменения, и файл будет перезаписан, это может вызвать сбои в работе с системой хранения данных.
-
Не переопределяйте настройки
user_friendly_names
иfind_multipaths
. -
Не переопределяйте параметры
no_path_retry
иpolling_interval
, если этого не требует производитель системы хранения данных.
Порядок действий:
-
VDSM
настроен на использование модуляmultipath
. Для того, чтобы проверить это выполните команду:vdsm-tool is-configured --module multipath
-
Создайте новый конфигурационный файл в каталоге /etc/multipath/conf.d.
-
Скопируйте отдельные параметры, которые вы хотите отключить, из файла /etc/multipath.conf в новый конфигурационный файл /etc/multipath/conf.d/<example>.conf. Удалите все знаки комментариев (
#
), отредактируйте значения параметров и сохраните изменения. -
Примените новые настройки с помощью команды:
systemctl reload multipathd
Не перезапускайте службу multipathd - это приводит к появлению ошибок в журналах VDSM. |
2.6. Рекомендуемые настройки для multipath
Не изменяйте следующие настройки:
-
user_friendly_names no
- имена устройств должны быть одинаковыми для всех гипервизоров, например,/dev/mapper/{WWID}
. Значение по умолчанию -no
, предотвращает назначение произвольных и непоследовательных имен устройств, таких как/dev/mapper/mpath{N}
на разных гипервизорах, что может привести к непредсказуемому поведению системы. Не изменяйте значение параметраuser_friendly_names
наyes
, т.к. такие пользовательские имена устройств могут привести к непредсказуемому поведению системы или сбоям. -
find_multipaths no
- параметр определяет, пытается ли zVirt получить доступ к устройствам черезmultipath
если доступно более одного пути. Текущее значение -no
, позволяет zVirt получать доступ к устройствам черезmultipath
, даже в том случае, если доступен только один путь.
Не изменяйте следующие параметры, если это не требуется производителем системы хранения данных:
-
no_path_retry 4
- параметр определяет количество попыток для повторного опроса при отсутствии доступных путей. -
polling_interval 5
- параметр определяет количество секунд между попытками опроса, для определения состояния пути до устройства. Если производитель не предоставил четкой причины для увеличения значения, оставьте значение по умолчанию, для того, чтобы система быстрее реагировала на сбои пути.
3. Установка хоста виртуализации
zVirt Node - это подготовленная операционная система, которая предназначена для обеспечения подготовки сервера для работы в качестве гипервизора в среде виртуализации zVirt. zVirt Node содержит только пакеты, необходимые для работы сервера в качестве гипервизора, и имеет веб-интерфейс Cockpit для базового мониторинга и выполнения подготовительной настройки ОС перед добавлением хоста в среду виртуализации. Распространяется в виде ISO-образа. Хост должен соответствовать минимальным требованиям к оборудованию.
-
Загрузите образ zVirt Node. Для доступа к странице загрузки и репозиторию zVirt необходимо получить учетные данные для входа.
-
Запишите ISO-образ zVirt Node на USB, CD или DVD.
-
Запустите сервер, на котором вы устанавливаете ОС, загрузившись с подготовленного установочного носителя.
-
В меню загрузки выберите
Install zVirt
и нажмите Enter. -
Выберите язык по умолчанию и нажмите Continue.
-
Выберите часовой пояс в разделе Time & Date и нажмите Done.
-
Выберите раскладку клавиатуры в разделе Keyboard и нажмите Done.
-
Выберите устройство, на которое нужно установить ОС, в разделе Installation Destination. При желании включите шифрование. В разделе Storage configuration выберите Custom и разметьте диск с помощью автоматического сценария, кликнув на Click here to create them automatically. После автоматической разметки можете произвести необходимые изменения (изменить пространство для lvm разделов, не затрагивая атрибуты диска), учитывая требования раздела Требования к хранилищу Руководства по предварительному планированию инфраструктуры.
-
Выберите сеть из раздела Network & Host Name - по кнопке Configure перейдите во вкладку конфигурации сети, настройте сеть и нажмите на кнопку Save. В поле Host Name введите
имя хоста
и нажмите на кнопку Apply. Переключите тумблер в состояние1
, находящийся рядом с данными об интерфейсе. -
При необходимости настройте политику безопасности и Kdump.
-
Установите пароль пользователя root в разделе Root password и нажмите на кнопку Done.
-
Нажмите на кнопку Begin Installation.
Настоятельно не рекомендуется создавать обычных пользователей, так как это может привести к использованию локальных уязвимостей безопасности. |
4. Настройка репозитория
Доступ к репозиториям необходимо настроить на всех хостах, которые планируется использовать в среде zVirt. |
-
Убедитесь, что включены репозитории centos-zvirt-main и centos-zvirt-extras:
dnf repolist all
Если указанные репозитории по каким-то причинам отключены, их можно включить следующей командой
dnf config-manager --enable *zvirt*
-
Настройте доступ в репозиторий:
zvirt-credentials -u USERNAME -p PASSWORD
При этом доступ к репозиторию будет настроен на использование учетных данных, значения которых сохранятся в файлах /etc/yum/vars/zuser и /etc/yum/vars/zpasswd.
В противном случае потребуется ручное указание параметров
username
иpassword
в файле centos-zvirt-stable.repo. -
Выполните обновление:
dnf update
5. Развертывание менеджера управления виртуализации
5.1. Развертывание менеджера управления в режиме Hosted Engine c помощью командной строки
-
Подготовьте полные доменные имена и их IP-адреса для менеджера управления виртуализации и хостов перед развертыванием, в DNS должны существовать соответствующие записи в зонах прямого и обратного просмотра. Ниже приведён пример планирования доменных имён и IP-адресов развёртываемой системы управления виртуализацией zVirt.
Объект FQDN IP адрес Менеджер управления
zvirtvm.orionsoft.local
10.252.12.103
Хост 1
host1.orionsoft.local
10.252.12.100
Хост 2
host2.orionsoft.local
10.252.12.101
Хост 3
host3.orionsoft.local
10.252.12.102
После установки имя
HostedEngine
будет являться именем виртуальной машины с менеджером управления и веб-интерфейсом управления средой виртуализации. Задаваемый адрес должен быть свободен.В случае невозможности использования внешнего DNS добавьте в файл
/etc/hosts
IP-адреса и FQDN хоста виртуализации и разворачиваемого менеджера управления. -
Установите пакеты:
dnf install -y ovirt-engine-appliance
В случае отсутствия доступа к сети Интернет на хосте, необходимо скачать пакет zvirt-appliance-3.2.rpm, после чего перенести файл(ы) на хост любым удобным способом в папку /root и затем установить:
dnf install -y zvirt-appliance-3.2.rpm
Также необходимо отключить все имеющиеся репозитории:
dnf config-manager --disable '*'
-
Откройте сессию запустив терминальный мультиплексор
tmux
командой:tmux
-
Запустите процесс развертывания:
hosted-engine --deploy
-
Следуйте сообщениям в консоли:
-
Подтвердите готовность развернуть ВМ HostedEngine.
[ INFO ] Stage: Initializing [ INFO ] Stage: Environment setup During customization use CTRL-D to abort. Continuing will configure this host for serving as hypervisor and will create a local VM with a running engine. The locally running engine will be used to configure a new storage domain and create a VM there. At the end the disk of the local VM will be moved to the shared storage. Are you sure you want to continue? (Yes, No) [Yes]:
-
По указанному пути будет расположен файл, содержащий лог развертывания.
Configuration files: [] Log file: /var/log/zvirt-hosted-engine-setup/zvirt-hosted-engine-setup-20200319163815-bm0sa2.log
-
Введите или подтвердите адрес шлюза
--== STORAGE CONFIGURATION ==-- --== HOST NETWORK CONFIGURATION ==-- Please indicate the gateway IP address [172.25.1.254]:
-
Укажите сетевой интерфейс, который будет использоваться для создания сетевого моста для ВМ.
Please indicate a nic to set ovirtmgmt bridge on: (enp1s0) [enp1s0]:
-
Укажите, каким образом будет выполняться проверка сети. Рекомендуется использовать метод проверки сети -
dns
.Please specify which way the network connectivity should be checked (ping, dns, tcp, none) [dns]:
-
Укажите название создаваемого центра данных.
--== VM CONFIGURATION ==-- Please enter the name of the datacenter where you want to deploy this hosted-engine host. [Default]:
-
Укажите название создаваемого кластера.
Please enter the name of the cluster where you want to deploy this hosted-engine host. [Default]:
-
Здесь указывается путь к
ova-файлу
, в стандартном сценарии строку нужно оставить пустой.If you want to deploy with a custom engine appliance image, please specify the path to the OVA archive you would like to use (leave it empty to skip, the setup will use ovirt-engine-appliance rpm installing it if missing):
-
Укажите количество
vCPU
(минимально -4) иОЗУ
(минимально - 4096 МБ, рекомендуется - не менее 16384 МБ) выделяемых дляВМ HostedEngine
.Please specify the number of virtual CPUs for the VM (Defaults to appliance OVF value): [4]: Please specify the memory size of the VM in MB (Defaults to maximum available): [4759]:
-
Укажите подготовленное доменное имя для
ВМ HostedEngine
.[ INFO ] Detecting host timezone. Please provide the FQDN you would like to use for the engine. Note: This will be the FQDN of the engine VM you are now going to launch, it should not point to the base host or to any other existing machine. Engine VM FQDN: []: zvirtvm.orionsoft.local
-
Введите имя домена, в котором будет находиться сервер управления.
Please provide the domain name you would like to use for the engine appliance. Engine VM domain: [orionsoft.local]
-
Введите и подтвердите пароль для пользователя
root
ОСВМ HostedEngine
.Enter root password that will be used for the engine appliance: Confirm appliance root password:
-
Введите открытый ключ
ssh
для пользователяroot
, который будет использоваться дляВМ HostedEngine
(при необходимости).You may provide an SSH public key, that will be added by the deployment script to the authorized_keys file of the root user in the engine appliance. This should allow you password less login to the engine machine after deployment. If you provide no key, authorized_keys will not be touched. SSH public key []:
-
Укажите хотите ли включить доступ по
ssh
для пользователяroot
вВМ HostedEngine
.[WARNING] Skipping appliance root ssh public key Do you want to enable ssh access for the root user (yes, no, withoutpassword) [yes]:
-
Хотите ли вы применить профиль безопасности
OpenSCAP
.Do you want to apply a default OpenSCAP security profile (Yes, No) [No]: Enter
-
Подтвердите сгенерированный
maс-адрес
дляВM HostedEngine
или введите свой.You may specify a unicast MAC address for the VM or accept a randomly generated default [00:16:3e:24:4d:60]: Enter
-
Используйте статическую конфигурацию сети
ВM HostedEngine
.How should the engine VM network be configured (DHCP, Static)[DHCP]? Static
-
Введите
IP-адрес
ВМ HostedEngine
.Please enter the IP address to be used for the engine VM []: 10.252.12.103
-
Подтвердите или введите адрес
DNS сервера
.[ INFO ] The engine VM will be configured to use 10.252.12.103/24 Please provide a comma-separated list (max 3) of IP addresses of domain name servers for the engine VM Engine VM DNS (leave it empty to skip) [172.25.1.1]:
-
Укажите добавить ли запись о хосте в файл
hosts
наВМ HostedEngine
.Add lines for the appliance itself and for this host to /etc/hosts on the engine VM? Note: ensuring that this host could resolve the engine VM hostname is still up to you (Yes, No)[No]
-
Введите имя
SMTP сервера
, через который будут отсылаться уведомления.--== HOSTED ENGINE CONFIGURATION ==-- Please provide the name of the SMTP server through which we will send notifications [localhost]:
-
Введите порт для
SMTP сервера
.Please provide the TCP port number of the SMTP server [25]:
-
Введите e-mail адрес, откуда будут отсылаться уведомления.
Please provide the email address from which notifications will be sent [root@localhost]:
-
Введите список адресов e-mail через запятую, которые будут получать уведомления.
Please provide a comma-separated list of email addresses which will get notifications [root@localhost]:
-
Введите и подтвердите пароль для пользователя
admin@internal
(Учётная запись используется для авторизации в веб-интерфейсе среды виртуализации).Enter engine admin password: Confirm engine admin password:
-
Укажите имя хоста для сети управления.
[ INFO ] Stage: Setup validation Please provide the hostname of this host on the management network [host1.orionsoft.local]:
-
Укажите тип хранилища, которое вы хотите использовать для размещения
ВМ HostedEngine
.Please specify the storage you would like to use (glusterfs, iscsi, fc, nfs)[nfs]:
-
Для NFS введите версию, полный адрес и путь к хранилищу, а также необходимые параметры монтирования:
Please specify the nfs version you would like to use (auto, v3, v4, v4_1)[auto]: Please specify the full shared storage connection path to use (example: host:/path): storage.example.com:/hosted_engine/nfs If needed, specify additional mount options for the connection to the hosted-engine storage domain []:
-
Для iSCSI введите данные портала и выберите цель и LUN из автоматически определяемых списков. Во время развертывания можно выбрать только одну цель iSCSI, но поддерживается многоканальность для подключения всех порталов одной группы порталов.
Please specify the iSCSI portal IP address: Please specify the iSCSI portal port [3260]: Please specify the iSCSI discover user: Please specify the iSCSI discover password: Please specify the iSCSI portal login user: Please specify the iSCSI portal login password: The following targets have been found: [1] iqn.2017-10.com.redhat.example:he TPGT: 1, portals: 192.168.1.xxx:3260 192.168.2.xxx:3260 192.168.3.xxx:3260 Please select a target (1) [1]: 1 The following luns have been found on the requested target: [1] 360003ff44dc75adcb5046390a16b4beb 199GiB MSFT Virtual HD status: free, paths: 1 active Please select the destination LUN (1) [1]:
-
Для хранилища Gluster введите полный адрес и путь к хранилищу, а также необходимые параметры монтирования:
Please specify the full shared storage connection path to use (example: host:/path): storage.example.com:/hosted_engine/gluster_volume If needed, specify additional mount options for the connection to the hosted-engine storage domain []:
-
Для Fibre Channel выберите LUN из списка автоматического обнаружения. Адаптеры шины хоста должны быть настроены и подключены, а LUN не должен содержать существующих данных.
The following luns have been found on the requested target: [1] 3514f0c5447600351 30GiB XtremIO XtremApp status: used, paths: 2 active [2] 3514f0c5447600352 30GiB XtremIO XtremApp status: used, paths: 2 active Please select the destination LUN (1, 2) [1]:
-
-
Укажите другой размер диска для ВМ HostedEngine, если это необходимо.
Please specify the size of the VM disk in GiB: [51]: Enter
-
После успешного развёртывание менеджера управления виртуализации будет выведено сообщение:
[ INFO ] Hosted Engine successfully deployed
-
5.2. Развертывание менеджера управления в режиме Hosted Engine с помощью веб-интерфейса Cockpit
-
Подготовьте полные доменные имена и их IP-адреса для менеджера управления виртуализации и хостов перед развертыванием, в DNS должны существовать соответствующие записи в зонах прямого и обратного просмотра. Ниже приведён пример планирования доменных имён и IP-адресов развёртываемой системы управления виртуализацией zVirt.
Объект FQDN IP адрес Менеджер управления
zvirtvm.orionsoft.local
10.252.12.103
Хост 1
host1.orionsoft.local
10.252.12.100
Хост 2
host2.orionsoft.local
10.252.12.101
Хост 3
host3.orionsoft.local
10.252.12.102
После установки имя
HostedEngine
будет являться именем виртуальной машины с менеджером управления и веб-интерфейсом управления средой виртуализации. Задаваемый адрес должен быть свободен.В случае невозможности использования внешнего DNS добавьте в файл /etc/hosts IP-адреса и FQDN хоста виртуализации и разворачиваемого менеджера управления.
-
Перейдите в веб-интерфейс управления хостом виртуализации
Cockpit
. Сервис доступен по доменному имени хоста и порту9090
. Например,https://host1.orionsoft.local:9090/.
-
Выберите из основного списка вкладку zVirt, далее Hosted Engine и нажмите Запустить для запуска процесса развертывания среды виртуализации в режиме Hosted Engine.
-
Заполните поля для настройки ВМ HostedEngine (минимальное количество виртуальных ЦП - 4, минимальный размер ОЗУ - 4096 МБ, рекомендуемый - не менее 16384 МБ). Укажите пароль для учётной записи администратора root операционной системы ВМ HostedEngine.
-
Укажите пароль для учётной записи администратора портала (учётная запись - admin@internal, используется для авторизации в веб-интерфейсе среды виртуализации).
-
Проверьте конфигурацию, если она корректна, нажмите на кнопку Подготовить ВМ.
-
Процесс подготовки и создания ВМ HostedEngine.
-
Завершение процесса подготовки и создания ВМ HostedEngine.
-
Выполните настройку домена хранения для ВМ HostedEngine.
-
Проверьте итоговую конфигурацию, если она корректна, нажмите на кнопку Завершить установку.
-
Процесс развертывания среды виртуализации в режиме Hosted Engine.
-
После успешного развертывания увидите сообщение.
5.3. Развертывание менеджера управления в гиперконвергентной среде в режиме Hosted Engine с помощью веб-интерфейса Cockpit
Техническая поддержка по службе Gluster Storage не оказывается. |
Гиперконвергентный вариант развертывания среды виртуализации объединяет вычислительные возможности, хранилища, сети хостов и предоставляет управление инфраструктурой в веб-интерфейсе.
Хосты должны иметь минимум два сетевых интерфейса для разделения трафика на общедоступную сеть и сеть хранения. Поддерживаются только RAID5 и RAID6.
Для необработанных или прямых логических устройств необходимо добавить разрешающее правило на хостах в LVM фильтре - /etc/lvm/lvm.conf. Справочная информация по созданию фильтра LVM доступна в файле /etc/lvm/lvm.conf, а также вhttps://wiki.orionsoft.ru/solutions/latest/disks/disk-sol-1/[статье,window=_blank].
Вывести строку содержащую фильтр:
grep "^filter" /etc/lvm/lvm.conf
Пример фильтра:
filter = ["a|^/dev/disk/by-id/lvm-pv-uuid-86IM9f-mYLD-TUxB-Ng26-xrX5-4uWR-f3gcVt$|", "a|/dev/sdb*|", "r|.*|"]
где /dev/sdb - блочное устройство для гластер томов.
-
Подготовьте полные доменные имена для менеджера управления виртуализации и хостов перед развертыванием. Записи прямого и обратного просмотра должны быть установлены в DNS.
-
Необходимо использовать внешние и внутренние FQDN для разделения трафика, например, первый хост -
mhost1.infoland.local
, с IP–адресом172.25.1.181
на первом сетевом интерфейсе, должен быть доступен по доменному имениghost1.infoland.local
через второй сетевой интерфейс с IP–адресом172.25.4.181
.Подготовьте полные доменные имена и их IP-адреса для менеджера управления виртуализации и хостов перед развертыванием, в DNS должны существовать соответствующие записи в зонах прямого и обратного просмотра. Ниже приведён пример планирования доменных имён и IP-адресов развёртываемой системы управления виртуализацией zVirt.
Объект FQDN IP адрес Менеджер управления
zvirtvm.infoland.local
172.25.1.186
Хост 1
mhost1.infoland.local
172.25.1.181
ghost1.infoland.local
172.25.4.181
Хост 2
mhost2.infoland.local
172.25.1.182
ghost2.infoland.local
172.25.4.182
Хост 3
mhost3.infoland.local
172.25.1.183
ghost3.infoland.local
172.25.4.183
После установки имя
HostedEngine
будет являться именем виртуальной машины с менеджером управления и адресом веб-интерфейса управления. Задаваемый адрес должен быть свободен. В случае невозможности использования внешнего DNS добавьте в файл /etc/hosts IP-адреса и FQDN хостов виртуализации и разворачиваемого менеджера управления.В процессе развертывания необходимо настроить SSH-аутентификацию используя беспарольный публичный ключ пользователя
root
для всех хостов. Это необходимо сделать для всех интерфейсов (общедоступной сети и сети хранения), а также для IP-адресов и полных доменных имен. -
Перейдите в веб-интерфейс управления хостом виртуализации Cockpit.
Используйте учетную запись root. Сервис доступен по доменному имени сервера и порту
9090
. Например,https://mhost1.infoland.local:9090/
. -
Выберите из основного списка вкладку Терминал для выполнения нижеуказанных команд.
-
Сгенерируйте беспарольный ключ:
ssh-keygen -t rsa
В процессе генерации будет предложено указать каталог для хранения ключа или выбрать каталог по умолчанию. Не используйте парольную фразу.
-
Скопируйте полученный открытый ключ на каждый хост, к которому вы хотите получить доступ, включая хост, на котором вы выполняете команду, используя как внешние, так и внутренние полные доменные имена.
Синтаксис команды:
ssh-copy-id -i <расположение ключа>/<имя ключа>.pub <пользователь>@<имя хоста>
Пример выполнения копирования ключа:
ssh-copy-id -i /root/.ssh/id_rsa.pub root@mhost1.orionsoft.local ssh-copy-id -i /root/.ssh/id_rsa.pub root@mhost2.orionsoft.local ssh-copy-id -i /root/.ssh/id_rsa.pub root@mhost3.orionsoft.local ssh-copy-id -i /root/.ssh/id_rsa.pub root@ghost1.orionsoft.local ssh-copy-id -i /root/.ssh/id_rsa.pub root@ghost2.orionsoft.local ssh-copy-id -i /root/.ssh/id_rsa.pub root@ghost3.orionsoft.local
Перед развертыванием убедитесь, что сервис multipath не использует локальные диски, которые подготовлены для Gluster Storage. Информацию см. в Отключение multipath для работы дополнительных дисков.
-
Выберите из основного списка вкладку «zVirt», далее «Гиперконвергентная среда» и нажмите «Запустить» для запуска процесса подготовки хранилища.
-
Укажите полные доменные имена хостов, которые будут использоваться для общедоступной сети и сети хранения.
Если хосты используют только одну сеть, включите опцию Используется одно и тоже имя хоста для общедоступной сети и сети хранения.
Если хосты используют сеть IPv6, включите опцию Хосты используют IPv6 (по умолчанию IPv4). Перед включением опции убедитесь, что хосты используют полные доменные имена. Указание IPv6 адресов не поддерживается.
В поле Хост 1 укажите полное доменное имя гиперконвергентного хоста, который используя беспарольную SSH-аутентификацию может подключаться к другим хостам.
-
На вкладке Выбор пакетов возможно установить дополнительные пакеты на всех хостах.
-
На вкладке Тома определяются тома, которые будут созданы. Указанные тома будут использоваться для создания доменов хранения в zVirt.
-
Укажите для каждого хоста устройства, на которых будут созданы брики. Если устройства, используемые для бриков, настроены как устройства RAID, укажите это в параметре Тип RAID.
Опция Черный список устройств Gluster запрещает использовать для диска имя в формате
multipath
. Если вы хотите использовать имя устройства в форматеmultipath
, не используйте эту опцию и укажите имя устройства в формате/dev/mapper/<WWID>
.Если на хостах различаются имена или размеры устройств, используйте выпадающее меню Хост для определения устройств для каждого хоста.
В поле Имя устройства укажите необработанное устройство в формате -
/dev/sdc
, которое будет использоваться для создания томов. Используйте формат -/dev/mapper/<WWID>
дляmultipath
- устройств.При необходимости настройте LV Cache. Этот параметр позволяет использовать для
lvmcache
SSD диски, если для бриков используются HDD диски. -
На вкладке Проверка доступен для просмотра и редактирования сгенерированный сценарий Ansible.
-
По нажатию на кнопку Установить будет запущен процесс подготовки томов.
-
После успешной подготовки томов будет предложено продолжить развертывание среды виртуализации в режиме Hosted Engine. Нажмите на кнопку Продолжить установку Hosted Engine.
-
Заполните поля для настройки ВМ HostedEngine (минимальное количество виртуальных ЦП - 4, минимальный размер ОЗУ - 4096 МБ, рекомендуемый - не менее 16384 МБ).
-
Укажите пароль учётной записи администратора root для операционной системы ВМ HostedEngine и определите параметры оповещения.
-
Проверьте конфигурацию, если она корректна, нажмите на кнопку Подготовить ВМ.
-
Процесс подготовки и создания ВМ HostedEngine.
-
Завершение процесса подготовки и создания ВМ HostedEngine.
-
Выполните настройку домена хранения для ВМ HostedEngine. Конфигуратор автоматически предложит использовать ранее подготовленный том.
-
Проверьте итоговую конфигурацию, если она корректна, нажмите на кнопку Завершить установку.
-
Процесс развертывания среды виртуализации в режиме Hosted Engine.
-
После успешного развертывания Вы увидите сообщение.
5.4. Развертывание менеджера управления в режиме Standalone
В режиме Standalone менеджер управления виртуализации может быть установлен в двух вариантах - на отдельно стоящем сервере, и на сервере, который может быть использован как гипервизор (вариант StandAlone All-in-One).
Режим StandAlone All-in-One не рекомендуется использовать в продуктивной среде. |
В режиме StandAlone для правильной работы загрузки образов дисков в домены хранения нужно внести изменения в конфигурационный файл /etc/ovirt-imageio/conf.d/50-engine.conf на менеджере управления соответствии с руководством. |
-
Подготовьте полные доменные имена для менеджера управления виртуализации и хостов перед развертыванием, в DNS должны существовать соответствующие записи в зонах прямого и обратного просмотра. Ниже приведён пример планирования доменных имён и IP-адресов развёртываемой системы управления виртуализацией zVirt
Объект FQDN IP адрес Хост 1 с менеджером управления
host1.orionsoft.local
10.252.12.100
Хост 2
host2.orionsoft.local
10.252.12.101
Хост 3
host3.orionsoft.local
10.252.12.102
В случае невозможности использования внешнего DNS добавьте в файл /etc/hosts IP-адреса и FQDN хоста виртуализации и разворачиваемого менеджера управления.
-
Начните процесс установки командой:
engine-setup
-
Следуйте сообщениям в консоли:
-
Настройка интеграции с Cinderlib при необходимости.
--== PRODUCT OPTIONS ==-- Configure Cinderlib integration (Currently in tech preview) (Yes, No) [No]:
-
Подтвердите, что на данном хосте будет развернут менеджер управления.
Configure Engine on this host (Yes, No) [Yes]:
-
Подтвердите, что необходимо выполнить настройку сетевого провайдера
ovirt-provider-ovn
.vConfiguring ovirt-provider-ovn also sets the Default cluster's default network provider to ovirt-provider-ovn. Non-Default clusters may be configured with an OVN after installation. Configure ovirt-provider-ovn (Yes, No) [Yes]:
-
Подтвердите, что необходимо выполнить на данном хосте настройку
WebSocket Proxy
.Configure WebSocket Proxy on this host (Yes, No) [Yes]:
-
Подтвердите установку Data Warehouse на данном хосте.
Configure Data Warehouse on this host (Yes, No) [Yes]:
-
Подтвердите настройку прокси-сервера для консолей ВМ.
Configure VM Console Proxy on this host (Yes, No) [Yes]:
-
Подтвердите настройку сервера мониторинга Grafana на данном хосте.
Configure Grafana on this host (Yes, No) [Yes]:
-
Подтвердите полное доменное имя данного хоста.
Host fully qualified DNS name of this server [host1.orionsoft.local]:
-
Согласитесь с автоматической настройкой сетевого экрана.
Setup can automatically configure the firewall on this system. Note: automatic configuration of the firewall may overwrite current settings. Do you want Setup to configure the firewall? (Yes, No) [Yes]:
В случае установки среды на РедОС, на данном этапе появится запрос:
Firewall manager to configure (firewalld):
Введите в ответ:
firewalld
-
Подтвердите установку базы данных Data Warehouse на данном хосте.
--== DATABASE CONFIGURATION ==-- Where is the DWH database located? (Local, Remote) [Local]:
-
Согласитесь с автоматической настройкой базы данных DWH.
Setup can configure the local postgresql server automatically for the DWH to run. This may conflict with existing applications. Would you like Setup to automatically configure postgresql and create DWH database, or prefer to perform that manually? (Automatic, Manual) [Automatic]:
-
Подтвердите расположение базы данных менеджера управления на данном хосте.
Where is the Engine database located? (Local, Remote) [Local]:
-
Согласитесь с автоматической настройкой базы данных менеджера управления.
Setup can configure the local postgresql server automatically for the engine to run. This may conflict with existing applications. Would you like Setup to automatically configure postgresql and create Engine database, or prefer to perform that manually? (Automatic, Manual) [Automatic]:
-
Установите и подтвердите пароль для учётной записи
admin@internal
(учётная запись используется для авторизации в веб-интерфейсе среды виртуализации).--== OVIRT ENGINE CONFIGURATION ==-- Engine admin password: Confirm engine admin password:
-
Выберите режим
Both
.Application mode (Virt, Gluster, Both) [Both]:
-
Согласитесь с использованием учётных данных по умолчанию для сетевого провайдера.
Use default credentials (admin@internal) for ovirt-provider-ovn (Yes, No) [Yes]:
-
Определите необходимо ли стирать данные после удаления SAN хранилищ.
--== STORAGE CONFIGURATION ==-- Default SAN wipe after delete (Yes, No) [No]:
-
Подтвердите название организации для сертификата.
--== PKI CONFIGURATION ==-- Organization name for certificate [example.local]:
-
Согласитесь на установку веб-страницы системы виртуализации по умолчанию на веб-сервере.
--== APACHE CONFIGURATION ==-- Setup can configure the default page of the web server to present the application home page. This may conflict with existing applications. Do you wish to set the application as the default page of the web server? (Yes,No) [Yes]:
-
Согласитесь с автоматической настройкой SSL на
apache
.Setup can configure apache to use SSL using a certificate issued from the internal CA. Do you wish Setup to configure that, or prefer to perform that manually? (Automatic, Manual) [Automatic]:
-
Выберите режим
Basic
.--== SYSTEM CONFIGURATION ==-- --== MISC CONFIGURATION ==-- Please choose Data Warehouse sampling scale: (1) Basic (2) Full (1, 2) [1]:
-
Подтвердите, что пароль администратора менеджера управления будет использоваться в качестве начального пароля администратора
Grafana
.Use Engine admin password as initial Grafana admin password (Yes, No) [Yes]:
-
Просмотрите предварительную конфигурацию развёртывания и подтвердите её.
--== CONFIGURATION PREVIEW ==-- Please confirm installation settings (OK, Cancel) [OK]:
-
Сообщение об успешном развёртывании менеджера управления.
[ INFO ] Execution of setup completed successfully
-
5.5. Исправление хоста после неудачного развертывания менеджера управления
Если по каким-либо причинам развертывание менеджера управления закончилось ошибкой, хост необходимо очистить:
-
Для режима Hosted Engine с помощью команды:
ovirt-hosted-engine-cleanup
-
Для режима Standalone с помощью команды:
engine-cleanup
6. После установки
6.1. Проверка работоспособности
Зайдите в веб-интерфейс по адресу, который был указан для менеджера управления, например, https://zvirtvm.orionsoft.local/ > Портал администрирования > Введите имя пользователя admin и пароль заданный при установке системы. Откроется веб интерфейс управления СУВ zVirt.
6.2. Добавление хостов
Добавьте все физические серверы в кластер, через Да
на вкладке Hosted Engine:
6.3. Добавление хранилища
zVirt использует централизованную систему хранения для образов дисков виртуальных машин, образов ISO и снимков.
Чтобы добавить новый домен хранения перейдите в
и добавьте домены хранения:-
Домен данных
-
Домен ISO
-
Домен Экспорта
Домен ISO и Домен Экспорта поддерживают только локальное хранилище, NFS или GlusterFS. |
7. Сбор и предоставление логов
В случае необходимости предоставления логов технической службе технической поддержки, выполнить следующие действия для сбора журналов системы:
-
Выполнить архивацию логов:
tar zcf /root/logs.tar.gz /var/log
-
Скачать файл logs.tar.gz;
-
Предоставить файл logs.tar.gz службе технической поддержки.