Руководство по установке

Версия zVirt: 3.2

Аннотация

В руководстве описан процесс развёртывания системы управления виртуализацией zVirt на хосты с установленной zVirt Node - минимальной операционной системой, предназначенной для обеспечения простого метода настройки физической машины для работы в качестве гипервизора.

1. Описание процесса установки

Установка включает в себя следующие шаги:

  1. Подготовка хранилища в качестве домена хранения hosted_storage (для ВМ менеджера управления при развертывании среды виртуализации в режиме HostedEngine) и для стандартных доменов хранения. Вы можете использовать следующие типы хранения:

    • NFS;

    • ISCSI;

    • Fibre Channel (FCP);

    • Gluster Storage.

  2. Установка операционной системы на хост, который станет первым хостом с размещенным на нем менеджером управления.

  3. Настройка репозитория

  4. Развертывание и настройка менеджера управления.

  • Внимательно прочтите данное руководство и руководство по планированию инфраструктуры перед установкой системы безопасного управления виртуализацией zVirt, это позволит сократить время развертывания и избежать ошибок.

  • Техническая поддержка по службе Gluster Storage не оказывается.

2. Подготовка хранилища

Необходимо заранее подготовить хранилище объёмом не менее 55 ГиБ, которое будет использоваться как домен хранения данных для развертывания ВМ HostedEngine.

После развертывания рекомендуется добавить дополнительные домены данных для хранения дисков ВМ.

Домен данных hosted_storage предназначен только для хранения дисков ВМ HostedEngine.

В доменах данных хранятся виртуальные жесткие диски и файлы OVF всех виртуальных машин и шаблонов центра данных. Домены данных не могут одновременно использоваться несколькими центрами данных когда они активны (но могут быть перенесены между центрами данных). Домены данных нескольких типов хранения могут быть добавлены в один и тот же центр данных при условии, что они являются общими, а не локальными доменами. Поддерживаются следующие типы хранилищ:

  • NFS;

  • ISCSI;

  • Fibre Channel (FCP);

  • Gluster Storage.

При использовании протокола iSCSI, домен хранения hosted_storage должен использовать выделенный iSCSI target. Любые дополнительные домены хранения должны использовать отдельные iSCSI target.

В случае появления следующей ошибки во время установки:

[ ERROR ] Error: Fault reason is "Operation Failed". Fault detail is "[Physical device initialization failed. Please check that the device is empty and accessible by the host.]". HTTP response code is 400.

Выполнить инициализацию системы хранения при помощи команды:

dd if=/dev/zero of=/dev/mapper/LUN_ID bs=1M count=200 oflag=direct

где /dev/mapper/LUN_ID - путь до LUN

Будьте аккуратны при выполнении этой операции: не выполняйте её на LUN, содержащим важные данные.

2.1. Подготовка хранилища NFS

Следующие шаги универсальны для семейства Unix-подобных операционных систем на базе ядра Linux. Для уточнения конкретных шагов обратитесь к официальному руководству ОС.

  1. Создать каталог (должно быть доступно более 55 ГиБ свободного места):

    mkdir -p /storage/domain
  2. Установить права доступа:

    chown 36:36 /storage/domain
    chmod 0775 /storage/domain
  3. Опубликовать каталог, прописав его в конфигурационном файле NFS-сервера:

    echo "/storage/domain *(rw,anonuid=36,anongid=36)" >> /etc/exports
  4. Убедиться в правильности задания параметров доступа:

    cat /etc/exports
  5. Запустить необходимые сервисы:

    systemctl enable nfs-server
    systemctl enable rpcbind
    systemctl enable nfs-blkmap
    systemctl restart nfs-server
    systemctl restart rpcbind
    systemctl restart nfs-blkmap
  6. Создать правила межсетевого экрана для обеспечения доступности хранилища для других хостов:

    firewall-cmd --permanent --add-service=nfs
    firewall-cmd --permanent --add-service=mountd
    firewall-cmd --permanent --add-service=rpc-bind
    firewall-cmd --reload

    Если в качестве ОС используется не zVirt Node, то необходимо создать служебных пользователей и группы:

    groupadd sanlock -g 179
    groupadd kvm -g 36
    useradd sanlock -u 179 -g 179 -G kvm
    useradd vdsm -u 36 -g 36 -G sanlock

2.2. Подготовка хранилища iSCSI

zVirt поддерживает хранилища доступные по протоколу iSCSI. Хранилища после добавление в среду виртуализации как домены хранения будут использоваться в качестве Volume Group (VG), состоящие из одного или более LUN (PV).

Volume Group (VG) и LUN (PV) не могут быть одновременно использоваться несколькими доменам хранения.

В настоящее время zVirt не поддерживает хранилище с размером блока 4K, поэтому необходимо сконфигурировать хранилище в legacy mode (512b block). Если ваш хост загружается из хранилища SAN и теряет связь с хранилищем, файловые системы хранилища становятся доступными только для чтения и остаются в этом состоянии после восстановления соединения.

Для предотвращения подобной ситуации рекомендуется добавить в файл конфигурации службы multipath wwid загрузочного LUN, для обеспечения постановки его в очередь при наличии соединения:

multipaths {
multipath {
wwid LUN_ID
no_path_retry queue
}

2.3. Подготовка FCP-хранилища

zVirt поддерживает хранилища, доступные по протоколу Fibre Channel. Хранилища после добавление в среду виртуализации как домены хранения будут использоваться в качестве Volume Group (VG), состоящие из одного или более LUN (PV).

В настоящее время zVirt не поддерживает хранилище с размером блока 4K, поэтому необходимо сконфигурировать хранилище в legacy mode (512b block). Если ваш хост загружается из хранилища SAN и теряет связь с хранилищем, файловые системы хранилища становятся доступными только для чтения и остаются в этом состоянии после восстановления соединения.

Для предотвращения подобной ситуации рекомендуется добавить в файл конфигурации службы multipath wwid загрузочного LUN, для обеспечения постановки его в очередь при наличии соединения:

multipaths {
multipath {
wwid LUN_ID
no_path_retry queue
}

2.4. Подготовка Gluster Storage

Информацию по настройке Gluster Storage см. в официальной документации, учитывая следующие особенности - тома Gluster Storage должны использовать либо трехстороннюю репликацию, либо арбитражную репликацию. Такой вариант снижает риск возникновения split-brain в кластере.

Поддерживаются следующие типы томов:

  • трехсторонне реплицированные и распределенные реплицированные тома (replica count 1)

  • арбитражные реплицированные или распределенные арбитражные реплицированные тома (replica 3 arbiter 1)

Дополнительно необходимо назначить следующие настройки для тома:

gluster volume set VOLUME_NAME group virt
gluster volume set VOLUME_NAME performance.strict-o-direct on
gluster volume set VOLUME_NAME network.remote-dio off
gluster volume set VOLUME_NAME storage.owner-uid 36
gluster volume set VOLUME_NAME storage.owner-gid 36
gluster volume set VOLUME_NAME network.ping-timeout 30
Техническая поддержка по службе Gluster Storage не оказывается.

2.5. Настройка multipath в соответствии с рекомендациями производителя системы хранения данных

Вы можете настроить параметры конфигурации multipath в соответствии с требованиями и рекомендациями производителя системы хранения данных. Эти настройки могут отключать как параметры, определенные по умолчанию, так и параметры, указанные в файле /etc/multipath.conf. Чтобы отключить определенные параметры multipath, не вносите изменения в файл /etc/multipath.conf. Служба VDSM управляет файлом /etc/multipath.conf, установка или обновление VDSM может привести к перезаписи этого файл, включая все содержащиеся в нем настройки. Такая перезапись может привести к сбоям в работе с системой хранения данных. Вместо этого создайте файл в каталоге /etc/multipath/conf.d, который будет содержать параметры, которые вы хотите изменить или отключить.

VDSM выполняет файлы в каталоге /etc/multipath/conf.d в определенном порядке. Для того, чтобы контролировать порядок выполнения, создавайте файлы с именем, которые начинается с цифр, что позволит выполнить его последним по порядку. Например, /etc/multipath/conf.d/90-fcdevice.conf.

В целях исключения серьезных сбоев в работе с системой хранения данных, следуйте следующим рекомендациям:

  • Не изменяйте файл /etc/multipath.conf. Если файл содержит пользовательские изменения, и файл будет перезаписан, это может вызвать сбои в работе с системой хранения данных.

  • Не переопределяйте настройки user_friendly_names и find_multipaths.

  • Не переопределяйте параметры no_path_retry и polling_interval, если этого не требует производитель системы хранения данных.

Порядок действий:

  1. VDSM настроен на использование модуля multipath. Для того, чтобы проверить это выполните команду:

    vdsm-tool is-configured --module multipath
  2. Создайте новый конфигурационный файл в каталоге /etc/multipath/conf.d.

  3. Скопируйте отдельные параметры, которые вы хотите отключить, из файла /etc/multipath.conf в новый конфигурационный файл /etc/multipath/conf.d/<example>.conf. Удалите все знаки комментариев (#), отредактируйте значения параметров и сохраните изменения.

  4. Примените новые настройки с помощью команды:

    systemctl reload multipathd
Не перезапускайте службу multipathd - это приводит к появлению ошибок в журналах VDSM.

2.6. Рекомендуемые настройки для multipath

Не изменяйте следующие настройки:

  • user_friendly_names no - имена устройств должны быть одинаковыми для всех гипервизоров, например, /dev/mapper/{WWID}. Значение по умолчанию - no, предотвращает назначение произвольных и непоследовательных имен устройств, таких как /dev/mapper/mpath{N} на разных гипервизорах, что может привести к непредсказуемому поведению системы. Не изменяйте значение параметра user_friendly_names на yes, т.к. такие пользовательские имена устройств могут привести к непредсказуемому поведению системы или сбоям.

  • find_multipaths no - параметр определяет, пытается ли zVirt получить доступ к устройствам через multipath если доступно более одного пути. Текущее значение - no, позволяет zVirt получать доступ к устройствам через multipath, даже в том случае, если доступен только один путь.

Не изменяйте следующие параметры, если это не требуется производителем системы хранения данных:

  • no_path_retry 4 - параметр определяет количество попыток для повторного опроса при отсутствии доступных путей.

  • polling_interval 5 - параметр определяет количество секунд между попытками опроса, для определения состояния пути до устройства. Если производитель не предоставил четкой причины для увеличения значения, оставьте значение по умолчанию, для того, чтобы система быстрее реагировала на сбои пути.

3. Установка хоста виртуализации

zVirt Node - это подготовленная операционная система, которая предназначена для обеспечения подготовки сервера для работы в качестве гипервизора в среде виртуализации zVirt. zVirt Node содержит только пакеты, необходимые для работы сервера в качестве гипервизора, и имеет веб-интерфейс Cockpit для базового мониторинга и выполнения подготовительной настройки ОС перед добавлением хоста в среду виртуализации. Распространяется в виде ISO-образа. Хост должен соответствовать минимальным требованиям к оборудованию.

Порядок действий:
  1. Загрузите образ zVirt Node. Для доступа к странице загрузки и репозиторию zVirt необходимо получить учетные данные для входа.

  2. Запишите ISO-образ zVirt Node на USB, CD или DVD.

  3. Запустите сервер, на котором вы устанавливаете ОС, загрузившись с подготовленного установочного носителя.

  4. В меню загрузки выберите Install zVirt и нажмите Enter.

  5. Выберите язык по умолчанию и нажмите Continue.

  6. Выберите часовой пояс в разделе Time & Date и нажмите Done.

  7. Выберите раскладку клавиатуры в разделе Keyboard и нажмите Done.

  8. Выберите устройство, на которое нужно установить ОС, в разделе Installation Destination. При желании включите шифрование. В разделе Storage configuration выберите Custom и разметьте диск с помощью автоматического сценария, кликнув на Click here to create them automatically. После автоматической разметки можете произвести необходимые изменения (изменить пространство для lvm разделов, не затрагивая атрибуты диска), учитывая требования раздела Требования к хранилищу Руководства по предварительному планированию инфраструктуры.

  9. Выберите сеть из раздела Network & Host Name - по кнопке Configure перейдите во вкладку конфигурации сети, настройте сеть и нажмите на кнопку Save. В поле Host Name введите имя хоста и нажмите на кнопку Apply. Переключите тумблер в состояние 1, находящийся рядом с данными об интерфейсе.

  10. При необходимости настройте политику безопасности и Kdump.

  11. Установите пароль пользователя root в разделе Root password и нажмите на кнопку Done.

  12. Нажмите на кнопку Begin Installation.

Настоятельно не рекомендуется создавать обычных пользователей, так как это может привести к использованию локальных уязвимостей безопасности.

4. Настройка репозитория

Доступ к репозиториям необходимо настроить на всех хостах, которые планируется использовать в среде zVirt.
  1. Убедитесь, что включены репозитории centos-zvirt-main и centos-zvirt-extras:

    dnf repolist all
    repo enabled

    Если указанные репозитории по каким-то причинам отключены, их можно включить следующей командой

    dnf config-manager --enable *zvirt*
  2. Настройте доступ в репозиторий:

    zvirt-credentials -u USERNAME -p PASSWORD

    При этом доступ к репозиторию будет настроен на использование учетных данных, значения которых сохранятся в файлах /etc/yum/vars/zuser и /etc/yum/vars/zpasswd.

    В противном случае потребуется ручное указание параметров username и password в файле centos-zvirt-stable.repo.

  3. Выполните обновление:

    dnf update

5. Развертывание менеджера управления виртуализации

5.1. Развертывание менеджера управления в режиме Hosted Engine c помощью командной строки

  1. Подготовьте полные доменные имена и их IP-адреса для менеджера управления виртуализации и хостов перед развертыванием, в DNS должны существовать соответствующие записи в зонах прямого и обратного просмотра. Ниже приведён пример планирования доменных имён и IP-адресов развёртываемой системы управления виртуализацией zVirt.

    Объект FQDN IP адрес

    Менеджер управления

    zvirtvm.orionsoft.local

    10.252.12.103

    Хост 1

    host1.orionsoft.local

    10.252.12.100

    Хост 2

    host2.orionsoft.local

    10.252.12.101

    Хост 3

    host3.orionsoft.local

    10.252.12.102

    После установки имя HostedEngine будет являться именем виртуальной машины с менеджером управления и веб-интерфейсом управления средой виртуализации. Задаваемый адрес должен быть свободен.

    В случае невозможности использования внешнего DNS добавьте в файл /etc/hosts IP-адреса и FQDN хоста виртуализации и разворачиваемого менеджера управления.

  2. Установите пакеты:

    dnf install -y ovirt-engine-appliance

    В случае отсутствия доступа к сети Интернет на хосте, необходимо скачать пакет zvirt-appliance-3.2.rpm, после чего перенести файл(ы) на хост любым удобным способом в папку /root и затем установить:

    dnf install -y zvirt-appliance-3.2.rpm

    Также необходимо отключить все имеющиеся репозитории:

    dnf config-manager --disable '*'
  3. Откройте сессию запустив терминальный мультиплексор tmux командой:

    tmux
  4. Запустите процесс развертывания:

    hosted-engine --deploy
  5. Следуйте сообщениям в консоли:

    • Подтвердите готовность развернуть ВМ HostedEngine.

      [ INFO ] Stage: Initializing
      [ INFO ] Stage: Environment setup
        During customization use CTRL-D to abort.
        Continuing will configure this host for serving as hypervisor and will create a local VM with a running engine.
        The locally running engine will be used to configure a new storage domain and create a VM there.
        At the end the disk of the local VM will be moved to the shared storage.
        Are you sure you want to continue? (Yes, No) [Yes]:
    • По указанному пути будет расположен файл, содержащий лог развертывания.

      Configuration files: []
      Log file: /var/log/zvirt-hosted-engine-setup/zvirt-hosted-engine-setup-20200319163815-bm0sa2.log
    • Введите или подтвердите адрес шлюза

      --== STORAGE CONFIGURATION ==--
      --== HOST NETWORK CONFIGURATION ==--
      Please indicate the gateway IP address [172.25.1.254]:
    • Укажите сетевой интерфейс, который будет использоваться для создания сетевого моста для ВМ.

      Please indicate a nic to set ovirtmgmt bridge on: (enp1s0) [enp1s0]:
    • Укажите, каким образом будет выполняться проверка сети. Рекомендуется использовать метод проверки сети - dns.

      Please specify which way the network connectivity should be checked (ping, dns, tcp, none) [dns]:
    • Укажите название создаваемого центра данных.

      --== VM CONFIGURATION ==--
      Please enter the name of the datacenter where you want to deploy this hosted-engine host. [Default]:
    • Укажите название создаваемого кластера.

      Please enter the name of the cluster where you want to deploy this hosted-engine host. [Default]:
    • Здесь указывается путь к ova-файлу, в стандартном сценарии строку нужно оставить пустой.

      If you want to deploy with a custom engine appliance image, please specify the path to the OVA archive you would like to use (leave it empty to skip, the setup will use ovirt-engine-appliance rpm installing it if missing):
    • Укажите количество vCPU (минимально -4) и ОЗУ (минимально - 4096 МБ, рекомендуется - не менее 16384 МБ) выделяемых для ВМ HostedEngine.

      Please specify the number of virtual CPUs for the VM (Defaults to appliance OVF value): [4]:
      Please specify the memory size of the VM in MB (Defaults to maximum available): [4759]:
    • Укажите подготовленное доменное имя для ВМ HostedEngine.

      [ INFO ] Detecting host timezone.
        Please provide the FQDN you would like to use for the engine.
        Note: This will be the FQDN of the engine VM you are now going to launch, it should not point to the base host or to any other existing machine.
        Engine VM FQDN: []: zvirtvm.orionsoft.local
    • Введите имя домена, в котором будет находиться сервер управления.

      Please provide the domain name you would like to use for the engine appliance.
      Engine VM domain: [orionsoft.local]
    • Введите и подтвердите пароль для пользователя root ОС ВМ HostedEngine.

      Enter root password that will be used for the engine appliance:
      Confirm appliance root password:
    • Введите открытый ключ ssh для пользователя root, который будет использоваться для ВМ HostedEngine (при необходимости).

      You may provide an SSH public key, that will be added by the deployment script to the authorized_keys file of the root user in the engine appliance.
      This should allow you password less login to the engine machine after deployment.
      If you provide no key, authorized_keys will not be touched. SSH public key []:
    • Укажите хотите ли включить доступ по ssh для пользователя root в ВМ HostedEngine.

      [WARNING] Skipping appliance root ssh public key
        Do you want to enable ssh access for the root user (yes, no, withoutpassword) [yes]:
    • Хотите ли вы применить профиль безопасности OpenSCAP.

      Do you want to apply a default OpenSCAP security profile (Yes, No) [No]: Enter
    • Подтвердите сгенерированный maс-адрес для ВM HostedEngine или введите свой.

      You may specify a unicast MAC address for the VM or accept a randomly generated default [00:16:3e:24:4d:60]: Enter
    • Используйте статическую конфигурацию сети ВM HostedEngine.

      How should the engine VM network be configured (DHCP, Static)[DHCP]? Static
    • Введите IP-адрес ВМ HostedEngine.

      Please enter the IP address to be used for the engine VM []: 10.252.12.103
    • Подтвердите или введите адрес DNS сервера.

      [ INFO ] The engine VM will be configured to use 10.252.12.103/24
        Please provide a comma-separated list (max 3) of IP addresses of domain name servers for the engine VM
        Engine VM DNS (leave it empty to skip) [172.25.1.1]:
    • Укажите добавить ли запись о хосте в файл hosts на ВМ HostedEngine.

      Add lines for the appliance itself and for this host to /etc/hosts on the engine VM?
      Note: ensuring that this host could resolve the engine VM hostname is still up to you (Yes, No)[No]
    • Введите имя SMTP сервера, через который будут отсылаться уведомления.

      --== HOSTED ENGINE CONFIGURATION ==--
      Please provide the name of the SMTP server through which we will send notifications [localhost]:
    • Введите порт для SMTP сервера.

      Please provide the TCP port number of the SMTP server [25]:
    • Введите e-mail адрес, откуда будут отсылаться уведомления.

      Please provide the email address from which notifications will be sent [root@localhost]:
    • Введите список адресов e-mail через запятую, которые будут получать уведомления.

      Please provide a comma-separated list of email addresses which will get notifications [root@localhost]:
    • Введите и подтвердите пароль для пользователя admin@internal (Учётная запись используется для авторизации в веб-интерфейсе среды виртуализации).

      Enter engine admin password:
      Confirm engine admin password:
    • Укажите имя хоста для сети управления.

      [ INFO ] Stage: Setup validation
        Please provide the hostname of this host on the management network [host1.orionsoft.local]:
    • Укажите тип хранилища, которое вы хотите использовать для размещения ВМ HostedEngine.

      Please specify the storage you would like to use (glusterfs, iscsi, fc, nfs)[nfs]:
      • Для NFS введите версию, полный адрес и путь к хранилищу, а также необходимые параметры монтирования:

        Please specify the nfs version you would like to use (auto, v3, v4, v4_1)[auto]:
        Please specify the full shared storage connection path to use (example: host:/path): storage.example.com:/hosted_engine/nfs
        If needed, specify additional mount options for the connection to the hosted-engine storage domain []:
      • Для iSCSI введите данные портала и выберите цель и LUN из автоматически определяемых списков. Во время развертывания можно выбрать только одну цель iSCSI, но поддерживается многоканальность для подключения всех порталов одной группы порталов.

        Please specify the iSCSI portal IP address:
        Please specify the iSCSI portal port [3260]:
        Please specify the iSCSI discover user:
        Please specify the iSCSI discover password:
        Please specify the iSCSI portal login user:
        Please specify the iSCSI portal login password:
        
        The following targets have been found:
        [1]	iqn.2017-10.com.redhat.example:he
        TPGT: 1, portals:
            192.168.1.xxx:3260
            192.168.2.xxx:3260
            192.168.3.xxx:3260
        
        Please select a target (1) [1]: 1
        
        The following luns have been found on the requested target:
        [1] 360003ff44dc75adcb5046390a16b4beb   199GiB  MSFT   Virtual HD
            status: free, paths: 1 active
        
        Please select the destination LUN (1) [1]:
      • Для хранилища Gluster введите полный адрес и путь к хранилищу, а также необходимые параметры монтирования:

        Please specify the full shared storage connection path to use (example: host:/path): storage.example.com:/hosted_engine/gluster_volume
        If needed, specify additional mount options for the connection to the hosted-engine storage domain []:
      • Для Fibre Channel выберите LUN из списка автоматического обнаружения. Адаптеры шины хоста должны быть настроены и подключены, а LUN не должен содержать существующих данных.

        The following luns have been found on the requested target:
        [1] 3514f0c5447600351   30GiB   XtremIO XtremApp
            status: used, paths: 2 active
        
        [2] 3514f0c5447600352   30GiB   XtremIO XtremApp
            status: used, paths: 2 active
        
        Please select the destination LUN (1, 2) [1]:
    • Укажите другой размер диска для ВМ HostedEngine, если это необходимо.

      Please specify the size of the VM disk in GiB: [51]: Enter
    • После успешного развёртывание менеджера управления виртуализации будет выведено сообщение:

      [ INFO ] Hosted Engine successfully deployed

5.2. Развертывание менеджера управления в режиме Hosted Engine с помощью веб-интерфейса Cockpit

  1. Подготовьте полные доменные имена и их IP-адреса для менеджера управления виртуализации и хостов перед развертыванием, в DNS должны существовать соответствующие записи в зонах прямого и обратного просмотра. Ниже приведён пример планирования доменных имён и IP-адресов развёртываемой системы управления виртуализацией zVirt.

    Объект FQDN IP адрес

    Менеджер управления

    zvirtvm.orionsoft.local

    10.252.12.103

    Хост 1

    host1.orionsoft.local

    10.252.12.100

    Хост 2

    host2.orionsoft.local

    10.252.12.101

    Хост 3

    host3.orionsoft.local

    10.252.12.102

    После установки имя HostedEngine будет являться именем виртуальной машины с менеджером управления и веб-интерфейсом управления средой виртуализации. Задаваемый адрес должен быть свободен.

    В случае невозможности использования внешнего DNS добавьте в файл /etc/hosts IP-адреса и FQDN хоста виртуализации и разворачиваемого менеджера управления.

  2. Перейдите в веб-интерфейс управления хостом виртуализации Cockpit. Сервис доступен по доменному имени хоста и порту 9090. Например,

    https://host1.orionsoft.local:9090/.
    cockpit
  3. Выберите из основного списка вкладку zVirt, далее Hosted Engine и нажмите Запустить для запуска процесса развертывания среды виртуализации в режиме Hosted Engine.

    wizard
  4. Заполните поля для настройки ВМ HostedEngine (минимальное количество виртуальных ЦП - 4, минимальный размер ОЗУ - 4096 МБ, рекомендуемый - не менее 16384 МБ). Укажите пароль для учётной записи администратора root операционной системы ВМ HostedEngine.

    vm
  5. Укажите пароль для учётной записи администратора портала (учётная запись - admin@internal, используется для авторизации в веб-интерфейсе среды виртуализации).

    engine
  6. Проверьте конфигурацию, если она корректна, нажмите на кнопку Подготовить ВМ.

    vm preparation
  7. Процесс подготовки и создания ВМ HostedEngine.

    vm process
  8. Завершение процесса подготовки и создания ВМ HostedEngine.

    vm finish
  9. Выполните настройку домена хранения для ВМ HostedEngine.

    stor
  10. Проверьте итоговую конфигурацию, если она корректна, нажмите на кнопку Завершить установку.

    stor preparation
  11. Процесс развертывания среды виртуализации в режиме Hosted Engine.

    stor install
  12. После успешного развертывания увидите сообщение.

    finish

5.3. Развертывание менеджера управления в гиперконвергентной среде в режиме Hosted Engine с помощью веб-интерфейса Cockpit

Техническая поддержка по службе Gluster Storage не оказывается.

Гиперконвергентный вариант развертывания среды виртуализации объединяет вычислительные возможности, хранилища, сети хостов и предоставляет управление инфраструктурой в веб-интерфейсе.

Хосты должны иметь минимум два сетевых интерфейса для разделения трафика на общедоступную сеть и сеть хранения. Поддерживаются только RAID5 и RAID6.

Для необработанных или прямых логических устройств необходимо добавить разрешающее правило на хостах в LVM фильтре - /etc/lvm/lvm.conf. Справочная информация по созданию фильтра LVM доступна в файле /etc/lvm/lvm.conf, а также вhttps://wiki.orionsoft.ru/solutions/latest/disks/disk-sol-1/[статье,window=_blank].

Вывести строку содержащую фильтр:

grep "^filter" /etc/lvm/lvm.conf

Пример фильтра:

filter = ["a|^/dev/disk/by-id/lvm-pv-uuid-86IM9f-mYLD-TUxB-Ng26-xrX5-4uWR-f3gcVt$|", "a|/dev/sdb*|", "r|.*|"]

где /dev/sdb - блочное устройство для гластер томов.

  1. Подготовьте полные доменные имена для менеджера управления виртуализации и хостов перед развертыванием. Записи прямого и обратного просмотра должны быть установлены в DNS.

  2. Необходимо использовать внешние и внутренние FQDN для разделения трафика, например, первый хост - mhost1.infoland.local, с IP–адресом 172.25.1.181 на первом сетевом интерфейсе, должен быть доступен по доменному имени ghost1.infoland.local через второй сетевой интерфейс с IP–адресом 172.25.4.181.

    Подготовьте полные доменные имена и их IP-адреса для менеджера управления виртуализации и хостов перед развертыванием, в DNS должны существовать соответствующие записи в зонах прямого и обратного просмотра. Ниже приведён пример планирования доменных имён и IP-адресов развёртываемой системы управления виртуализацией zVirt.

    Объект FQDN IP адрес

    Менеджер управления

    zvirtvm.infoland.local

    172.25.1.186

    Хост 1

    mhost1.infoland.local

    172.25.1.181

    ghost1.infoland.local

    172.25.4.181

    Хост 2

    mhost2.infoland.local

    172.25.1.182

    ghost2.infoland.local

    172.25.4.182

    Хост 3

    mhost3.infoland.local

    172.25.1.183

    ghost3.infoland.local

    172.25.4.183

    После установки имя HostedEngine будет являться именем виртуальной машины с менеджером управления и адресом веб-интерфейса управления. Задаваемый адрес должен быть свободен. В случае невозможности использования внешнего DNS добавьте в файл /etc/hosts IP-адреса и FQDN хостов виртуализации и разворачиваемого менеджера управления.

    В процессе развертывания необходимо настроить SSH-аутентификацию используя беспарольный публичный ключ пользователя root для всех хостов. Это необходимо сделать для всех интерфейсов (общедоступной сети и сети хранения), а также для IP-адресов и полных доменных имен.

  3. Перейдите в веб-интерфейс управления хостом виртуализации Cockpit.

    Используйте учетную запись root. Сервис доступен по доменному имени сервера и порту 9090. Например, https://mhost1.infoland.local:9090/.

    cockpit
  4. Выберите из основного списка вкладку Терминал для выполнения нижеуказанных команд.

    terminal
  5. Сгенерируйте беспарольный ключ:

    ssh-keygen -t rsa

    В процессе генерации будет предложено указать каталог для хранения ключа или выбрать каталог по умолчанию. Не используйте парольную фразу.

  6. Скопируйте полученный открытый ключ на каждый хост, к которому вы хотите получить доступ, включая хост, на котором вы выполняете команду, используя как внешние, так и внутренние полные доменные имена.

    Синтаксис команды:

    ssh-copy-id -i <расположение ключа>/<имя ключа>.pub <пользователь>@<имя хоста>

    Пример выполнения копирования ключа:

    ssh-copy-id -i /root/.ssh/id_rsa.pub root@mhost1.orionsoft.local
    ssh-copy-id -i /root/.ssh/id_rsa.pub root@mhost2.orionsoft.local
    ssh-copy-id -i /root/.ssh/id_rsa.pub root@mhost3.orionsoft.local
    ssh-copy-id -i /root/.ssh/id_rsa.pub root@ghost1.orionsoft.local
    ssh-copy-id -i /root/.ssh/id_rsa.pub root@ghost2.orionsoft.local
    ssh-copy-id -i /root/.ssh/id_rsa.pub root@ghost3.orionsoft.local

    Перед развертыванием убедитесь, что сервис multipath не использует локальные диски, которые подготовлены для Gluster Storage. Информацию см. в Отключение multipath для работы дополнительных дисков.

  7. Выберите из основного списка вкладку «zVirt», далее «Гиперконвергентная среда» и нажмите «Запустить» для запуска процесса подготовки хранилища.

    wizard
  8. Укажите полные доменные имена хостов, которые будут использоваться для общедоступной сети и сети хранения.

    Если хосты используют только одну сеть, включите опцию Используется одно и тоже имя хоста для общедоступной сети и сети хранения.

    Если хосты используют сеть IPv6, включите опцию Хосты используют IPv6 (по умолчанию IPv4). Перед включением опции убедитесь, что хосты используют полные доменные имена. Указание IPv6 адресов не поддерживается.

    В поле Хост 1 укажите полное доменное имя гиперконвергентного хоста, который используя беспарольную SSH-аутентификацию может подключаться к другим хостам.

    hosts
  9. На вкладке Выбор пакетов возможно установить дополнительные пакеты на всех хостах.

    repo
  10. На вкладке Тома определяются тома, которые будут созданы. Указанные тома будут использоваться для создания доменов хранения в zVirt.

    volume
  11. Укажите для каждого хоста устройства, на которых будут созданы брики. Если устройства, используемые для бриков, настроены как устройства RAID, укажите это в параметре Тип RAID.

    Опция Черный список устройств Gluster запрещает использовать для диска имя в формате multipath. Если вы хотите использовать имя устройства в формате multipath, не используйте эту опцию и укажите имя устройства в формате /dev/mapper/<WWID>.

    Если на хостах различаются имена или размеры устройств, используйте выпадающее меню Хост для определения устройств для каждого хоста.

    В поле Имя устройства укажите необработанное устройство в формате - /dev/sdc, которое будет использоваться для создания томов. Используйте формат - /dev/mapper/<WWID> для multipath - устройств.

    При необходимости настройте LV Cache. Этот параметр позволяет использовать для lvmcache SSD диски, если для бриков используются HDD диски.

    brik
  12. На вкладке Проверка доступен для просмотра и редактирования сгенерированный сценарий Ansible.

    check
  13. По нажатию на кнопку Установить будет запущен процесс подготовки томов.

    install
  14. После успешной подготовки томов будет предложено продолжить развертывание среды виртуализации в режиме Hosted Engine. Нажмите на кнопку Продолжить установку Hosted Engine.

    stor finish
  15. Заполните поля для настройки ВМ HostedEngine (минимальное количество виртуальных ЦП - 4, минимальный размер ОЗУ - 4096 МБ, рекомендуемый - не менее 16384 МБ).

    vm
  16. Укажите пароль учётной записи администратора root для операционной системы ВМ HostedEngine и определите параметры оповещения.

    engine
  17. Проверьте конфигурацию, если она корректна, нажмите на кнопку Подготовить ВМ.

    vm preparation
  18. Процесс подготовки и создания ВМ HostedEngine.

    vm process
  19. Завершение процесса подготовки и создания ВМ HostedEngine.

    vm finish
  20. Выполните настройку домена хранения для ВМ HostedEngine. Конфигуратор автоматически предложит использовать ранее подготовленный том.

    stor gl
  21. Проверьте итоговую конфигурацию, если она корректна, нажмите на кнопку Завершить установку.

    stor preparation gl
  22. Процесс развертывания среды виртуализации в режиме Hosted Engine.

    stor install
  23. После успешного развертывания Вы увидите сообщение.

    finish

5.4. Развертывание менеджера управления в режиме Standalone

В режиме Standalone менеджер управления виртуализации может быть установлен в двух вариантах - на отдельно стоящем сервере, и на сервере, который может быть использован как гипервизор (вариант StandAlone All-in-One).

Режим StandAlone All-in-One не рекомендуется использовать в продуктивной среде.
В режиме StandAlone для правильной работы загрузки образов дисков в домены хранения нужно внести изменения в конфигурационный файл /etc/ovirt-imageio/conf.d/50-engine.conf на менеджере управления соответствии с руководством.
  1. Подготовьте полные доменные имена для менеджера управления виртуализации и хостов перед развертыванием, в DNS должны существовать соответствующие записи в зонах прямого и обратного просмотра. Ниже приведён пример планирования доменных имён и IP-адресов развёртываемой системы управления виртуализацией zVirt

    Объект FQDN IP адрес

    Хост 1 с менеджером управления

    host1.orionsoft.local

    10.252.12.100

    Хост 2

    host2.orionsoft.local

    10.252.12.101

    Хост 3

    host3.orionsoft.local

    10.252.12.102

    В случае невозможности использования внешнего DNS добавьте в файл /etc/hosts IP-адреса и FQDN хоста виртуализации и разворачиваемого менеджера управления.

  2. Начните процесс установки командой:

    engine-setup
  3. Следуйте сообщениям в консоли:

    • Настройка интеграции с Cinderlib при необходимости.

                      --== PRODUCT OPTIONS ==--
      Configure Cinderlib integration (Currently in tech preview) (Yes, No) [No]:
    • Подтвердите, что на данном хосте будет развернут менеджер управления.

      Configure Engine on this host (Yes, No) [Yes]:
    • Подтвердите, что необходимо выполнить настройку сетевого провайдера ovirt-provider-ovn.

      vConfiguring ovirt-provider-ovn also sets the Default cluster's default network provider to ovirt-provider-ovn.
      Non-Default clusters may be configured with an OVN after installation.
      Configure ovirt-provider-ovn (Yes, No) [Yes]:
    • Подтвердите, что необходимо выполнить на данном хосте настройку WebSocket Proxy.

      Configure WebSocket Proxy on this host (Yes, No) [Yes]:
    • Подтвердите установку Data Warehouse на данном хосте.

      Configure Data Warehouse on this host (Yes, No) [Yes]:
    • Подтвердите настройку прокси-сервера для консолей ВМ.

      Configure VM Console Proxy on this host (Yes, No) [Yes]:
    • Подтвердите настройку сервера мониторинга Grafana на данном хосте.

      Configure Grafana on this host (Yes, No) [Yes]:
    • Подтвердите полное доменное имя данного хоста.

      Host fully qualified DNS name of this server [host1.orionsoft.local]:
    • Согласитесь с автоматической настройкой сетевого экрана.

      Setup can automatically configure the firewall on this system.
      Note: automatic configuration of the firewall may overwrite current settings.
      Do you want Setup to configure the firewall? (Yes, No) [Yes]:

      В случае установки среды на РедОС, на данном этапе появится запрос:

      Firewall manager to configure (firewalld):

      Введите в ответ: firewalld

    • Подтвердите установку базы данных Data Warehouse на данном хосте.

                      --== DATABASE CONFIGURATION ==--
      Where is the DWH database located? (Local, Remote) [Local]:
    • Согласитесь с автоматической настройкой базы данных DWH.

      Setup can configure the local postgresql server automatically for the DWH to run.
      This may conflict with existing applications.
      Would you like Setup to automatically configure postgresql and create DWH database, or prefer to perform that manually? (Automatic, Manual) [Automatic]:
    • Подтвердите расположение базы данных менеджера управления на данном хосте.

      Where is the Engine database located? (Local, Remote) [Local]:
    • Согласитесь с автоматической настройкой базы данных менеджера управления.

      Setup can configure the local postgresql server automatically for the engine to run.
      This may conflict with existing applications. Would you like Setup to automatically configure postgresql and create Engine database, or prefer to perform that manually? (Automatic, Manual) [Automatic]:
    • Установите и подтвердите пароль для учётной записи admin@internal (учётная запись используется для авторизации в веб-интерфейсе среды виртуализации).

                      --== OVIRT ENGINE CONFIGURATION ==--
      Engine admin password:
      Confirm engine admin password:
    • Выберите режим Both.

      Application mode (Virt, Gluster, Both) [Both]:
    • Согласитесь с использованием учётных данных по умолчанию для сетевого провайдера.

      Use default credentials (admin@internal) for ovirt-provider-ovn (Yes, No) [Yes]:
    • Определите необходимо ли стирать данные после удаления SAN хранилищ.

                      --== STORAGE CONFIGURATION ==--
      Default SAN wipe after delete (Yes, No) [No]:
    • Подтвердите название организации для сертификата.

                      --== PKI CONFIGURATION ==--
      Organization name for certificate [example.local]:
    • Согласитесь на установку веб-страницы системы виртуализации по умолчанию на веб-сервере.

                      --== APACHE CONFIGURATION ==--
      Setup can configure the default page of the web server to present the application home page. This may conflict with existing applications.
      Do you wish to set the application as the default page of the web server? (Yes,No) [Yes]:
    • Согласитесь с автоматической настройкой SSL на apache.

      Setup can configure apache to use SSL using a certificate issued from the internal CA.
      Do you wish Setup to configure that, or prefer to perform that manually?
      (Automatic, Manual) [Automatic]:
    • Выберите режим Basic.

                      --== SYSTEM CONFIGURATION ==--
                      --== MISC CONFIGURATION ==--
      Please choose Data Warehouse sampling scale:
      (1) Basic
      (2) Full
      (1, 2) [1]:
    • Подтвердите, что пароль администратора менеджера управления будет использоваться в качестве начального пароля администратора Grafana.

      Use Engine admin password as initial Grafana admin password (Yes, No) [Yes]:
    • Просмотрите предварительную конфигурацию развёртывания и подтвердите её.

                      --== CONFIGURATION PREVIEW ==--
      Please confirm installation settings (OK, Cancel) [OK]:
    • Сообщение об успешном развёртывании менеджера управления.

      [ INFO ] Execution of setup completed successfully

5.5. Исправление хоста после неудачного развертывания менеджера управления

Если по каким-либо причинам развертывание менеджера управления закончилось ошибкой, хост необходимо очистить:

  1. Для режима Hosted Engine с помощью команды:

    ovirt-hosted-engine-cleanup
  2. Для режима Standalone с помощью команды:

    engine-cleanup

6. После установки

6.1. Проверка работоспособности

Зайдите в веб-интерфейс по адресу, который был указан для менеджера управления, например, https://zvirtvm.orionsoft.local/ > Портал администрирования > Введите имя пользователя admin и пароль заданный при установке системы. Откроется веб интерфейс управления СУВ zVirt.

SMV

6.2. Добавление хостов

Добавьте все физические серверы в кластер, через Ресурсы  Хосты  Новый. Для обеспечения доступности менеджера управления в режиме Hosted Engine, в случае выхода из строя первого хоста, при добавлении дополнительных хостов выберите Да на вкладке Hosted Engine:

add host

6.3. Добавление хранилища

zVirt использует централизованную систему хранения для образов дисков виртуальных машин, образов ISO и снимков.

Чтобы добавить новый домен хранения перейдите в Хранилище  Новый домен и добавьте домены хранения:

  • Домен данных

  • Домен ISO

  • Домен Экспорта

Домен ISO и Домен Экспорта поддерживают только локальное хранилище, NFS или GlusterFS.

7. Сбор и предоставление логов

В случае необходимости предоставления логов технической службе технической поддержки, выполнить следующие действия для сбора журналов системы:

  • Выполнить архивацию логов:

    tar zcf /root/logs.tar.gz /var/log
  • Скачать файл logs.tar.gz;

  • Предоставить файл logs.tar.gz службе технической поддержки.