Ovirt guest agent windows

Вики IT-KB

Пошаговые руководства, шпаргалки, полезные ссылки.

Инструменты пользователя

Инструменты сайта

Боковая панель

Содержание

oVirt 4.0. Как установить oVirt Guest Agent на разные гостевые ОС

После установки компонент oVirt Guest Agent на любую гостевую ОС желательно выполнить перезагрузку системы, чтобы убедиться в том, что служба агента успешно автоматически запускается при старте системы.

Клиент на CentOS7 & RHEL7

Установка из предварительного установленного репозитория EPEL:

Клиент на CentOS6 & RHEL6

Установка из предварительного установленного репозитория EPEL для 32-битных ОС:

Установка из предварительного установленного репозитория EPEL для 64-битных ОС:

В некоторых случаях подключение репозиториев нежелательно, например, когда речь идёт о виртуальном апплайнсе, работа которого гарантируется только в случае, если установленный набор пакетов не обновляется штатным способом из репозиториев. В таком случае можно произвести ручную загрузку rpm-пакета ovirt-guest-agent с последующей установкой.

Прямая ссылка на rpm-пакет:

Создаем локальный каталог, скачиваем в него rpm-пакет по соответствующей ссылке и выполняем его установку

Включаем службу агента:

Клиент на Ubuntu 16.04 LTS / Debian 8

Установка пакета из стандартных репозиториев:

Автор первичной редакции:
Алексей Максимов
Время публикации: 16.12.2016 20:00

oVirt за 2 часа. Часть 2. Установка менеджера и хостов

Эта статья — следующая в цикле по oVirt, начало здесь.

Статьи

  1. Введение
  2. Установка менеджера (ovirt-engine) и гипервизоров (hosts) — Мы здесь
  3. Дополнительные настройки
  4. Базовые операции

Итак, рассмотрим вопросы первичной установки компонентов ovirt-engine и ovirt-host.

Более подробно процессы установки всегда можно посмотреть в документации.

Содержание

Установка ovirt-engine

Для Engine минимальные требования 2 ядра/4 ГиБ ОЗУ/25 ГиБ хранилища. Рекомендованные — от 4 ядер/16 ГиБ ОЗУ/50 ГиБ хранения. Используем вариант Standalone Manager, когда engine работает на выделенной физической или виртуальной машине вне управляемого кластера. Для нашей установки возьмем виртуальную машину напр., на отдельно стоящем ESXi * . Удобно использовать средства автоматизации развертывания или клонирование из ранее подготовленного шаблона или установку kickstart.

* Примечание: для производственной системы это плохая идея, т.к. менеджер работает без резерва и становится узким местом. В этом случае лучше рассмотреть вариант Self-hosted Engine.

При необходимости, процедура конвертации Standalone в Self Hosted подробно описана в документации. В частности, хосту нужно дать команду reinstall с поддержкой Hosted Engine.

На ВМ устанавливаем CentOS 7 в минимальной конфигурации, далее обновляем и перезагружаем систему:

Для виртуальной машины полезно установить гостевого агента:

для хостов VMware ESXi, или для oVirt:

Подключаем репозиторий и устанавливаем менеджер:

В большинстве случаев выбранные по умолчанию настройки достаточны, для их автоматического использования можно запустить конфигурацию с ключом:

Теперь мы можем подключиться к нашему новому engine по адресу ovirt.lab.example.com. Здесь еще пусто, поэтому переходим к установке гипервизоров.

Читайте также:  Windows 10 driver nvidia mobile

Установка ovirt-host

На физический хост устанавливаем CentOS 7 в минимальной конфигурации, далее подключаем репозиторий, обновляем и перезагружаем систему:

Примечание: для установки удобно использовать средства автоматизации развертывания или установку kickstart.

Внимание! Существующие разделы удаляются автоматически! Будьте осторожны!

Сохраните этот файл, напр., на ftp.example.com/pub/labkvm.cfg. Для использования сценария при запуске установки ОС следует выбрать пункт ‘Install CentOS 7’, включить режим редактирования параметров (клавиша Tab) и в конце (с пробелом, без кавычек) дописать

.
Сценарий установки удаляет сущствующие разделы на /dev/sda, создает новые по рекомендации разработчика (посмотреть их после установки удобно командой lsblk). Имя хоста устанавливается как kvm01.lab.example.com (после установки можно изменить командой hostnamectl set-hostname kvm03.lab.example.com), получение IP адреса — автоматически, часовой пояс — московский, добавлена поддержка русского языка.

Пароль пользователя root: monteV1DE0, пароль пользователя mgmt: metroP0!is.
Внимание! Существующие разделы удаляются автоматически! Будьте осторожны!

Добавление узла в oVirt

Выполняется очень просто:

Compute → Hosts → New →…

В мастере обязательны поля Name (отображаемое имя, напр., kvm03), Hostname (FQDN, напр. kvm03.lab.example.com) и секция Authentication — пользователь root (неизменямо) — пароль или SSH Public Key.

После нажатия кнопки Ok Вы получите сообщение «You haven’t configured Power Management for this Host. Are you sure you want to continue?». Это нормально — управление питанием мы рассмотрим далее, после успешного подключения хоста. Однако, если машины, на которые установлены хосты, не поддерживает управление (IPMI, iLO, DRAC и т.п.), рекомендую его отключить: Compute → Clusters → Default → Edit → Fencing Ploicy → Enable fencing, убрать галку.

Если на хосте не был подключен репозиторий oVirt, установка закончится неудачей, но ничего страшного — надо его добавить, затем нажать Install -> Reinstall.

Подключение хоста занимает не более 5-10 минут.

Настройка сетевого интерфейса

Посколько мы строим отказоустойчивую систему, сетевое подключение также должно обеспечивать резервированное подключение, что и выполняется на вкладке Compute → Hosts → HOST → Network Interfaces — Setup Host Networks.

В зависимости от возможностей вашего сетевого оборудования и подходов к архитектуре, возможны варианты. Оптимальнее всего подключаться к стеку top-of-rack коммтуаторов, чтобы при отказе одного сетевая доступность не прервалась. Рассмотрим на примере агрегированного канала LACP. Для настройки агрегированного канала «взять» мышкой 2-й незадействованный адаптер и «отвезти» к 1-му. Откроется окно Create New Bond, где LACP (Mode 4, Dynamic link aggregation, 802.3ad) выбран по умолчанию. На стороне коммутаторов выполняется обычная настройка LACP группы. Если нет возможности построить стек коммутаторов, можно задействовать режим Active-Backup (Mode 1). Настройки VLAN рассмотрим в следующей статье, а подробнее с рекомендациями по настройке сети в документе Planning and Prerequisites Guide.

Настройка FC

Настройка FCoE

FCoE на мой взгляд так и не получил широкого распространения в сетях хранения, но часто применяется на серверах в качестве «последней мили», напр., в HPE Virtual Connect.

Setup FCoE Engine

Статья на сайте Red Hat B.3. How to Set Up Red Hat Virtualization Manager to Use FCoE
On the Manager, следующей командой добавляем ключ в менеджер и перезапускаем его:

Setup Node FCoE

На oVirt-Host’ах нужно установить

Убедиться, что установлены пакеты (уже идут в minimal):

Далее сама настройка (вместо ens3f2 и ens3f3 подставляем имена CNA, включенных в сеть хранения):

Важно: если сетевой интерфейс аппаратно поддерживает DCB/DCBX, параметр DCB_REQUIRED должен быть установлен в no.

Читайте также:  Указатель мыши крестик для windows 10

Далее следует убедиться, что adminStatus выключен на всех интерфейсах, в т.ч. без включенного FCoE:

Если есть другие сетевые интерфейсы, можно включить LLDP:

Как говорилось ранее, если используется аппаратный DCB/DCBX, настройка DCB_REQUIRED должна быть включена в no и этот шаг может быть пропущен.

Для сетевых интерфейсов проверить включен ли автостарт:

Просмотр настроенных FCoE интерфейсов, вывод команды не должен быть пуст.

Последующая настройка FCoE выполняется как для обычного FC.

Далее следует настройка систем и сети хранения — зонирование, SAN-хостов, создание и презентация томов/LUN’ов, после чего хранилище можно подключить к ovirt-host’ам: Storage → Domains → New Domain.

Domain Function оставляем Data, Storage Type — Fibre Channel, Host — любой, имя — напр., storNN-volMM.

Наверняка ваша система хранения допускает подключение не просто резервирование путей, но и балансировку. Многие современные системы способны передавать данные по всем путям одинаково оптимально (ALUA active/active).

Для включения всех путей в активное состояние, надо настроить мультпасинг, об этом в следующих статьях.

Настройка NFS и iSCSI выполняется подобным образом.

Хранилище ISO образов

Для установки ОС понадобятся их установочные файлы, чаще всего доступные в виде ISO образов. Можно использовать встроенный путь, но для работы с образами в oVirt разработан специальный тип хранилища — ISO, который можно нацелить на NFS сервер. Добавляем его:

Storage → Domains → New Domain,
Domain Function → ISO,
Export Path — напр., mynfs01.example.com:/exports/ovirt-iso (на момент подключения папка должна пустой, менеджер должен иметь возможность писать в нее),
Name — напр., mynfs01-iso.

Для хранения образов менеджер создаст структуру
/exports/ovirt-iso/ /images/11111111-1111-1111-1111-111111111111/

Если на нашем NFS сервере ISO образы уже есть, для экономии пространства удобно вместо копирования файлов прилинковать их в эту папку.

Первая ВМ

На этом этапе уже можно создать первую виртуальную машину, установить на нее ОС и прикладное ПО.

Compute → Virtual Machines → New

Для новой машины указать имя (Name), создать диск (Instance Images → Create) и подключить сетевой интерфейс (Instantiate VM network interfaces by picking a vNIC profile → выбрать из списка пока что единственный ovirtmgmt).

На стороне клиента нужен современный браузер и SPICE клиент для взаимодействия с консолью.

Первая машина успешно запущена. Однако для более полной работы системы требуется выполнить ряд дополнительных настроек, о чем продолжим в следующих статьях.

oVirt Windows Guest Tools ISO

Summary

This feature will add an ISO image with required drivers and agents for Windows based VMs.

Owner

Current status

  • Link to feature page in a specific release. That release may complete the feature, or parts of it. The complete scope of this feature in this release will be described in the release feature page
  • Last updated on – 2017-12-22

Detailed Description

The oVirt Guest Tool ISO provides a collection of tools usable for Windows VMs that run under KVM (oVirt). It also includes an installer to make the tools installation as easy as possible.

The oVirt Guest Tools Installer installs all VirtIO-Win device drivers (Balloon, Serial, Net, Block and SCSI) along with Spice Agent and QXL drivers.

OS VirtIO-Win drivers oVirt Agent Spice Agent Installer QXL
XP
2K3
2K8
Win 7
2K8R2
Win 8
2K12
Win 8.1
2K12R2
Win 10
2K16
Читайте также:  Restore option in windows 10

QXL support is also declared on Download page and should be kept in sync with above matrix.

The installer is based on the Spice installer’s source code (http://cgit.freedesktop.org/

teuf/spice-nsis/) , and was slightly modifed for this project’s needs.

Important Note! Bug 1528652 Currently you can’t directly upgrade between the versions without either first stopping the services or performing an uninstall.

The current list of the software to be included in the ISO:

  • VirtIO-Win drivers:
    • VirtIO-Serial
    • VirtIO-Balloon
    • VirtIO-Net
    • VirtIO-Block
    • VirtIO-SCSI From:

    Spice drivers and agent

    Important Note! It seems that Spice installer (current is spice-guest-tools-0.132.exe ) installs not just Spice related components (QXL and Agent), but all VirtIO-Win drivers as well.

  • Spice QXL for 32 and 64 bit Windows
  • Qemu Guest Agent
  • oVirt Guest Agent (Currently it is cross-compiled using Wine)

Benefit to oVirt

The ISO image will become a central repository for all the software that Windows based VMs require in order to function in most optimal way under oVirt / KVM.

The oVirt Guest Tools relies on the following dependencies:

Documentation / External references

Testing

Installation

Install oVirt Release RPM enabling oVirt repositories if you have not done so yet:

Install oVirt Guest Tools package

yum install ovirt-guest-tools-iso

Optional: The above will install the ISO in /usr/share/ovirt-guest-tools-iso/ . Copy it to wherever you need it…

oVirt Guest Agent For Windows

Important Note!

With the release of oVirt 3.5 we have introduced the oVirt WGT (Windows Guest Tools).

The oVirt WGT provides an ISO with all the tools and drivers one needs to install on a Windows VM, with an easy to use installer to install it all in one step.

So manual compilation and installation of oVirt Guest Agent is no longer necessary.

The oVirt WGT ISO is included in ovirt-guest-tools-iso-3.5-7.noarch.rpm package.

How to install the ovirt-guest-agent on Windows.

First of all, make sure that you have installed drivers for virtio-serial and let the VM reboot, it won´t work otherwise. Then you need to get the files for windows. You use “git” to clone the tree needed:

You either install git inside the VM, or sit at another machine where you have git and then find a way to get the ovirt-guest-agent directory over on to the Windows VM.

So you´ll end up with a directory called ovirt-guest-agent. Inside of it is another directory also called ovirt-guest-agent (to not complicate matters..), and inside of that is a file called README-windows.txt that very clearly explains how to install the service.

And you´ll get two files in .\dist\ called OVirtGuestService.exe and w9xpopen.exe . Take them, along with .\ovirt-guest-agent.ini , create an appropriate folder for them, e.g. C:\Program Files\Guest Agents\oVirt Guest Agent and copy those files there.

Using as command prompt running as administrator, run the following commands to get it installed:

Everything is then installed so you can delete the %EXTRACTDIR%\ovirt-guest-agent . You won’t be needing it anymore.

Оцените статью