Ovirt guest agent astra linux

Вики IT-KB

Пошаговые руководства, шпаргалки, полезные ссылки.

Инструменты пользователя

Инструменты сайта

Боковая панель

Содержание

oVirt 4.0. Как установить oVirt Guest Agent на разные гостевые ОС

После установки компонент oVirt Guest Agent на любую гостевую ОС желательно выполнить перезагрузку системы, чтобы убедиться в том, что служба агента успешно автоматически запускается при старте системы.

Клиент на CentOS7 & RHEL7

Установка из предварительного установленного репозитория EPEL:

Клиент на CentOS6 & RHEL6

Установка из предварительного установленного репозитория EPEL для 32-битных ОС:

Установка из предварительного установленного репозитория EPEL для 64-битных ОС:

В некоторых случаях подключение репозиториев нежелательно, например, когда речь идёт о виртуальном апплайнсе, работа которого гарантируется только в случае, если установленный набор пакетов не обновляется штатным способом из репозиториев. В таком случае можно произвести ручную загрузку rpm-пакета ovirt-guest-agent с последующей установкой.

Прямая ссылка на rpm-пакет:

Создаем локальный каталог, скачиваем в него rpm-пакет по соответствующей ссылке и выполняем его установку

Включаем службу агента:

Клиент на Ubuntu 16.04 LTS / Debian 8

Установка пакета из стандартных репозиториев:

Автор первичной редакции:
Алексей Максимов
Время публикации: 16.12.2016 20:00

Источник

oVirt за 2 часа. Часть 2. Установка менеджера и хостов

Эта статья — следующая в цикле по oVirt, начало здесь.

Статьи

  1. Введение
  2. Установка менеджера (ovirt-engine) и гипервизоров (hosts) — Мы здесь
  3. Дополнительные настройки
  4. Базовые операции

Итак, рассмотрим вопросы первичной установки компонентов ovirt-engine и ovirt-host.

Более подробно процессы установки всегда можно посмотреть в документации.

Содержание

Установка ovirt-engine

Для Engine минимальные требования 2 ядра/4 ГиБ ОЗУ/25 ГиБ хранилища. Рекомендованные — от 4 ядер/16 ГиБ ОЗУ/50 ГиБ хранения. Используем вариант Standalone Manager, когда engine работает на выделенной физической или виртуальной машине вне управляемого кластера. Для нашей установки возьмем виртуальную машину напр., на отдельно стоящем ESXi * . Удобно использовать средства автоматизации развертывания или клонирование из ранее подготовленного шаблона или установку kickstart.

* Примечание: для производственной системы это плохая идея, т.к. менеджер работает без резерва и становится узким местом. В этом случае лучше рассмотреть вариант Self-hosted Engine.

При необходимости, процедура конвертации Standalone в Self Hosted подробно описана в документации. В частности, хосту нужно дать команду reinstall с поддержкой Hosted Engine.

На ВМ устанавливаем CentOS 7 в минимальной конфигурации, далее обновляем и перезагружаем систему:

Для виртуальной машины полезно установить гостевого агента:

для хостов VMware ESXi, или для oVirt:

Подключаем репозиторий и устанавливаем менеджер:

Читайте также:  Как сделать окно полупрозрачным windows 10

В большинстве случаев выбранные по умолчанию настройки достаточны, для их автоматического использования можно запустить конфигурацию с ключом:

Теперь мы можем подключиться к нашему новому engine по адресу ovirt.lab.example.com. Здесь еще пусто, поэтому переходим к установке гипервизоров.

Установка ovirt-host

На физический хост устанавливаем CentOS 7 в минимальной конфигурации, далее подключаем репозиторий, обновляем и перезагружаем систему:

Примечание: для установки удобно использовать средства автоматизации развертывания или установку kickstart.

Внимание! Существующие разделы удаляются автоматически! Будьте осторожны!

Сохраните этот файл, напр., на ftp.example.com/pub/labkvm.cfg. Для использования сценария при запуске установки ОС следует выбрать пункт ‘Install CentOS 7’, включить режим редактирования параметров (клавиша Tab) и в конце (с пробелом, без кавычек) дописать

.
Сценарий установки удаляет сущствующие разделы на /dev/sda, создает новые по рекомендации разработчика (посмотреть их после установки удобно командой lsblk). Имя хоста устанавливается как kvm01.lab.example.com (после установки можно изменить командой hostnamectl set-hostname kvm03.lab.example.com), получение IP адреса — автоматически, часовой пояс — московский, добавлена поддержка русского языка.

Пароль пользователя root: monteV1DE0, пароль пользователя mgmt: metroP0!is.
Внимание! Существующие разделы удаляются автоматически! Будьте осторожны!

Добавление узла в oVirt

Выполняется очень просто:

Compute → Hosts → New →…

В мастере обязательны поля Name (отображаемое имя, напр., kvm03), Hostname (FQDN, напр. kvm03.lab.example.com) и секция Authentication — пользователь root (неизменямо) — пароль или SSH Public Key.

После нажатия кнопки Ok Вы получите сообщение «You haven’t configured Power Management for this Host. Are you sure you want to continue?». Это нормально — управление питанием мы рассмотрим далее, после успешного подключения хоста. Однако, если машины, на которые установлены хосты, не поддерживает управление (IPMI, iLO, DRAC и т.п.), рекомендую его отключить: Compute → Clusters → Default → Edit → Fencing Ploicy → Enable fencing, убрать галку.

Если на хосте не был подключен репозиторий oVirt, установка закончится неудачей, но ничего страшного — надо его добавить, затем нажать Install -> Reinstall.

Подключение хоста занимает не более 5-10 минут.

Настройка сетевого интерфейса

Посколько мы строим отказоустойчивую систему, сетевое подключение также должно обеспечивать резервированное подключение, что и выполняется на вкладке Compute → Hosts → HOST → Network Interfaces — Setup Host Networks.

В зависимости от возможностей вашего сетевого оборудования и подходов к архитектуре, возможны варианты. Оптимальнее всего подключаться к стеку top-of-rack коммтуаторов, чтобы при отказе одного сетевая доступность не прервалась. Рассмотрим на примере агрегированного канала LACP. Для настройки агрегированного канала «взять» мышкой 2-й незадействованный адаптер и «отвезти» к 1-му. Откроется окно Create New Bond, где LACP (Mode 4, Dynamic link aggregation, 802.3ad) выбран по умолчанию. На стороне коммутаторов выполняется обычная настройка LACP группы. Если нет возможности построить стек коммутаторов, можно задействовать режим Active-Backup (Mode 1). Настройки VLAN рассмотрим в следующей статье, а подробнее с рекомендациями по настройке сети в документе Planning and Prerequisites Guide.

Настройка FC

Настройка FCoE

FCoE на мой взгляд так и не получил широкого распространения в сетях хранения, но часто применяется на серверах в качестве «последней мили», напр., в HPE Virtual Connect.

Setup FCoE Engine

Статья на сайте Red Hat B.3. How to Set Up Red Hat Virtualization Manager to Use FCoE
On the Manager, следующей командой добавляем ключ в менеджер и перезапускаем его:

Читайте также:  What is windows ime

Setup Node FCoE

На oVirt-Host’ах нужно установить

Убедиться, что установлены пакеты (уже идут в minimal):

Далее сама настройка (вместо ens3f2 и ens3f3 подставляем имена CNA, включенных в сеть хранения):

Важно: если сетевой интерфейс аппаратно поддерживает DCB/DCBX, параметр DCB_REQUIRED должен быть установлен в no.

Далее следует убедиться, что adminStatus выключен на всех интерфейсах, в т.ч. без включенного FCoE:

Если есть другие сетевые интерфейсы, можно включить LLDP:

Как говорилось ранее, если используется аппаратный DCB/DCBX, настройка DCB_REQUIRED должна быть включена в no и этот шаг может быть пропущен.

Для сетевых интерфейсов проверить включен ли автостарт:

Просмотр настроенных FCoE интерфейсов, вывод команды не должен быть пуст.

Последующая настройка FCoE выполняется как для обычного FC.

Далее следует настройка систем и сети хранения — зонирование, SAN-хостов, создание и презентация томов/LUN’ов, после чего хранилище можно подключить к ovirt-host’ам: Storage → Domains → New Domain.

Domain Function оставляем Data, Storage Type — Fibre Channel, Host — любой, имя — напр., storNN-volMM.

Наверняка ваша система хранения допускает подключение не просто резервирование путей, но и балансировку. Многие современные системы способны передавать данные по всем путям одинаково оптимально (ALUA active/active).

Для включения всех путей в активное состояние, надо настроить мультпасинг, об этом в следующих статьях.

Настройка NFS и iSCSI выполняется подобным образом.

Хранилище ISO образов

Для установки ОС понадобятся их установочные файлы, чаще всего доступные в виде ISO образов. Можно использовать встроенный путь, но для работы с образами в oVirt разработан специальный тип хранилища — ISO, который можно нацелить на NFS сервер. Добавляем его:

Storage → Domains → New Domain,
Domain Function → ISO,
Export Path — напр., mynfs01.example.com:/exports/ovirt-iso (на момент подключения папка должна пустой, менеджер должен иметь возможность писать в нее),
Name — напр., mynfs01-iso.

Для хранения образов менеджер создаст структуру
/exports/ovirt-iso/ /images/11111111-1111-1111-1111-111111111111/

Если на нашем NFS сервере ISO образы уже есть, для экономии пространства удобно вместо копирования файлов прилинковать их в эту папку.

Первая ВМ

На этом этапе уже можно создать первую виртуальную машину, установить на нее ОС и прикладное ПО.

Compute → Virtual Machines → New

Для новой машины указать имя (Name), создать диск (Instance Images → Create) и подключить сетевой интерфейс (Instantiate VM network interfaces by picking a vNIC profile → выбрать из списка пока что единственный ovirtmgmt).

На стороне клиента нужен современный браузер и SPICE клиент для взаимодействия с консолью.

Первая машина успешно запущена. Однако для более полной работы системы требуется выполнить ряд дополнительных настроек, о чем продолжим в следующих статьях.

Источник

oVirt-guest-agent

The agent is an application which run as a background process inside the guest, it communicates with Vdsm over a vioserial device. It provides:

Information

The agent provides the following information:

  • Machine name – Show the virtual machine’s host name.
  • Operating system version – Show the operating system’s version. Linux: this value is the kernel version. Windows: it is the Windows version name (e.g. Windows XP or Windows 7).
  • Installed applications – List in installed applications. Linux: application list is set using the configuration file. Windows: installed applications list is based on value read from registry.
  • Available RAM – The amount of unused physical memory. This value probably includes memory like cache, or else the memory usage will always be (or near) 100% usage.
  • Logged in users – List of all logged-in users.
  • Active user – The user that is currently using the virtual machine’s “physical hardware”. Redundant because RHEV-M is treating the SPICE’s ticket owner as the active user.
  • Disks usage – VM disks utilization.
  • Network interfaces – Internal guest network mapping (MAC, name, ipv4, ipv6).
  • FQDN – Reports the configured (F)ully (Q)ualified (D)omain (N)ame of the guest os
Читайте также:  Устанавливаем linux mint с usb

Notifications

The agent notify on the following events:

  • Power up – Sent when the agent is started.
  • Power down – Unused.
  • Heartbeat – The message sent every few second to notify that the agent is running. The notification includes the guest’s available RAM.
  • User info – Active user has changed.
  • Session lock – Desktop was locked (Windows).
  • Session unlock – Desktop was unlocked (Windows).
  • Session logoff – A user was logged off (Windows).
  • Session logon – A user was logged on (Windows).
  • Agent uninstalled – Agent was removed from the system. This is not sent by the agent itself but by the agent’s (un-)installer.

Actions

The following actions can be requested from the agent:

  • Lock screen – Request locking the user’s desktop.
  • Login – Perform a login on the user’s behalf.
  • Automatic login on RHEL
  • Automatic login on Microsoft’s Windows
  • Logoff – Log off the active user.
  • Shutdown – Shut down the virtual machine.
  • Privacy policy
  • About
  • Disclaimers

© 2013–2021 oVirt

Источник

Guest Agent Debian

oVirt Guest Agent on Debian 7.x

Summary

Packaging the ovirt-guest-agent for Debian 7.x

Owner

  • Name: Vinzenz ‘evilissimo’ Feenstra (Vfeenstr)
  • Email: evilissimo@redhat.com

Current status

Detailed Description

This feature should provide ovirt-guest-agent packages for Debian

Required changes

  • Debian packaging scripts [DONE]
  • SYS-V init script for Debian [DONE]
  • Adjustments to packaging [DONE]
  • Checkbashism checks on scripts [DONE]
  • Path adjustments for the Debian environment [DONE]
  • Update package list to report for SUSE naming conventions [DONE]
  • Create wrapper scripts for elevated tasks [DONE]

Benefit to oVirt

It’ll be easier to install the ovirt-guest-agent on Debian guests.

Repository

Documentation / External references

The guest agent reports the following things

  • Current active user
  • Memory usage (including swap usage)
  • Network Interfaces
  • IP Addresses
  • FQDN of the guest OS
  • Disks Usage
  • Configured RPMs to report (see /etc/ovirt-guest-agent.conf for the packages)
  • Hostname

The guest agent also provides the following actions

  • Desktop Locking for GNOME
  • Shutdown/Reboot from within the Guest OS

Installation

Testing

Testing has to be executed on a Debian 7 system. Lower version do not fulfil the minimal requirements for the guest agent and testing/unstable are currently not supported by us.

Источник

Оцените статью