- Настройка KVM на Ubuntu Server
- Проверка поддержки гипервизора
- Подготовка сервера
- Установка и запуск
- Настройка сети на сервере KVM
- Создание виртуальной машины
- Подключение к виртуальной машине
- Управление виртуальной машиной из командной строки
- Управление дисками
- Добавление диска
- Увеличение размера виртуального диска
- Управление сетевыми настройками виртуальной машины
- Резервирование IP на DHCP
- How to install KVM on Ubuntu 16.04 LTS Headless Server
- Steps for installing KVM on Ubuntu Linux 16.04 LTS server
- Steps to install KVM on Ubuntu Linux 16.04 LTS headless sever
- Step 1: Install kvm
- Step 2: Verify kvm installation
- Step 3: Configure bridged networking
- Step 4: Create your first virtual machine
- Create CentOS 7 VM
- Create FreeBSD 10.x or 11.x VM
- Create OpenBSD 5.9 VM
- Create Debian 9.x VM
- Useful commands
- Find the list of the accepted OS variants
Настройка KVM на Ubuntu Server
Инструкция написана на примере Linux Ubuntu Server 18.04.3 LTS. Она подойдет для большинства дистрибутивов на основе Debian.
Проверка поддержки гипервизора
Проверяем, что сервер поддерживает технологии виртуализации:
cat /proc/cpuinfo | egrep «(vmx|svm)»
В ответ должны получить что-то наподобие:
flags : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx pdpe1gb rdtscp lm constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx smx est tm2 ssse3 cx16 xtpr pdcm pcid dca sse4_1 sse4_2 popcnt aes lahf_lm epb tpr_shadow vnmi flexpriority ept vpid dtherm ida arat
В противном случае, заходим в БИОС, находим опцию для включения технологии виртуализации (имеет разные названия, например, Intel Virtualization Technology или Virtualization) и включаем ее — задаем значение Enable.
Также проверить совместимость можно командой:
* если команда вернет ошибку «kvm-ok command not found», установите соответствующий пакет: apt-get install cpu-checker.
INFO: /dev/kvm exists
KVM acceleration can be used
значит поддержка со стороны аппаратной части есть.
Подготовка сервера
Для нашего удобства, создадим каталог, в котором будем хранить данные для KVM:
* будет создано два каталога: /kvm/vhdd (для виртуальных жестких дисков) и /kvm/iso (для iso-образов).
timedatectl set-timezone Europe/Moscow
* данная команда задает зону в соответствии с московским временем.
apt-get install chrony
systemctl enable chrony
* устанавливаем и запускаем утилиту для синхронизации времени.
Установка и запуск
Устанавливаем KVM и необходимые утилиты управления.
а) Ubuntu после версии 18.10
apt-get install qemu qemu-kvm libvirt-daemon-system virtinst libosinfo-bin
б) Ubuntu до 18.10:
apt-get install qemu-kvm libvirt-bin virtinst libosinfo-bin
* где qemu-kvm — гипервизор; libvirt-bin — библиотека управления гипервизором; virtinst — утилита управления виртуальными машинами; libosinfo-bin — утилита для просмотра списка вариантов операционных систем, которые могут быть в качестве гостевых.
Настроим автоматический запуск сервиса:
systemctl enable libvirtd
Настройка сети на сервере KVM
Виртуальные машины могут работать за NAT (в качестве которого выступает сервер KVM) или получать IP-адреса из локальной сети — для этого необходимо настроить сетевой мост. Мы настроим последний.
Используя удаленное подключение, внимательно проверяйте настройки. В случае ошибки соединение будет прервано.
apt-get install bridge-utils
а) настройка сети в старых версиях Ubuntu (/etc/network/interfaces).
Открываем конфигурационный файл для настройки сетевых интерфейсов:
И приведем его к виду:
#iface eth0 inet static
# address 192.168.1.24
# netmask 255.255.255.0
# gateway 192.168.1.1
# dns-nameservers 192.168.1.1 192.168.1.2
auto br0
iface br0 inet static
address 192.168.1.24
netmask 255.255.255.0
gateway 192.168.1.1
dns-nameservers 192.168.1.1 192.168.1.2
bridge_ports eth0
bridge_fd 9
bridge_hello 2
bridge_maxage 12
bridge_stp off
* где все, что закомментировано — старые настройки моей сети; br0 — название интерфейса создаваемого моста; eth0 — существующий сетевой интерфейс, через который будет работать мост.
Перезапускаем службу сети:
systemctl restart networking
б) настройка сети в новых версиях Ubuntu (netplan).
* в зависимости от версии системы, конфигурационной файл yaml может иметь другое название.
Приводим его к виду:
network:
version: 2
renderer: networkd
ethernets:
eth0:
dhcp4: false
dhcp6: false
wakeonlan: true
bridges:
br0:
macaddress: 2c:6d:45:c3:55:a7
interfaces:
— eth0
addresses:
— 192.168.1.24/24
gateway4: 192.168.1.1
mtu: 1500
nameservers:
addresses:
— 192.168.1.2
— 192.168.1.3
parameters:
stp: true
forward-delay: 4
dhcp4: false
dhcp6: false
* в данном примере мы создаем виртуальный бридж-интерфейс br0; в качестве физического интерфейса используем eth0. 2c:6d:45:c3:55:a7 — физический адрес интерфейса, через который мы будем настраивать бридж; 192.168.1.24 — IP-адрес нашего сервера KVM; 192.168.1.1 — адрес шлюза; 192.168.1.2 и 192.168.1.3 — адреса серверов DNS.
Применяем сетевые настройки:
Настаиваем перенаправления сетевого трафика (чтобы виртуальные машины с сетевым интерфейсом NAT могли выходить в интернет):
sysctl -p /etc/sysctl.d/99-sysctl.conf
Создание виртуальной машины
Для создания первой виртуальной машины вводим следующую команду:
virt-install -n VM1 \
—autostart \
—noautoconsole \
—network=bridge:br0 \
—ram 2048 —arch=x86_64 \
—vcpus=2 —cpu host —check-cpu \
—disk path=/kvm/vhdd/VM1-disk1.img,size=16 \
—cdrom /kvm/iso/ubuntu-18.04.3-server-amd64.iso \
—graphics vnc,listen=0.0.0.0,password=vnc_password \
—os-type linux —os-variant=ubuntu18.04 —boot cdrom,hd,menu=on
- VM1 — имя создаваемой машины;
- autostart — разрешить виртуальной машине автоматически запускаться вместе с сервером KVM;
- noautoconsole — не подключается к консоли виртуальной машины;
- network — тип сети. В данном примере мы создаем виртуальную машину с интерфейсом типа «сетевой мост». Для создания внутреннего интерфейса с типом NAT вводим —network=network:default,model=virtio;
- ram — объем оперативной памяти;
- vcpus — количество виртуальных процессоров;
- disk — виртуальный диск: path — путь до диска; size — его объем;
- cdrom — виртуальный привод с образом системы;
- graphics — параметры подключения к виртуальной машины с помощью графической консоли (в данном примере используем vnc); listen — на какой адресе принимает запросы vnc (в нашем примере на всех); password — пароль для подключения при помощи vnc;
- os-variant — гостевая операционная система (весь список мы получали командой osinfo-query os, в данном примере устанавливаем Ubuntu 18.04).
Подключение к виртуальной машине
На компьютер, с которого планируем работать с виртуальными машинами, скачиваем VNC-клиент, например, TightVNC и устанавливаем его.
На сервере вводим:
virsh vncdisplay VM1
команда покажет, на каком порту работает VNC для машины VM1. У меня было:
* :1 значит, что нужно к 5900 прибавить 1 — 5900 + 1 = 5901.
Запускаем TightVNC Viewer, который мы установили и вводим данные для подключения:
Кликаем по Connect. На запрос пароля вводим тот, что указали при создании ВМ, (vnc_password). Мы подключимся к виртуальной машине удаленной консолью.
Если мы не помним пароль, открываем настройку виртуальной машины командой:
И находим строку:
* в данном примере для доступа к виртуальной машине используется пароль 12345678.
Управление виртуальной машиной из командной строки
Примеры команд, которые могут пригодиться при работе с виртуальными машинами.
1. Получить список созданных машин:
2. Включить виртуальную машину:
virsh start VMname
* где VMname — имя созданной машины.
3. Выключить виртуальную машину:
virsh shutdown VMname
4. Включить автозапуск виртуальной машины:
virsh autostart VMname
5. Редактирование конфигурации виртуальной машины:
virsh edit VMname
6. Работа с сетевыми интерфейсами.
Добавить обычный сетевой интерфейс (default или NAT) виртуальной машине:
virsh attach-interface —domain VMname —type network —source default —model virtio —config —live
Добавить интерфейс типа bridge:
virsh attach-interface —domain VMname —type bridge —source br0 —model rtl8139 —config —live
Удалить сетевой интерфейс:
virsh detach-interface VMname —type bridge —mac 52:54:00:2e:a9:4d
* где bridge — тип сетевого интерфейса (также может быть network); 52:54:00:2e:a9:4d — MAC-адрес сетевого адаптера (узнать данный адрес можно в конфигурации виртуальной машины или в самой гостевой операционной системы).
7. Посмотреть IP-адреса, выданные виртуальным машинам автоматически:
virsh net-dhcp-leases default
* где default — виртуальная сеть, создаваемая по умолчанию при установке KVM.
8. Работа со снапшотами
Теневые копии или снапшоты позволяют нам быстро вернуть определенное состояние системы виртуальной машины. Рассмотрим процесс создания снапшота и управления им.
а) Создать снимок виртуальной машины можно командой:
virsh snapshot-create-as —domain VMname —name VMname_snapshot_2020-03-21
* где VMname — название виртуальной машины; VMname_snapshot_2021-05-03 — название для снапшота.
б) Список снапшотов можно посмотреть командой:
virsh snapshot-list —domain VMname
* данной командой мы просмотрим список всех снапшотов для виртуальной машины VMname.
в) Для применения снапшота, сначала мы должны остановить виртуальную машину. Для этого можно либо выполнить выключение в операционной системе или ввести команду:
virsh shutdown VMname
virsh snapshot-revert —domain VMname —snapshotname VMname_snapshot_2020-03-21 —running
* где VMname — имя виртуальной машины; VMname_snapshot_2021-05-03 — имя созданного снапшота.
г) Удалить снапшот можно так:
virsh snapshot-delete —domain VMname —snapshotname VMname_snapshot_2020-03-21
Управление дисками
Отдельно рассмотрим процесс работы с виртуальными дисками.
Добавление диска
Создаем файл для нового диска:
qemu-img create -f raw /data/kvm/vhdd/VMname-disk2.img 4G
* в данном примере мы создадим файл формата raw по полному пути /data/kvm/vhdd/VMname-disk2.img размером 4 Гб.
Теперь подключим данный диск к виртуальной машине:
virsh attach-disk VMname /data/kvm/vhdd/VMname-disk2.img vdb —cache none
* в данном примере мы подключили его к машине VMname в качестве диска vdb.
Готово. Подключаемся к виртуальной машине и проверяем, что у нас появился новый диск. Например, в Linux можно посмотреть командой:
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sr0 11:0 1 1024M 0 rom
vda 252:0 0 24G 0 disk
??vda1 252:1 0 24G 0 part
??ubuntu—vg-root 253:0 0 23G 0 lvm /
??ubuntu—vg-swap_1 253:1 0 980M 0 lvm [SWAP]
vdb 252:16 0 4G 0 disk
Увеличение размера виртуального диска
Получаем список дисков для виртуальной машины:
virsh domblklist VMname
* в данном примере путь до диска — /data/kvm/vhdd/VMname-disk1.img.
Останавливаем виртуальную машину:
virsh shutdown VMname
* или завершаем работу в самой операционной системе.
Увеличиваем размер диска:
qemu-img resize /data/kvm/vhdd/VMname-disk1.img +100G
* данной командой мы расширим дисковое пространство виртуального диска /data/kvm/vhdd/VMname-disk1.img на 100 Гигабайт.
Мы должны увидеть:
Получаем информацию о виртуальном диске:
qemu-img info /data/kvm/vhdd/VMname-disk1.img
Запускаем виртуальную машину:
virsh start VMname
Меняем размер блочного устройства:
virsh blockresize UBU /data/kvm/vhdd/VMname-disk1.img 200G
* где 200G — общий размер виртуального диска после расширения.
После необходимо поменять размер диска в самой операционной системе. Пример того, как это можно сделать можно прочитать в инструкции Добавление дискового пространства виртуальной машине в VMware (раздел «Настройка операционной системы»).
Управление сетевыми настройками виртуальной машины
В данном подразделе рассмотрим примеры работы с сетевыми настройками виртуальных машин.
Резервирование IP на DHCP
Если мы раздаем IP-адреса виртуальным машинам с помощью встроенного в KVM сервера DHCP, мы можем привязать определенный IP по mac-адресу. Для этого смотрим список наших виртуальных сетей:
Мы увидим список сетей, например:
Name State Autostart Persistent
———————————————————-
br0 active yes yes
default active yes yes
В моем случае, необходимо настроить сеть default — вводим:
Источник
How to install KVM on Ubuntu 16.04 LTS Headless Server
Steps for installing KVM on Ubuntu Linux 16.04 LTS server
- The host server located in the remote data center and it is a headless server.
- All commands in this tutorial typed over the ssh based session.
- You need a vnc client to install the guest operating system.
- In this tutorial, you will learn how to install KVM software on Ubuntu 16.04 LTS server and use KVM to setup your first guest VM.
Steps to install KVM on Ubuntu Linux 16.04 LTS headless sever
Step 1: Install kvm
Type the following apt-get command/apt command:
$ sudo apt-get install qemu-kvm libvirt-bin virtinst bridge-utils cpu-checker
Step 2: Verify kvm installation
$ kvm-ok
INFO: /dev/kvm exists
KVM acceleration can be used
Step 3: Configure bridged networking
$ sudo cp /etc/network/interfaces /etc/network/interfaces.bakup-1-july-2016
$ sudo vi /etc/network/interfaces
Edit/append as follows:
Save and close the file. Restart the networking service, enter:
$ sudo systemctl restart networking
Verify it:
$ sudo brctl show
Step 4: Create your first virtual machine
I am going to create a CentOS 7.x VM. First, grab CentOS 7.x latest ISO image:
$ cd /var/lib/libvirt/boot/
$ sudo wget https://mirrors.kernel.org/centos/7/isos/x86_64/CentOS-7-x86_64-DVD-1708.iso
Create CentOS 7 VM
In this example, I’m creating CentOS 7.x VM with 2GB RAM, 2 CPU core, 2 nics (1 for lan and 1 for wan) and 40GB disk space, enter:
$ sudo virt-install \
—virt-type=kvm \
—name centos7 \
—ram 2048 \
—vcpus=2 \
—os-variant=centos7.0 \
—virt-type=kvm \
—hvm \
—cdrom=/var/lib/libvirt/boot/CentOS-7-x86_64-DVD-1708.iso \
—network=bridge=br0,model=virtio \
—network=bridge=br1,model=virtio \
—graphics vnc \
—disk path=/var/lib/libvirt/images/centos7.qcow2,size=40,bus=virtio,format=qcow2
To configure vnc login from another terminal over ssh and type:
$ sudo virsh dumpxml centos7 | grep vnc
5901 ‘ autoport=’yes’ listen=’127.0.0.1’>
You can also use the following command:
$ sudo virsh vncdisplay centos7
Please note down the port value (i.e. 5901). You need to use an SSH client to setup tunnel and a VNC client to access the remote vnc server. Type the following SSH port forwarding command from your client/desktop:
$ ssh vivek@server1.cyberciti.biz -L 5901:127.0.0.1:5901
Once you have ssh tunnel established, you can point your VNC client at your own 127.0.0.1 (localhost) address and port 5901 as follows:
Fig.01 : VNC client to complete CentOS 7.x installation
Fig.02: CentOS 7.x installation on KVM based VM
Create FreeBSD 10.x or 11.x VM
In this example, I’m creating FreeBSD 10 VM with 2GB RAM, 2 CPU core, 2 nics (1 for lan and 1 for wan) and 40GB disk space, enter:
$ cd /var/lib/libvirt/boot/
$ sudo wget https://download.freebsd.org/ftp/releases/amd64/amd64/ISO-IMAGES/11.1/FreeBSD-11.1-RELEASE-amd64-disc1.iso
$ sudo virt-install \
—virt-type=kvm \
—name freebsd \
—ram 2048 \
—vcpus=2 \
—os-variant=freebsd11.1 \
—virt-type=kvm \
—hvm \
—cdrom=/var/lib/libvirt/boot/FreeBSD-11.1-RELEASE-amd64-disc1.iso \
—network=bridge=br0,model=virtio \
—network=bridge=br1,model=virtio \
—graphics vnc \
—disk path=/var/lib/libvirt/images/freebsd10.qcow2,size=40,bus=virtio,format=qcow2
In this example, I’m creating FreeBSD 11 VM with 1GB RAM (expandable to 2GB), 1 vCPU core (expandable to 2vCPU), 1 nic and 40GB disk space, enter:
$ sudo virt-install \
—virt-type=kvm \
—name freebsd \
—memory=1024,maxmemory=2048 \
—vcpus=1,maxvcpus=2 \
—os-variant=freebsd10.0 \
—virt-type=kvm \
—hvm \
—cdrom=/var/lib/libvirt/boot/FreeBSD-11.0-RELEASE-amd64-disc1.iso \
—network=bridge=br0,model=virtio \
—graphics vnc \
—disk path=/var/lib/libvirt/images/freebsd11.qcow2,size=40,bus=virtio,format=qcow2
To configure vnc login from another terminal over ssh and type:
$ sudo virsh dumpxml freebsd | grep vnc
5902 ‘ autoport=’yes’ listen=’127.0.0.1’>
Please note down the port value (i.e. 5902). You need to use an SSH client to setup tunnel and a VNC client to access the remote vnc server. Type the following SSH port forwarding command from your client/desktop:
$ ssh vivek@server1.cyberciti.biz -L 5902:127.0.0.1:5902
Once you have ssh tunnel established, you can point your VNC client at your own 127.0.0.1 (localhost) address and port 5902 to continue with FreeBSD 10.3 installation.
Create OpenBSD 5.9 VM
In this example, I’m creating OpenBSD 5.9 VM with 2GB RAM, 2 CPU core, 2 nics (1 for lan and 1 for wan) and 40GB disk space, enter:
$ cd /var/lib/libvirt/boot/
$ sudo wget https://mirror.esc7.net/pub/OpenBSD/6.2/amd64/install62.iso
$ sudo virt-install \
—virt-type=kvm \
—name openbsd \
—ram 2048 \
—vcpus=2 \
—os-variant=openbsd5.8 \
—virt-type=kvm \
—hvm \
—cdrom=/var/lib/libvirt/boot/install62.iso \
—network=bridge=br0,model=virtio \
—network=bridge=br1,model=virtio \
—graphics vnc \
—disk path=/var/lib/libvirt/images/openbsd59.qcow2,size=40,bus=virtio,format=qcow2
To configure vnc login from another terminal over ssh and type:
$ sudo virsh dumpxml openbsd | grep vnc
5903 ‘ autoport=’yes’ listen=’127.0.0.1’>
Please note down the port value (i.e. 5903). You need to use an SSH client to setup tunnel and a VNC client to access the remote vnc server. Type the following SSH port forwarding command from your client/desktop:
$ ssh vivek@server1.cyberciti.biz -L 5903:127.0.0.1:5903
Once you have ssh tunnel established, you can point your VNC client at your own 127.0.0.1 (localhost) address and port 5903 to continue with OpenBSD 5.9 installation.
Create Debian 9.x VM
In this example, I’m creating Debian 8.5 VM with 2GB RAM, 2 CPU core, 2 nics (1 for lan and 1 for wan) and 40GB disk space, enter:
$ cd /var/lib/libvirt/boot/
$ sudo wget http://mirrors.kernel.org/debian-cd/current/amd64/iso-dvd/debian-9.3.0-amd64-DVD-1.iso
$ sudo virt-install \
—virt-type=kvm \
—name=debina9 \
—ram=2048 \
—vcpus=2 \
—os-variant=debian8 \
—virt-type=kvm \
—hvm \
—cdrom=/var/lib/libvirt/boot/debian-9.3.0-amd64-DVD-1.iso \
—network=bridge=br0,model=virtio \
—network=bridge=br1,model=virtio \
—graphics vnc \
—disk path=/var/lib/libvirt/images/debian8.qcow2,size=40,bus=virtio,format=qcow2
To configure vnc login from another terminal over ssh and type:
$ sudo virsh dumpxml debian8 | grep vnc
5904 ‘ autoport=’yes’ listen=’127.0.0.1’>
Please note down the port value (i.e. 5904). You need to use an SSH client to setup tunnel and a VNC client to access the remote vnc server. Type the following SSH port forwarding command from your client/desktop:
$ ssh vivek@server1.cyberciti.biz -L 5904:127.0.0.1:5904
Once you have ssh tunnel established, you can point your VNC client at your own 127.0.0.1 (localhost) address and port 5904 to continue with Debian Linux 8.5 installation.
Useful commands
Let us see some useful commands.
Find the list of the accepted OS variants
$ osinfo-query os | less
$ osinfo-query os | grep debian
$ osinfo-query os | grep freebsd
Источник