Lvs linux что это

Lvs linux что это

В LVS-кластер Red Hat Enterprise Linux входит Linux-машина, называемая активным маршрутизатором , передающая запросы из Интернет группе серверов. Таким образом, LVS кластеры состоят из двух классов компьютеров — LVS маршрутизаторов (одного активного и одного резервного) и набора реальных серверов, на которых и работают важные службы.

Активный маршрутизатор в кластере играет две роли:

Балансировка нагрузки между реальными серверами.

Проверка работоспособности служб на каждом из реальных серверов.

Задача резервного маршрутизатора заключается в наблюдении за активным маршрутизатором и в случае сбоя, выполнении его ролей.

Рисунок 9-1. Основная конфигурация LVS

Запросы к службам, поступающие LVS кластеру, адресованы его виртуальному IP адресу или VIP. Это его адрес, маршрутизируемый из внешней сети, связанный с полным доменным именем, например, www.example.com, назначенный одному или нескольким виртуальным серверам [1] . Обратите внимание, VIP адрес, переходящий во время переноса от одного LVS маршрутизатора к другому, при этом продолжающий свое существование, также называется плавающим IP адресом .

Различные VIP адреса могут быть привязаны к одному устройству, соединяющему LVS маршрутизатор с Интернет. Например, если Интернет подключен через eth0, адрес eth0:1 могут иметь несколько виртуальных серверов. И наоборот, каждый виртуальный сервер может обслуживать отдельное устройство. Например, HTTP-пакеты будут обрабатываться устройством eth0:1 , а FTP-пакеты устройством eth0:2 .

В один момент времени активным может быть только один маршрутизатор. Роль активного маршрутизатора состоит в перенаправлении запросов к службам с виртуальных IP адресов реальным серверам. Перенаправление выполняется по одному из восьми алгоритмов, описанных в разделе 9.3 Обзор распределения нагрузки в LVS .

Активный маршрутизатор также постоянно наблюдает за общим состоянием указанных служб на реальных серверах, используя простые сценарии послать/ждать . Для выявления состояния служб, требующих динамические данные, такие как HTTPS или SSL, администратор может использовать внешние исполняемые модули. Если служба на реальном сервере останавливается, активный маршрутизатор прекращает посылать ему задания, пока он не вернётся к нормальной работе.

Резервный маршрутизатор выполняет роль готовой к работе системы. Время от времени, LVS маршрутизаторы обмениваются пульсирующими сообщениями через первичный внешний интерфейс или, в случае сбоя, через внутренний. Как только резервный узел не получил сообщение в течение определённого периода времени, он выполняет перенос и начинает играть роль активного маршрутизатора. Во время переноса, резервный маршрутизатор забирает на себя все VIP адреса отказавшего маршрутизатора, используя алгоритм ARP подмены — когда резервный LVS маршрутизатор провозглашает себя получателем IP пакетов, адресованных отказавшему узлу. Когда отказавший узел продолжает нормальную работу и становится активным, резервный узел снова переходит в режим готовности.

Так как в LVS кластерах отсутствует встроенный компонент для разделения данных между серверами, администратор может выбрать один из двух основных вариантов:

Синхронизировать данные в наборе реальных серверов

Добавить в структуру третий уровень общего доступа к данным

Первый вариант лучше подходит в ситуациях, когда загрузкой данных на реальные сервера и их обновлением занимаются всего несколько человек. Если изменение данных в кластере выполняется большим количеством пользователей, лучше добавить третий уровень.

Существует много способов, которыми администратор может синхронизировать данные в наборе реальных серверов. Например, можно применить сценарии командной оболочки, чтобы при изменении страницы вeb-мастером, эта страница загружалась на все реальные сервера одновременно. Кроме этого, администратор кластера может с заданной частотой синхронизировать изменённые данные между узлами, используя программы, такие как rsync .

Однако, этот вариант синхронизации не очень хорош, если кластер сильно загружен пользователями, постоянно обновляющими файлы или выполняющими транзакции в базе данных. Для кластера с большой нагрузкой идеальным решением является трёхуровневая архитектура .

Источник

Lvs linux что это

The Linux Virtual Server is a highly scalable and highly available server built on a cluster of real servers, with the load balancer running on the Linux operating system. The architecture of the server cluster is fully transparent to end users, and the users interact as if it were a single high-performance virtual server. For more information, click here.

Applications of the Linux Virtual Server

The Linux Virtual Server as an advanced load balancing solution can be used to build highly scalable and highly available network services, such as scalable web, cache, mail, ftp, media and VoIP services.

What is this site about?

This site hosts the Linux Virtual Server kernel patches and related programs, released under the GNU General Public License (GPL). This site also provides various information about the Linux Virtual Server cluster: how it works, how to use it, and its ongoing development.

— Jerry Glomph Black, Director, Internet & Technical Operations, Real Networks, Seattle Washington, USA

Latest Press News. Wednesday, August 8, 2012

The FULLNAT and SYNPROXY feature was added for IPVS in Linux kernel 2.6.32 by Jianming Wu and Jian Chen. It introduces a new packet forwarding method FULLNAT other than NAT/Tunneling/DirectRouting, and defense mechanism against synflooding attack.

The ipvsadm-1.26 was released on February 8, 2011, for handling with the new features in IPVS such as SCTP support, one-packet scheduling, and SIP persistent engine, and also fixing some bugs.

IPv6 support for IPVS was included in the Linux kernel 2.6.28-rc3 on November 2, 2008. Many thanks to Julius Volz and Vince Busam at Google for adding IPv6 support. Click the wiki page of IPv6 load balancing for more information.

Читайте также:  Удаление старой папки windows old

The LVS Chinese web site was online on February 4, 2006. Click http://zh.linuxvirtualserver.org/ for more LVS related information in Chinese.

The CVS repository of LVS was migrated to the Subversion repository on January 4, 2006.

Li Wang released TCPHA version 0.2.0 on August 27 2005, which adopts multiple-thread event-driven architecture for high performance and includes some bug fixes. See the TCPHA Project for more information.

Karl Kopper published a book entitled «The Linux Enterprise Cluster: Build a Highly Available Cluster with Commodity Hardware and Free Software» in May 2005. The book has several chapters about LVS.

Li Wang released the LVS On FreeBSD module version 0.4.0 on May 28 2005, which has all the schedulers ported and one bug fix. See the LVS On FreeBSD Project for more information.

Li Wang released the LVS On FreeBSD module version 0.3.0 on May 16 2005, which includes the LVS/TUN load balancing support. See the LVS On FreeBSD Project for more information.

The LVS wiki site was online on May 8 2005, located at http://kb.linuxvirtualserver.org/. Let’s build a valueable knowledge base for LVS and load balancing technologies together.

Li Wang started LVS FreeBSD port project, and released the ipvs_freebsd version 0.1.0 on April 16, 2005, which supports the direct routing method and the round-robin scheduling algorithm. It is a long-awaited load balancing solution for FreeBSD, see the LVS On FreeBSD Project for more information.

Li Wang released TCPHA version 0.1.4 on January 10 2005, which includes some new features and bug fixes. See the TCPHA Project for more information.

The IPVS Netfilter module (version 1.2.1) was in the offical kernel 2.6.10 released on December 25, 2004. It’s a Christmas version, click the IPVS software page for more information.

Источник

Русские Блоги

Кластер Linux LVS

LVS-кластер системы Linux

Основная идея кластера

Из-за требований современного онлайн-бизнеса один сервер больше не может соответствовать потребностям бизнеса, и бизнес-сервер должен передавать больше запросов доступа. Либо отказ одного сервера (SPOF, единственная точка отказа) приведет к тому, что все службы быть недоступным. В этом случае необходимо объединить все одни и те же бизнес-серверы для предоставления услуг для одного и того же бизнеса. Для достижения высокого уровня параллелизма и быстрого реагирования. Кластерная технология и операционная система Linux обеспечивают высокую производительность и доступность сервера с очень хорошая масштабируемость, хорошая надежность и хорошая управляемость.

Тип кластера

LB: балансировка нагрузки
  • Компоненты:
    • Балансировщик нагрузки
      • планировщик
      • Распределитель
    • Вышестоящий сервер
      • «Реальный сервер» бэкэнда
HA: высокая доступность
  • Активный сервер (активный)
  • Резервный сервер (пассивный)
HP: высокопроизводительный вычислительный кластер (высокая производительность)

Подключите несколько ЦП через шину для совместного выполнения вычислений и повышения эффективности вычислений

DS: Распределенная система

Распределенная система хранения является наиболее распространенной, например hadoop

Вопросы, которые необходимо учитывать при построении балансировки нагрузки

Сохранение сеанса , Следующие сценарии применения

  • 1 Session sticky : Отслеживайте запросы пользователей через балансировщик нагрузки и всегда отправляйте сеансы с одним и тем же IP-адресом на один и тот же реальный сервер.
    • Недостатки: если вы обращались к реальному файлу сервера, это заставит некоторых пользователей проверить, сколько обычного доступа
  • 2 Session Cluster : Превратить сеанс в кластер и выполнить сеанс синхронизации с несколькими серверами
    • Недостатки: в случае большого сеанса сервер будет синхронизировать большое количество сеансов, что приведет к потере большого количества ресурсов и подходит только для относительно небольшого сеанса.
  • 3 Через глобальный планировщик нагрузки (GSLB) запрос отправляется в два разных компьютерных зала, и синхронизация сеанса между компьютерными залами
  • 4 Session server : Когда сеанс должен быть сохранен, используйте сетевое хранилище и звоните с нескольких серверов
    • Недостатки: служба сеанса сетевого хранилища будет иметь узкое место в сети или файловую машину хранилища сеанса.

Файловое хранилище : Использовать распределенную систему хранения

  • Общее хранилище
    • NAS: сетевое хранилище (сервер хранения файлов)
    • SAN: Storage Area Network (хранилище на уровне блоков)
    • DS: Distributed Storage (распределенное хранилище файлового уровня)
  • Синхронизация данных
    • Rsync

Внедрение кластерного подразделения LB

аппаратное обеспечение:
  • F5 : BIG-IP
  • Citrx : Netscaler
  • A10 : A10
  • Array
  • Redward
  • программного обеспечения
    • LVS(linux virtual server)
    • HAPorxy
    • Nginx
    • Ats(apache traffice server)
    • Perlbal
  • Разделение уровня протокола LB-кластера

    Транспортный уровень:
    • LVS
    • HAPorxy (аналоговый транспортный уровень, режим TCP)
  • Уровень приложения
    • HAPorxy(Mode HTTP)
    • Nginx
    • ATS
    • Perlbal
  • Внедрение HA-кластера

    Программный способ реализации
    • KeepAlived: Реализуйте дрейф адресов за счет реализации протокола vrrp
    • AIS
      • hearbeat
      • cman + rgmanager (реализация Red Hat, RHCS)
      • corosync + pacemaker

    Идеи построения бизнес-системы

    Стратификация
    • Уровень доступа
    • Слой кеширования
    • Бизнес-уровень
    • Уровень данных
  • распределен
    • заявление
    • данные
    • место хранения
    • Расчет
  • Введение в LVS

    LVS — это Linux Virtual Server и аббревиатура, то есть виртуальный сервер Linux. Это проект с открытым исходным кодом, инициированный доктором Чжан Вэнсун. Его официальный сайт: www.linuxvirtualserver.org Теперь, когда LVS является частью стандарта ядра Linux, технические цели, которые могут быть достигнуты с помощью LVS: Реализовать высокопроизводительный и высокодоступный серверный кластер Linux с помощью технологии балансировки нагрузки LVS и операционной системы Linux, которая имеет хороший хвост надежности. и может быть расширен И работоспособность. Для достижения наилучшей производительности при низких затратах. LVS был запущен в 1998 году, и в настоящее время это относительно зрелый проект. Использование технологии LVS позволяет достичь высокопроизводительных сетевых сервисов с высокой степенью сжатия. пример службы WWW, службы FTP, службы MAIL и т. д.

    Как работает LVS

    LVS работает с цепочкой INPUT ядра. Запрошенное сообщение данных сначала достигает цепочки PREROUTING, а затем находит IP-адрес машины по маршруту, но отправляется в цепочку INPUT, принудительно изменяя поток пакета данных. , отправляется в цепочку POSTROUTING, а затем отправляется на внутренний сервер (пересылка на внутренний сервер аналогична DNAT iptables, но не меняет целевой IP-адрес (вы также можете изменить целевой IP-адрес)). LVS работает на четвертый уровень, и пересылает его на задний план в соответствии с целевым IP и целевым ПОРТОМ сообщения запроса. Сервер в конечном кластере хостов (он основан на алгоритме планирования). Поддерживает множество служб TCP, UDP, SCTP, AH , ESP, AH_ESP и другие протоколы

    Читайте также:  Running windows exe on android

    Терминология LVS-кластера

    • VS: виртуальный сервер, называемый Директором
    • RS: реальный сервер, сервер, который предоставляет реальные услуги на бэкэнде
    • CIP: IP-адрес клиента
    • DIP: IP-адрес директора, внутренний IP-адрес LVS
    • VIP: IP-директор, интерфейсный IP-адрес LVS
    • RIP: IP-адрес сервера, который фактически предоставляет услугу на бэкэнде.

    Типы LVS

    • Lvs-nat
    • Lvs-dr(director routing)
    • Lvs-tun(ip tunneling)
    • Lvs-fullnat (изменить IP-адрес источника и IP-адрес назначения сообщения запроса одновременно)
    lvs-nat(MASQUERADE)

    Его можно понимать как многоцелевой DNAT (iptables), который может изменять IP-адрес и порт, изменяя целевой адрес и целевой порт сообщения запроса на RIP и порт выбранного RS.

    • RIP и DIP используют адреса частной сети, шлюз каждого RS должен указывать на DIP
    • Директор пересылает и запросы, и ответные сообщения (в сценариях с очень высокой нагрузкой Директор может стать узким местом системы)
    • Поддержка сопоставления портов
    • VS должен быть Linux, RS может быть любой ОС, если он может предоставлять те же услуги.
    • RIP RS и DIP директора должны находиться в одной сети, и они должны быть шлюзом RS.

    Преимущества: физические серверы в кластере могут использовать любую операционную систему, поддерживающую TCP / IP, и только подсистеме балансировки нагрузки требуется юридический IP-адрес.

    Недостатки: ограниченная масштабируемость. Когда серверный узел (обычный ПК-сервер) слишком сильно разрастается, балансировщик нагрузки становится узким местом всей системы, поскольку все пакеты запросов и ответные пакеты проходят через балансировщик нагрузки. Когда серверных узлов слишком много, в балансировщике нагрузки объединяется большое количество пакетов данных, и скорость замедляется!

    lvs-dr(GATAWAY)

    Director не изменяет исходный IP-адрес и целевой IP-адрес полученного сообщения-запроса, но устанавливает исходный MAC-адрес на свой собственный MAC, а целевой MAC-адрес для установки MAC-адреса целевой RS и отправляет его на сервер RS через коммутатор. Когда сервер RS удаляется. После решения выясняется, что исходный и целевой IP-адреса не являются собственными. На этом этапе вам необходимо настроить VIP на RS, то есть сервер RS имеет RIP и VIP. есть ли следующее:

    • У RS есть VIP, будет конфликтовать с VIP

    Ответ на трансляцию

    • Когда есть запрос трансляции VIP, RS будет транслировать все IP-адреса в системе.
    • Убедитесь, что интерфейсный маршрутизатор пересылает сообщение запроса, целевой IP-адрес которого является VIP, директору. Решение выглядит следующим образом:
      • Статическая привязка: привяжите IP-адрес и MAC-адрес директора к интерфейсному маршрутизатору.
        • Недостатки: невозможно обеспечить высокую доступность директора, интерфейсный маршрутизатор может быть предоставлен интернет-провайдером.
      • Запретить RS отвечать на ARP-запрос VIP
        • arptables: определение управления доступом ARP
        • Измените параметры ядра каждого RS и настройте VIP для реализации на конкретном интерфейсе и запретите его ответу отправлять широковещательные сообщения ARP (обычно VIP настраивается на субинтерфейсе lo)
    • RS RIP может использовать частный адрес или публичный сетевой адрес
    • RS и директор должны находиться в одной физической сети.
    • Сообщение с запросом должно быть запланировано директором, но ответное сообщение не должно проходить через директор.
    • Не поддерживает сопоставление портов
    • Каждый RS может использовать большинство ОС

    Преимущества: Как и TUN (туннельный режим), балансировщик нагрузки только распределяет запросы, а ответный пакет возвращается клиенту через отдельный метод маршрутизации. По сравнению с VS-TUN, VS-DR не требует туннельной структуры, поэтому большинство операционных систем можно использовать в качестве физических серверов.

    Недостатки: (нельзя назвать недостатками, можно только сказать, что недостаточно). Сетевая карта балансировщика нагрузки должна находиться в том же физическом сегменте, что и физическая сетевая карта.

    lvs-tun(IPIP)

    После того, как директор получает сообщение, исходный IP-адрес и целевой IP-адрес не перемещаются, а затем инкапсулируют исходный IP-адрес и целевой IP-адрес. Исходный IP-адрес — DIP, а целевой IP-адрес — RIP. Убедитесь, что каждый RIP имеет VIP. После того, как хост RS получит сообщение, исходный IP-адрес — VIP, а целевой IP-адрес — CIP.

    • RIP, DIP, VIP — все адреса общедоступной сети, DIP могут быть адресами частной сети.
    • Шлюз RS не может и не может указывать на DIP
    • Сообщение с запросом планируется Директором, но ответное сообщение отправляется непосредственно в CIP.
    • Не поддерживает сопоставление портов
    • ОС RS должна поддерживать функцию IP-туннеля

    Преимущества: балансировщик нагрузки отвечает только за распространение пакета запроса на сервер внутреннего узла, в то время как RS отправляет ответный пакет непосредственно пользователю. Следовательно, большой поток данных балансировщика нагрузки сокращается. Балансировщик нагрузки больше не является узким местом системы и может обрабатывать огромное количество запросов. Таким образом, один балансировщик нагрузки может распределять нагрузку для многих RS. И его можно распространять в разных регионах, работая в сети общего пользования.

    Недостатки: узел RS в туннельном режиме требует легального IP. Этот метод требует, чтобы все серверы поддерживали протокол «IP-туннелирование» (IP-инкапсуляция). Серверы могут быть ограничены только некоторыми системами Linux. Инкапсуляция двух заголовков IP-пакетов вызовет проблемы: размер MTU составляет 1500, а добавление другого заголовка IP-пакета превысит размер MTU, в результате чего маршрутизатор отклонит его (поскольку размер, нарезанный перед передачей, составляет 1500 байт)

    lvs-fullnat

    После того, как Director получает сообщение, он изменяет исходный IP-адрес (CIP) на (DIP), а адрес назначения (VIP) на (RIP) и пересылает его в RIP. Когда узел RS получает сообщение и отвечает, исходный IP-адрес — это RIP, целевым IP-адресом является VIP. После того, как директор получает сообщение, он меняет исходный IP-адрес на себя (VIP), а целевой IP-адрес на CIP.

    • Особенности:
      • VIP — это общедоступный сетевой адрес, RIP и DIP — это частные сетевые адреса, и они могут быть не в одной IP-сети, но им необходимо связываться друг с другом посредством маршрутизации.
      • IP-адрес источника сообщения запроса, полученного RS, — DIP, поэтому его ответное сообщение будет отправлено в DIP.
      • И запросы, и ответные сообщения должны планироваться Директором.
      • Поддержка механизма сопоставления портов
      • RS может использовать любую ОС
    Читайте также:  Драйвер для сканера эпсон 1270 для windows 10
    Как lvs вычисляет активные и неактивные соединения:
    • Модель Nat fullnat: сообщения запроса и ответа будут проходить через каталог, поэтому директор может точно определять активные и неактивные соединения.
    • Модель dr tun: запрос проходит только через директора, ответ не проходит через директор, но когда TCP отключен, сообщение fin и последнее подтверждение будут получены директором, и сообщение определяет, является ли соединение активен или отключен

    Метод планирования LVS

    Статический метод (публикация планируется согласно самому алгоритму, независимо от состояния работы внутреннего сервера, влияние нагрузки ограничено)

    rr : круговой алгоритм, круговой алгоритм, опрос, круговой алгоритм

    • Недостатки: серверы с хорошей производительностью будут простаивать, а серверы с низкой производительностью будут заняты.

    wrr : взвешенный rr, взвешенный опрос, тяжелые нагрузки

    • Недостатки: в некоторых случаях, когда сервер с хорошей производительностью выделяет более длинные соединения, а большинство распределений с низкой производительностью — это короткие соединения, это заставляет сервер с хорошей производительностью обрабатывать множество соединений, и нагрузка возрастает. сервер с низкой производительностью все еще находится в пространстве, что вызывает ложную загрузку

    sh : исходный IP-адрес, хэш исходного адреса, всегда может вести один и тот же IP-адрес к одному и тому же серверу RS (поддерживать хеш-таблицу на сервере Director, которая имеет формат KV, ключ — это исходный IP-адрес, а значение — это Адрес RS. Хеш-таблица будет просматриваться каждый раз. Если можно запросить предыдущую запись соединения, она будет отправлена ​​непосредственно на сервер RS. Если нет, алгоритм будет использоваться для планирования)

    • Недостатки: со временем будет много старых IP-адресов, что окажет сильное давление на фиксированный сервер RS.

    dh : IP-адрес назначения, хэш адреса назначения (используется для внутренней загрузки, прямого прокси), запрос клиента, если это тот же адрес назначения, всегда будет отправляться через один и тот же шлюз.

    • Недостаток: если другой клиент также запрашивает тот же целевой адрес, он также будет использовать тот же шлюз для отправки этого запроса. Если запрос на тот же целевой адрес относительно велик, это вызовет нагрузку на тот же шлюз и повредит эффект нагрузка.
    Динамический метод (оценка на основе алгоритма и текущего состояния нагрузки каждого RS. Если нагрузка мала, будет загружен следующий запрос. overhead Значение для назначения запроса)

    LC : наименьшее соединение (наименьшее соединение), если количество соединений RS одинаково, будет выполняться циклический перебор, и следующий запрос будет получен, если значение накладных расходов мало

    • Формула расчета накладных расходов: `активные (количество активных подключений) * 256 + неактивные (количество неактивных подключений)
    • Недостатки: невозможно распределять запросы в зависимости от производительности сервера.

    WLC : взвешенный LC, следующий запрос получит меньшие накладные расходы

    • Формула расчета накладных расходов: `активные * 256 + неактивные / вес
    • Недостатки: когда два активных соединения равны 0, будет выполняться циклический перебор. Если циклический перебор происходит с ответом с небольшим весом, это не идеально. Алгоритм SED решает эту проблему.

    SED : самая короткая задержка expction, самая короткая ожидаемая задержка, является улучшением алгоритма WLC

    • Формула расчета накладных расходов: (актив + 1) * 256 / вес
    • Недостатки: если веса сильно различаются, меньшие веса будут бездействовать.

    NQ : Nerver Queue
    Это усовершенствование алгоритма SED. Когда поступает запрос пользователя, сервер заранее выделяет в соответствии с запросом пользователя в соответствии с весом, а затем выделяет в соответствии с алгоритмом SED

    LBLC : Locality-based LC
    Это динамический алгоритм DH. Когда клиент запрашивает целевой адрес, когда нет записи соединения целевого адреса, он выберет шлюз с небольшой нагрузкой для отправки, которая также используется, когда это прямой прокси. Алгоритм

    LBLCR : LBLCR с репликацией, LBLC с репликацией
    Когда целевой адрес сильно кэшируется кеш-сервером, и пользователь снова запрашивает этот целевой адрес, другой кэш-сервер в это время слишком простаивает, и алгоритм LBLCR пройдет. Скопируйте содержимое напряженного кеш-сервера на бездействующий кеш-сервер

    ipvsadm/ipvs

    ipvsadm

    Инструмент командной строки, который работает в пользовательском пространстве, пространстве пользователя, используется для управления службами кластера и RS в службах кластера, это инструмент CLI.

    Программный код, который работает в пространстве ядра и работает с перехватчиком INPUT netfilter. Его кластерная функция зависит от правил определения инструмента Ipvsadm. Хост ipvs должен иметь по крайней мере один RS, и он также может определять несколько кластерных служб одновременно

    Установка инструмента ipvsadm

    • yum install ipvsadm (базовый источник)

    Подтвердите, поддерживает ли ядро ​​функцию ipvs

    Использование команды ipvsadm

    Управление сервисами кластера:
    • ipvsadm -A | E -t |u |f service-address [-s scheduler] [-p timeout]
    • ipvsadm -D | -t | u | f service-address
      • -A : Добавить к
      • -E : Изменить
      • -D : Удалить
      • -t : tcp, vip:port
      • -u : udp, vip:port
      • -f : Знак межсетевого экрана, MARK
      • -s : Алгоритм планирования, по умолчанию — WLC
      • -p : Режим постоянного подключения
    Управление RS в службе кластера
    • ipvsadm -A |E -t |u |f service-address -r server-address [-g | i | m] [-w weight]
    • ipvsadm -D -t | u | f service-address -r server-address
      • -a : Добавить хост RS
      • -e : Изменить хост RS
      • -d : Удалить хост RS
      • -g : Режим LVS GATAWAY
      • -m : masqueread, нат режим LVS
      • -i : IPIP, режим туннеля LVS
      • -w : weight
    • ipvsadm -L | l [options]
      • -n : число, отображаемый адрес и порт в числовом формате
      • -c : соединение, отображение ipvs-соединения
      • —stas : Статистические данные
      • —rate : Ставка
      • —exact : Точное значение
    Пустые правила
    Сохранить и перезагрузить
    • ipvsadm -S /path/to/file
    • ipvsadm -S > /path/to/file
    Перегрузка
    Сброс счетчика
    • ipvsadm -Z [-t | u | f server-address]

    Строительство lvs-nat

    • Если виртуальный IP-адрес IPVS должен быть высокодоступным, ему может потребоваться передать его на другие серверы-директора. Как правило, этот мобильный IP-адрес настраивается как интерфейс псевдонима.
    • Невозможно включить iptables на директоре IPvs

    Схема топологии конфигурации

    Строительство lvs-dr

    • Если виртуальный IP-адрес IPVS должен быть высокодоступным, ему может потребоваться передать его на другие серверы-директора. Как правило, этот мобильный IP-адрес настраивается как интерфейс псевдонима.
    • Невозможно включить iptables на директоре IPvs

    Источник

    Оцените статью