Windows storage server clustering

Отказоустойчивая кластеризация в Windows Server Failover Clustering in Windows Server

Применяется к: Windows Server 2019, Windows Server 2016 Applies to: Windows Server 2019, Windows Server 2016

Отказоустойчивый кластер — это группа независимых компьютеров, которые работают совместно в целях повышения доступности и масштабируемости кластерных ролей (ранее называемых кластерными приложениями и службами). A failover cluster is a group of independent computers that work together to increase the availability and scalability of clustered roles (formerly called clustered applications and services). Кластерные серверы (называемые «узлы») соединены физическими кабелями и программным обеспечением. The clustered servers (called nodes) are connected by physical cables and by software. При сбое на одном из узлов кластера его функции немедленно передаются другим узлам (этот процесс называется отработкой отказа). If one or more of the cluster nodes fail, other nodes begin to provide service (a process known as failover). Кроме того, за кластерными ролями ведется профилактическое наблюдение, чтобы обеспечить их правильную работу. In addition, the clustered roles are proactively monitored to verify that they are working properly. Если они не работают, выполняется перезагрузка или перемещение на другой узел. If they are not working, they are restarted or moved to another node.

Отказоустойчивые кластеры также предоставляют функции общего тома кластера (CSV), которые образуют согласованное распределенное пространство имен, используемое кластерными ролями для доступа к общему хранилищу со всех узлов. Failover clusters also provide Cluster Shared Volume (CSV) functionality that provides a consistent, distributed namespace that clustered roles can use to access shared storage from all nodes. Благодаря функции отказоустойчивой кластеризации пользователи сталкиваются с минимальным количеством проблем в работе службы. With the Failover Clustering feature, users experience a minimum of disruptions in service.

Отказоустойчивая кластеризация имеет много возможностей практического применения, в том числе следующие: Failover Clustering has many practical applications, including:

Требования к оборудованию отказоустойчивой кластеризации и параметры хранения Failover clustering hardware requirements and storage options

Применяется к: Windows Server 2019, Windows Server 2016, Windows Server 2012 R2, Windows Server 2012 Applies to: Windows Server 2019, Windows Server 2016, Windows Server 2012 R2, Windows Server 2012

Для создания отказоустойчивого кластера требуется следующее оборудование. You need the following hardware to create a failover cluster. Чтобы оборудование поддерживалось программным обеспечением Майкрософт, оно все должно быть сертифицированным для используемой версии Windows Server, а решение отказоустойчивого кластера должно пройти все тесты в мастере проверки конфигурации. To be supported by Microsoft, all hardware must be certified for the version of Windows Server that you are running, and the complete failover cluster solution must pass all tests in the Validate a Configuration Wizard. Подробнее о проверке отказоустойчивого кластера см. в разделе Проверка оборудования для отказоустойчивого кластера. For more information about validating a failover cluster, see Validate Hardware for a Failover Cluster.

Серверы: Рекомендуется использовать набор совпадающих компьютеров, содержащих одинаковые или похожие компоненты. Servers: We recommend that you use a set of matching computers that contain the same or similar components.

Сетевые адаптеров и кабели (для передачи данных по сети): Если используется iSCSI, то каждый сетевой адаптер должен быть выделенным для подключения к сети или для iSCSI, но не для и того и другого одновременно. Network adapters and cable (for network communication): If you use iSCSI, each network adapter should be dedicated to either network communication or iSCSI, not both.

Читайте также:  Parallels linux and windows

Избегайте единственных точек отказа в сетевой инфраструктуре, соединяющей узлы кластера. In the network infrastructure that connects your cluster nodes, avoid having single points of failure. Например, можно соединить узлы кластера несколькими независимыми сетями. For example, you can connect your cluster nodes by multiple, distinct networks. Кроме того, можно подключить узлы кластера к одной сети, созданной с помощью групповых сетевых адаптеров, избыточных коммутаторов, избыточных маршрутизаторов или аналогичного оборудования, которое устраняет единую точку отказа. Alternatively, you can connect your cluster nodes with one network that’s constructed with teamed network adapters, redundant switches, redundant routers, or similar hardware that removes single points of failure.

Если узлы кластера соединены одной сетью, сеть пройдет тест на избыточность мастера проверки конфигурации. If you connect cluster nodes with a single network, the network will pass the redundancy requirement in the Validate a Configuration Wizard. Однако отчет мастера будет включать предупреждение, что в сети не должно быть единственных точек отказа. However, the report from the wizard will include a warning that the network should not have single points of failure.

Контроллеры устройств или соответствующие адаптеры для хранилища. Device controllers or appropriate adapters for the storage:

  • Serial Attached SCSI или Fibre Channel: Если используется Serial Attached SCSI или Fibre Channel во всех кластеризованных серверах, то все элементы стека хранилища должны быть идентичными. Serial Attached SCSI or Fibre Channel: If you are using Serial Attached SCSI or Fibre Channel, in all clustered servers, all elements of the storage stack should be identical. Необходимо, чтобы программное обеспечение Multipath I/O (MPIO) совпадало и программное обеспечение конкретного модуля (DSM) было идентично. It’s required that the multipath I/O (MPIO) software be identical and that the Device Specific Module (DSM) software be identical. Рекомендуется, чтобы контроллеры запоминающих устройств (HBA), драйверы HBA и встроенное по HBA, подключенные к хранилищу кластера, совпадали. It’s recommended that the mass-storage device controllers— the host bus adapter (HBA), HBA drivers, and HBA firmware—that are attached to cluster storage be identical. При использовании различных HBA следует уточнить у поставщика хранилища, обеспечиваются ли при этом поддерживаемые или рекомендуемые конфигурации. If you use dissimilar HBAs, you should verify with the storage vendor that you are following their supported or recommended configurations.
  • iSCSI: При использовании iSCSI у каждого кластеризованного сервера должно быть не менее одного сетевого адаптера или адаптера шины, предназначенного исключительно для хранилища кластера. iSCSI: If you are using iSCSI, each clustered server should have one or more network adapters or HBAs that are dedicated to the cluster storage. Сеть, используемая для iSCSI, не может использоваться для сетевого взаимодействия. The network you use for iSCSI should not be used for network communication. На всех кластеризованных серверах сетевые адаптеры для подключения к целевому хранилищу iSCSI должны быть одинаковыми. Рекомендуется использовать адаптеры Gigabit Ethernet или с более высокой пропускной способностью. In all clustered servers, the network adapters you use to connect to the iSCSI storage target should be identical, and we recommend that you use Gigabit Ethernet or higher.

Хранилище. необходимо использовать Локальные дисковые пространства или общее хранилище, совместимое с Windows Server 2012 R2 или Windows Server 2012. Storage: You must use Storage Spaces Direct or shared storage that’s compatible with Windows Server 2012 R2 or Windows Server 2012. Можно использовать подключенное общее хранилище, а также использовать общие файловые ресурсы SMB 3,0 в качестве общего хранилища для серверов под управлением Hyper-V, настроенных в отказоустойчивом кластере. You can use shared storage that’s attached, and you can also use SMB 3.0 file shares as shared storage for servers that are running Hyper-V that are configured in a failover cluster. Дополнительные сведения см. в разделе Развертывание Hyper-V через SMB. For more information, see Deploy Hyper-V over SMB.

Читайте также:  Grub linux minimal bash

В большинстве случаев в подключенном хранилище должно быть несколько отдельных дисков (логических номеров устройств, или LUN), настроенных на аппаратном уровне. In most cases, attached storage should contain multiple, separate disks (logical unit numbers, or LUNs) that are configured at the hardware level. Для некоторых кластеров один из дисков работает как диск-свидетель (см. в конце этого подраздела). For some clusters, one disk functions as the disk witness (described at the end of this subsection). На других дисках содержатся файлы, необходимые для кластерных ролей (ранее называвшихся кластеризованными службами или приложениями). Other disks contain the files required for the clustered roles (formerly called clustered services or applications). К хранилищу предъявляются следующие требования. Storage requirements include the following:

Для использования собственной поддержки дисков, включенной в компонент отказоустойчивого кластера, применяйте базовые, а не динамические диски. To use the native disk support included in Failover Clustering, use basic disks, not dynamic disks.

Мы рекомендуем форматировать разделы с использованием файловой системой NTFS. We recommend that you format the partitions with NTFS. Если вы используете общие тома кластера (CSV), их разделы должны иметь формат NTFS. If you use Cluster Shared Volumes (CSV), the partition for each of those must be NTFS.

Если в конфигурации кворума используется диск-свидетель, его можно отформатировать в NTFS или в Resilient File System (ReFS). If you have a disk witness for your quorum configuration, you can format the disk with either NTFS or Resilient File System (ReFS).

Для разделения диска на разделы можно использовать основную загрузочную запись (MBR) или таблицу разделов GPT. For the partition style of the disk, you can use either master boot record (MBR) or GUID partition table (GPT).

Диск-свидетель — это диск в хранилище кластера, предназначенный для хранения копии базы данных конфигурации кластера. A disk witness is a disk in the cluster storage that’s designated to hold a copy of the cluster configuration database. Отказоустойчивый кластер имеет диск-свидетель, только если он настроен в конфигурации кворума. A failover cluster has a disk witness only if this is specified as part of the quorum configuration. Дополнительные сведения см. в разделе понятие кворума в Локальные дисковые пространства. For more information, see Understanding Quorum in Storage Spaces Direct.

Требования к оборудованию для Hyper-V Hardware requirements for Hyper-V

Если вы создаете отказоустойчивый кластер с кластерными виртуальными машинами, то серверы кластера должны отвечать требованиям к оборудованию для роли Hyper-V. If you are creating a failover cluster that includes clustered virtual machines, the cluster servers must support the hardware requirements for the Hyper-V role. Для Hyper-V требуется 64-разрядный процессор, включающий следующие возможности. Hyper-V requires a 64-bit processor that includes the following:

  • Виртуализация с использованием оборудования. Hardware-assisted virtualization. Это возможно на процессорах, допускающих виртуализацию, а именно на процессорах с технологией Intel Virtualization Technology (Intel VT) или AMD Virtualization (AMD-V). This is available in processors that include a virtualization option—specifically processors with Intel Virtualization Technology (Intel VT) or AMD Virtualization (AMD-V) technology.
  • Должна быть доступна и включена технология аппаратного предотвращения выполнения данных (DEP). Hardware-enforced Data Execution Prevention (DEP) must be available and enabled. То есть необходимо включить атрибут Intel XD (атрибут отключения выполнения) или AMD NX (атрибут запрета выполнения). Specifically, you must enable Intel XD bit (execute disable bit) or AMD NX bit (no execute bit).

Дополнительные сведения о роли Hyper-V см. в статье Обзор Hyper-V. For more information about the Hyper-V role, see Hyper-V Overview.

Читайте также:  Дополнения для операционных систем windows

Развертывание сетей хранения данных с отказоустойчивыми кластерами Deploying storage area networks with failover clusters

При развертывании сети хранения данных (SAN) с отказоустойчивым кластером руководствуйтесь следующими рекомендациями. When deploying a storage area network (SAN) with a failover cluster, follow these guidelines:

Подтвердите совместимость хранилища. Обратитесь к производителям и поставщикам, чтобы подтвердить, что хранилище, включая драйверы, встроенное ПО и ПО, используемое для хранилища, совместимо с отказоустойчивыми кластерами в используемой версии Windows Server. Confirm compatibility of the storage: Confirm with manufacturers and vendors that the storage, including drivers, firmware, and software used for the storage, are compatible with failover clusters in the version of Windows Server that you are running.

Изолируйте запоминающие устройства по одному кластеру на устройство: серверы из различных кластеров не должны иметь доступа к одним и тем же запоминающим устройствам. Isolate storage devices, one cluster per device: Servers from different clusters must not be able to access the same storage devices. В большинстве случаев LUN, используемый для одного набора серверов кластера, должен быть изолирован от всех остальных серверов с помощью маски или зонирования LUN. In most cases, a LUN used for one set of cluster servers should be isolated from all other servers through LUN masking or zoning.

Рассмотрите использование ПО многоканального ввода-вывода или сетевых адаптеров с поддержкой совместной работы: в архитектуре хранилищ с высокой доступностью можно развернуть отказоустойчивые кластеры с несколькими адаптерами шины, используя ПО многоканального ввода-вывода или сетевых адаптеров с поддержкой совместной работы (что также называется отказоустойчивой балансировкой нагрузки — LBFO). Consider using multipath I/O software or teamed network adapters: In a highly available storage fabric, you can deploy failover clusters with multiple host bus adapters by using multipath I/O software or network adapter teaming (also called load balancing and failover, or LBFO). Это обеспечивает максимальный уровень резервирования и доступности. This provides the highest level of redundancy and availability. Для Windows Server 2012 R2 или Windows Server 2012 решение Multipath должно быть основано на Microsoft Multipath I/O (MPIO). For Windows Server 2012 R2 or Windows Server 2012, your multipath solution must be based on Microsoft Multipath I/O (MPIO). Поставщики оборудования обычно предоставляют модуль MPIO для конкретного устройства (DSM), но в комплект поставки операционной системы Windows Server также входят один или несколько модулей DSM. Your hardware vendor will typically supply an MPIO device-specific module (DSM) for your hardware, although Windows Server includes one or more DSMs as part of the operating system.

Дополнительные сведения о LBFO см. в статье Обзор объединения сетевых карт в технической библиотеке Windows Server. For more information about LBFO, see NIC Teaming Overview in the Windows Server Technical Library.

Некоторые адаптеры шины и программное обеспечение многоканального ввода-вывода сильно зависят от версий. Host bus adapters and multipath I/O software can be very version sensitive. При реализации многоканального решения для кластера следует проконсультироваться с поставщиком оборудования, чтобы выбрать правильные адаптеры, встроенное программное обеспечение и программное обеспечение для используемой версии Windows Server. If you are implementing a multipath solution for your cluster, work closely with your hardware vendor to choose the correct adapters, firmware, and software for the version of Windows Server that you are running.

Рассмотрите возможность использования дисковых пространств. Если планируется развертывание кластеризованного хранилища Serial Attached SCSI (SAS), настроенного с помощью дисковых пространств, см. раздел развертывание кластерных дисковых пространств для требований. Consider using Storage Spaces: If you plan to deploy serial attached SCSI (SAS) clustered storage that’s configured using Storage Spaces, see Deploy Clustered Storage Spaces for the requirements.

Оцените статью