- Failover Clusters
- FailoverClusters
- Отказоустойчивая кластеризация в Windows Server Failover Clustering in Windows Server
- Требования к оборудованию отказоустойчивой кластеризации и параметры хранения Failover clustering hardware requirements and storage options
- Требования к оборудованию для Hyper-V Hardware requirements for Hyper-V
- Развертывание сетей хранения данных с отказоустойчивыми кластерами Deploying storage area networks with failover clusters
Failover Clusters
This reference provides cmdlet descriptions and syntax for all failover cluster-specific cmdlets. It lists the cmdlets in alphabetical order based on the verb at the beginning of the cmdlet. If these cmdlets aren’t available in your PowerShell session, you may need to add the Failover Cluster Module for Windows PowerShell Feature, using the following PowerShell cmd: Add-WindowsFeature RSAT-Clustering-PowerShell .
FailoverClusters
Adds a cryptographic key checkpoint or registry checkpoint for a resource.
Makes a new disk available for use in a failover cluster.
Creates a clustered file server resource group.
Configures high availability for an application that was not originally designed to run in a failover cluster.
Configures an application controlled by a script that runs in Windows Script Host, within a failover cluster.
Configures high availability for a service that was not originally designed to run in a failover cluster.
Adds an empty resource group to the failover cluster configuration, in preparation for adding clustered resources to the group.
Adds a dependency to a cluster set.
Adds a group to a set.
Creates a highly available iSCSI Target server.
Adds a node (server) to a failover cluster.
Adds a resource to a clustered role, or resource group, in a failover cluster.
Adds a resource to the list of resources on which a particular resource depends, using AND as the connector, within a failover cluster.
Adds a resource type to a failover cluster, and specifies information such as the dynamic-link library (DLL) to use with that resource type.
Creates a clustered file server for scale-out application data.
Makes a volume available in Cluster Shared Volumes in a failover cluster.
Creates a clustered virtual machine, that is, a virtual machine that can be failed over if necessary to a different server in the failover cluster.
Configures monitoring for a service or an Event Tracing for Windows (ETW) event so that it is monitored on a virtual machine.
Prevents the specified user or users from accessing a failover cluster.
Clears the persistent reservation on a disk in a failover cluster.
Clears the cluster configuration from a node that was evicted from a failover cluster.
Enables Storage Spaces Direct on a Fail-Over Cluster.
Gets information about one or more failover clusters in a given domain.
Gets information about permissions that control access to a failover cluster.
Gets information about the disks that can support Failover Clustering and are visible to all nodes, but are not yet part of the set of clustered disks.
Retrieves a cryptographic key checkpoint or registry checkpoint for a resource.
Gets diagnostics for a cluster a cluster that contains VMs and produces a zip file containing the data.
Gets the cluster fault domains in a cluster.
Gets the fault domain as an XML string.
Gets information about one or more clustered roles (resource groups) in a failover cluster.
Gets the group sets in the cluster.
Gets the cluster group sets based on dependency relationships.
Creates a log file for all nodes, or a specific a node, in a failover cluster.
Gets information about one or more networks in a failover cluster.
Gets information about one or more network adapters in a failover cluster.
Gets information about one or more nodes, or servers, in a failover cluster.
Gets information about which nodes can own a resource in a failover cluster or information about the order of preference among owner nodes for a clustered role.
Gets detailed information about an object in a failover cluster, such as a cluster resource.
Gets information about the quorum configuration of a failover cluster.
Gets information about one or more resources in a failover cluster.
Gets information about the dependencies that have been configured between clustered resources in a failover cluster.
Generates a report that lists the dependencies between resources in a failover cluster.
Gets information about one or more resource types in a failover cluster.
Gets information about Cluster Shared Volumes in a failover cluster.
Gets the state of Cluster Shared Volumes in a cluster.
Gets the S2D settings from a cluster.
Gets the list of services and events currently being monitored in the virtual machine.
Grants access to a failover cluster, either full access or read-only access.
Moves a clustered role (a resource group) from one node to another in a failover cluster.
Moves a clustered resource from one clustered role to another within a failover cluster.
Moves a Cluster Shared Volume (CSV) to ownership by a different node in a failover cluster.
Moves the ownership of a clustered virtual machine to a different node.
Creates a new failover cluster.
Creates a fault domain in the cluster.
Create a names set of groups in the cluster.
Creates a cluster name account in Active Directory Domain Services.
Destroys an existing failover cluster.
Removes a user from the access list on the cluster.
Removes a cryptographic key checkpoint or registry checkpoint for a resource.
Removes a fault domain.
Removes a clustered role, also called a resource group, from a failover cluster.
Removes a group from a set.
Removes a group set from the cluster.
Removes a dependency from a group set.
Removes a node from a failover cluster.
Removes a clustered resource from the failover cluster.
Removes a dependency between two resources in a clustered role within a failover cluster.
Removes a resource type from a failover cluster.
Removes a volume from the Cluster Shared Volumes in a failover cluster, and places it in Available Storage in the cluster.
Removes monitoring of a service or event that is currently being monitored on a virtual machine.
Repairs disks in a Storage Spaces Direct (S2D) system.
Resets the Application Critical state of a virtual machine, so that the virtual machine is no longer marked as being in a critical state in the cluster.
Resumes a node from the paused state or brings back drained workloads to the node or both.
Turns off maintenance for a disk resource or Cluster Shared Volume within a failover cluster.
Update an existing cluster fault domain.
Sets the cluster fault domain using XML.
Updates a cluster group set.
Sets the size and level of detail for the cluster log.
Specifies which nodes can own a resource in a failover cluster or specifies the order of preference among owner nodes for a clustered role, or resource group.
Controls specific properties of an object in a failover cluster, such as a resource, a group, or a network.
Configures quorum options for a failover cluster.
Specifies the resources that a particular resource depends on within a failover cluster.
Sets S2D cache parameters.
Configures the system to enable S2D to claim or not claim specific physical disks.
Starts the Cluster service on all nodes of the cluster on which it is not yet started.
Starts one or more clustered roles, also known as resource groups, on a failover cluster.
Starts the Cluster service on a node in a failover cluster.
Brings a resource online in a failover cluster.
Stops the Cluster service on all nodes in a failover cluster, which will stop all services and applications configured in the cluster.
Stops one or more clustered roles on a failover cluster.
Stops the Cluster service on a node in a failover cluster.
Takes a resource offline in a failover cluster.
Suspends activity on a failover cluster node, that is, pauses the node.
Turns on maintenance for a disk resource or CSV so that you can run a disk maintenance tool without triggering failover.
Runs validation tests for failover cluster hardware and settings.
Simulates a failure of a cluster resource.
Updates the functional level of a mixed-version cluster.
Renews or releases the DHCP lease for an IP address resource in a failover cluster.
Registers existing Network Name resources with a DNS server in a way that does not interrupt cluster availability.
Refreshes the configuration of a clustered virtual machine within a failover cluster.
Отказоустойчивая кластеризация в Windows Server Failover Clustering in Windows Server
Применяется к: Windows Server 2019, Windows Server 2016 Applies to: Windows Server 2019, Windows Server 2016
Отказоустойчивый кластер — это группа независимых компьютеров, которые работают совместно в целях повышения доступности и масштабируемости кластерных ролей (ранее называемых кластерными приложениями и службами). A failover cluster is a group of independent computers that work together to increase the availability and scalability of clustered roles (formerly called clustered applications and services). Кластерные серверы (называемые «узлы») соединены физическими кабелями и программным обеспечением. The clustered servers (called nodes) are connected by physical cables and by software. При сбое на одном из узлов кластера его функции немедленно передаются другим узлам (этот процесс называется отработкой отказа). If one or more of the cluster nodes fail, other nodes begin to provide service (a process known as failover). Кроме того, за кластерными ролями ведется профилактическое наблюдение, чтобы обеспечить их правильную работу. In addition, the clustered roles are proactively monitored to verify that they are working properly. Если они не работают, выполняется перезагрузка или перемещение на другой узел. If they are not working, they are restarted or moved to another node.
Отказоустойчивые кластеры также предоставляют функции общего тома кластера (CSV), которые образуют согласованное распределенное пространство имен, используемое кластерными ролями для доступа к общему хранилищу со всех узлов. Failover clusters also provide Cluster Shared Volume (CSV) functionality that provides a consistent, distributed namespace that clustered roles can use to access shared storage from all nodes. Благодаря функции отказоустойчивой кластеризации пользователи сталкиваются с минимальным количеством проблем в работе службы. With the Failover Clustering feature, users experience a minimum of disruptions in service.
Отказоустойчивая кластеризация имеет много возможностей практического применения, в том числе следующие: Failover Clustering has many practical applications, including:
Требования к оборудованию отказоустойчивой кластеризации и параметры хранения Failover clustering hardware requirements and storage options
Применяется к: Windows Server 2019, Windows Server 2016, Windows Server 2012 R2, Windows Server 2012 Applies to: Windows Server 2019, Windows Server 2016, Windows Server 2012 R2, Windows Server 2012
Для создания отказоустойчивого кластера требуется следующее оборудование. You need the following hardware to create a failover cluster. Чтобы оборудование поддерживалось программным обеспечением Майкрософт, оно все должно быть сертифицированным для используемой версии Windows Server, а решение отказоустойчивого кластера должно пройти все тесты в мастере проверки конфигурации. To be supported by Microsoft, all hardware must be certified for the version of Windows Server that you are running, and the complete failover cluster solution must pass all tests in the Validate a Configuration Wizard. Подробнее о проверке отказоустойчивого кластера см. в разделе Проверка оборудования для отказоустойчивого кластера. For more information about validating a failover cluster, see Validate Hardware for a Failover Cluster.
Серверы: Рекомендуется использовать набор совпадающих компьютеров, содержащих одинаковые или похожие компоненты. Servers: We recommend that you use a set of matching computers that contain the same or similar components.
Сетевые адаптеров и кабели (для передачи данных по сети): Если используется iSCSI, то каждый сетевой адаптер должен быть выделенным для подключения к сети или для iSCSI, но не для и того и другого одновременно. Network adapters and cable (for network communication): If you use iSCSI, each network adapter should be dedicated to either network communication or iSCSI, not both.
Избегайте единственных точек отказа в сетевой инфраструктуре, соединяющей узлы кластера. In the network infrastructure that connects your cluster nodes, avoid having single points of failure. Например, можно соединить узлы кластера несколькими независимыми сетями. For example, you can connect your cluster nodes by multiple, distinct networks. Кроме того, можно подключить узлы кластера к одной сети, созданной с помощью групповых сетевых адаптеров, избыточных коммутаторов, избыточных маршрутизаторов или аналогичного оборудования, которое устраняет единую точку отказа. Alternatively, you can connect your cluster nodes with one network that’s constructed with teamed network adapters, redundant switches, redundant routers, or similar hardware that removes single points of failure.
Если узлы кластера соединены одной сетью, сеть пройдет тест на избыточность мастера проверки конфигурации. If you connect cluster nodes with a single network, the network will pass the redundancy requirement in the Validate a Configuration Wizard. Однако отчет мастера будет включать предупреждение, что в сети не должно быть единственных точек отказа. However, the report from the wizard will include a warning that the network should not have single points of failure.
Контроллеры устройств или соответствующие адаптеры для хранилища. Device controllers or appropriate adapters for the storage:
- Serial Attached SCSI или Fibre Channel: Если используется Serial Attached SCSI или Fibre Channel во всех кластеризованных серверах, то все элементы стека хранилища должны быть идентичными. Serial Attached SCSI or Fibre Channel: If you are using Serial Attached SCSI or Fibre Channel, in all clustered servers, all elements of the storage stack should be identical. Необходимо, чтобы программное обеспечение Multipath I/O (MPIO) совпадало и программное обеспечение конкретного модуля (DSM) было идентично. It’s required that the multipath I/O (MPIO) software be identical and that the Device Specific Module (DSM) software be identical. Рекомендуется, чтобы контроллеры запоминающих устройств (HBA), драйверы HBA и встроенное по HBA, подключенные к хранилищу кластера, совпадали. It’s recommended that the mass-storage device controllers— the host bus adapter (HBA), HBA drivers, and HBA firmware—that are attached to cluster storage be identical. При использовании различных HBA следует уточнить у поставщика хранилища, обеспечиваются ли при этом поддерживаемые или рекомендуемые конфигурации. If you use dissimilar HBAs, you should verify with the storage vendor that you are following their supported or recommended configurations.
- iSCSI: При использовании iSCSI у каждого кластеризованного сервера должно быть не менее одного сетевого адаптера или адаптера шины, предназначенного исключительно для хранилища кластера. iSCSI: If you are using iSCSI, each clustered server should have one or more network adapters or HBAs that are dedicated to the cluster storage. Сеть, используемая для iSCSI, не может использоваться для сетевого взаимодействия. The network you use for iSCSI should not be used for network communication. На всех кластеризованных серверах сетевые адаптеры для подключения к целевому хранилищу iSCSI должны быть одинаковыми. Рекомендуется использовать адаптеры Gigabit Ethernet или с более высокой пропускной способностью. In all clustered servers, the network adapters you use to connect to the iSCSI storage target should be identical, and we recommend that you use Gigabit Ethernet or higher.
Хранилище. необходимо использовать Локальные дисковые пространства или общее хранилище, совместимое с Windows Server 2012 R2 или Windows Server 2012. Storage: You must use Storage Spaces Direct or shared storage that’s compatible with Windows Server 2012 R2 or Windows Server 2012. Можно использовать подключенное общее хранилище, а также использовать общие файловые ресурсы SMB 3,0 в качестве общего хранилища для серверов под управлением Hyper-V, настроенных в отказоустойчивом кластере. You can use shared storage that’s attached, and you can also use SMB 3.0 file shares as shared storage for servers that are running Hyper-V that are configured in a failover cluster. Дополнительные сведения см. в разделе Развертывание Hyper-V через SMB. For more information, see Deploy Hyper-V over SMB.
В большинстве случаев в подключенном хранилище должно быть несколько отдельных дисков (логических номеров устройств, или LUN), настроенных на аппаратном уровне. In most cases, attached storage should contain multiple, separate disks (logical unit numbers, or LUNs) that are configured at the hardware level. Для некоторых кластеров один из дисков работает как диск-свидетель (см. в конце этого подраздела). For some clusters, one disk functions as the disk witness (described at the end of this subsection). На других дисках содержатся файлы, необходимые для кластерных ролей (ранее называвшихся кластеризованными службами или приложениями). Other disks contain the files required for the clustered roles (formerly called clustered services or applications). К хранилищу предъявляются следующие требования. Storage requirements include the following:
Для использования собственной поддержки дисков, включенной в компонент отказоустойчивого кластера, применяйте базовые, а не динамические диски. To use the native disk support included in Failover Clustering, use basic disks, not dynamic disks.
Мы рекомендуем форматировать разделы с использованием файловой системой NTFS. We recommend that you format the partitions with NTFS. Если вы используете общие тома кластера (CSV), их разделы должны иметь формат NTFS. If you use Cluster Shared Volumes (CSV), the partition for each of those must be NTFS.
Если в конфигурации кворума используется диск-свидетель, его можно отформатировать в NTFS или в Resilient File System (ReFS). If you have a disk witness for your quorum configuration, you can format the disk with either NTFS or Resilient File System (ReFS).
Для разделения диска на разделы можно использовать основную загрузочную запись (MBR) или таблицу разделов GPT. For the partition style of the disk, you can use either master boot record (MBR) or GUID partition table (GPT).
Диск-свидетель — это диск в хранилище кластера, предназначенный для хранения копии базы данных конфигурации кластера. A disk witness is a disk in the cluster storage that’s designated to hold a copy of the cluster configuration database. Отказоустойчивый кластер имеет диск-свидетель, только если он настроен в конфигурации кворума. A failover cluster has a disk witness only if this is specified as part of the quorum configuration. Дополнительные сведения см. в разделе понятие кворума в Локальные дисковые пространства. For more information, see Understanding Quorum in Storage Spaces Direct.
Требования к оборудованию для Hyper-V Hardware requirements for Hyper-V
Если вы создаете отказоустойчивый кластер с кластерными виртуальными машинами, то серверы кластера должны отвечать требованиям к оборудованию для роли Hyper-V. If you are creating a failover cluster that includes clustered virtual machines, the cluster servers must support the hardware requirements for the Hyper-V role. Для Hyper-V требуется 64-разрядный процессор, включающий следующие возможности. Hyper-V requires a 64-bit processor that includes the following:
- Виртуализация с использованием оборудования. Hardware-assisted virtualization. Это возможно на процессорах, допускающих виртуализацию, а именно на процессорах с технологией Intel Virtualization Technology (Intel VT) или AMD Virtualization (AMD-V). This is available in processors that include a virtualization option—specifically processors with Intel Virtualization Technology (Intel VT) or AMD Virtualization (AMD-V) technology.
- Должна быть доступна и включена технология аппаратного предотвращения выполнения данных (DEP). Hardware-enforced Data Execution Prevention (DEP) must be available and enabled. То есть необходимо включить атрибут Intel XD (атрибут отключения выполнения) или AMD NX (атрибут запрета выполнения). Specifically, you must enable Intel XD bit (execute disable bit) or AMD NX bit (no execute bit).
Дополнительные сведения о роли Hyper-V см. в статье Обзор Hyper-V. For more information about the Hyper-V role, see Hyper-V Overview.
Развертывание сетей хранения данных с отказоустойчивыми кластерами Deploying storage area networks with failover clusters
При развертывании сети хранения данных (SAN) с отказоустойчивым кластером руководствуйтесь следующими рекомендациями. When deploying a storage area network (SAN) with a failover cluster, follow these guidelines:
Подтвердите совместимость хранилища. Обратитесь к производителям и поставщикам, чтобы подтвердить, что хранилище, включая драйверы, встроенное ПО и ПО, используемое для хранилища, совместимо с отказоустойчивыми кластерами в используемой версии Windows Server. Confirm compatibility of the storage: Confirm with manufacturers and vendors that the storage, including drivers, firmware, and software used for the storage, are compatible with failover clusters in the version of Windows Server that you are running.
Изолируйте запоминающие устройства по одному кластеру на устройство: серверы из различных кластеров не должны иметь доступа к одним и тем же запоминающим устройствам. Isolate storage devices, one cluster per device: Servers from different clusters must not be able to access the same storage devices. В большинстве случаев LUN, используемый для одного набора серверов кластера, должен быть изолирован от всех остальных серверов с помощью маски или зонирования LUN. In most cases, a LUN used for one set of cluster servers should be isolated from all other servers through LUN masking or zoning.
Рассмотрите использование ПО многоканального ввода-вывода или сетевых адаптеров с поддержкой совместной работы: в архитектуре хранилищ с высокой доступностью можно развернуть отказоустойчивые кластеры с несколькими адаптерами шины, используя ПО многоканального ввода-вывода или сетевых адаптеров с поддержкой совместной работы (что также называется отказоустойчивой балансировкой нагрузки — LBFO). Consider using multipath I/O software or teamed network adapters: In a highly available storage fabric, you can deploy failover clusters with multiple host bus adapters by using multipath I/O software or network adapter teaming (also called load balancing and failover, or LBFO). Это обеспечивает максимальный уровень резервирования и доступности. This provides the highest level of redundancy and availability. Для Windows Server 2012 R2 или Windows Server 2012 решение Multipath должно быть основано на Microsoft Multipath I/O (MPIO). For Windows Server 2012 R2 or Windows Server 2012, your multipath solution must be based on Microsoft Multipath I/O (MPIO). Поставщики оборудования обычно предоставляют модуль MPIO для конкретного устройства (DSM), но в комплект поставки операционной системы Windows Server также входят один или несколько модулей DSM. Your hardware vendor will typically supply an MPIO device-specific module (DSM) for your hardware, although Windows Server includes one or more DSMs as part of the operating system.
Дополнительные сведения о LBFO см. в статье Обзор объединения сетевых карт в технической библиотеке Windows Server. For more information about LBFO, see NIC Teaming Overview in the Windows Server Technical Library.
Некоторые адаптеры шины и программное обеспечение многоканального ввода-вывода сильно зависят от версий. Host bus adapters and multipath I/O software can be very version sensitive. При реализации многоканального решения для кластера следует проконсультироваться с поставщиком оборудования, чтобы выбрать правильные адаптеры, встроенное программное обеспечение и программное обеспечение для используемой версии Windows Server. If you are implementing a multipath solution for your cluster, work closely with your hardware vendor to choose the correct adapters, firmware, and software for the version of Windows Server that you are running.
Рассмотрите возможность использования дисковых пространств. Если планируется развертывание кластеризованного хранилища Serial Attached SCSI (SAS), настроенного с помощью дисковых пространств, см. раздел развертывание кластерных дисковых пространств для требований. Consider using Storage Spaces: If you plan to deploy serial attached SCSI (SAS) clustered storage that’s configured using Storage Spaces, see Deploy Clustered Storage Spaces for the requirements.