Windows network interface errors

Содержание
  1. Windows network interface errors
  2. Диагностика стека программно-конфигурируемой сети Windows Server Troubleshoot the Windows Server Software Defined Networking Stack
  3. Типы ошибок Error types
  4. Диагностические средства Diagnostic tools
  5. Диагностика сетевого контроллера Network controller diagnostics
  6. Диагностика узлов Hyper-V Hyper-V host diagnostics
  7. GitHub GitHub
  8. Устранение неполадок рабочих процессов и руководств Troubleshooting Workflows and Guides
  9. Поставщика услуг размещения Проверка работоспособности системы [Hoster] Validate System Health
  10. Проверка сетевого подключения между сетевым контроллером и узлом Hyper-V (служба агента узла NC) Check network connectivity between the network controller and Hyper-V Host (NC Host Agent service)
  11. Проверка служб агента узла Check Host Agent services
  12. Проверка работоспособности сетевого контроллера Check health of network controller
  13. Проверьте наличие соответствующих Хостидс и сертификатов между сетевым контроллером и каждым узлом Hyper-V. Check for corresponding HostIDs and certificates between network controller and each Hyper-V Host
  14. Проверка состояния конфигурации SLB Check the SLB Configuration State
  15. Проверка шлюза Gateway Validation
  16. Поставщика услуг размещения Проверка Data-Plane [Hoster] Validate Data-Plane
  17. Проверка подключения к логической сети поставщика HNV Check HNV Provider Logical Network Connectivity
  18. Проверка поддержки кадров MTU и крупных размеров в логической сети поставщика HNV Check MTU and Jumbo Frame support on HNV Provider Logical Network
  19. Проверка подключения сетевого адаптера виртуальной машины клиента Check Tenant VM NIC connectivity
  20. Конкретные сценарии устранения неполадок Specific Troubleshooting Scenarios
  21. Отсутствует сетевое подключение между двумя виртуальными машинами клиента No network connectivity between two tenant virtual machines
  22. Пример Example
  23. Просмотреть IP-конфигурацию и виртуальные подсети, ссылающиеся на этот ACL Look at IP Configuration and Virtual Subnets which are referencing this ACL
  24. Ведение журналов, трассировка и Расширенная диагностика Logging, Tracing and advanced diagnostics
  25. Централизованное ведение журналов сетевого контроллера Network controller centralized logging
  26. Включение ведения журналов Enable logging
  27. Изменение параметров ведения журнала Change logging settings
  28. Сбор журналов и трассировок Collecting Logs and Traces
  29. Диагностика SLB SLB Diagnostics
  30. Ошибки фабрики SLBM (действия поставщика услуг размещения) SLBM Fabric errors (Hosting service provider actions)
  31. Ошибки клиента SLBM (действия поставщика услуг хостинга и клиента) SLBM Tenant errors (Hosting service provider and tenant actions)
  32. Трассировка мультиплексора SLB SLB Mux Tracing
  33. Трассировка VFP и vSwitch VFP and vSwitch Tracing

Windows network interface errors

Пожалуйста, сообщите об этом — просто выделите ошибочное слово или фразу и нажмите Shift Enter.

Как посмотреть статистику ошибок на сетевых интерфейсах
Написал microsin
24.04.2008

На Linux это можно сделать командой ifconfig и netstat. На FreeBSD — командой netstat. Под Windows netstat -e (к сожалению, без указания конкретного интерфейса). Под IOS Cisco show interfaces имя_интерфейса. Примеры:

Windows
D:\Documents and Settings\user>netstat -e
Interface Statistics
Received Sent
Bytes 1318170969 1331072579
Unicast packets 17579014 19350523
Non-unicast packets 7408 7298
Discards 0 0
Errors 0 0
Unknown protocols 0

Red Hat Linux
[ root@localhost

]# ifconfig
eth0 Link encap:Ethernet HWaddr 00:C0:DF:0B:1D:08
inet addr:a.b.11.111 Bcast:10.255.255.255 Mask:255.0.0.0
inet6 addr: fe80::2c0:dfff:fe0b:1d08/64 Scope:Link
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:12440467 errors:0 dropped:0 overruns:0 frame:0
TX packets:54452 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:1136982908 (1.0 GiB) TX bytes:5774730 (5.5 MiB)
Interrupt:169 Base address:0x1000
lo Link encap:Local Loopback
inet addr:127.0.0.1 Mask:255.0.0.0
inet6 addr: ::1/128 Scope:Host
UP LOOPBACK RUNNING MTU:16436 Metric:1
RX packets:1635 errors:0 dropped:0 overruns:0 frame:0
TX packets:1635 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:1743404 (1.6 MiB) TX bytes:1743404 (1.6 MiB)
[root@localhost

]# netstat -i
Kernel Interface table
Iface MTU Met RX-OK RX-ERR RX-DRP RX-OVR TX-OK TX-ERR TX-DRP TX-OVR Flg
eth0 1500 0 12564444 0 0 0 54645 0 0 0 BMRU
lo 16436 0 1635 0 0 0 1635 0 0 0 LRU

Диагностика стека программно-конфигурируемой сети Windows Server Troubleshoot the Windows Server Software Defined Networking Stack

Применяется к: Windows Server 2019, Windows Server 2016 Applies to: Windows Server 2019, Windows Server 2016

В этом руководство рассматриваются распространенные ошибки и случаи сбоя программно-определяемой сети (SDN), а также описывается процесс устранения неполадок, использующий доступные средства диагностики. This guide examines the common Software Defined Networking (SDN) errors and failure scenarios and outlines a troubleshooting workflow that leverages the available diagnostic tools.

Дополнительные сведения о программно определяемой сети Майкрософт см. в разделе программно определяемая сеть. For more information about Microsoft’s Software Defined Networking, see Software Defined Networking.

Типы ошибок Error types

В следующем списке представлен класс проблем, наиболее часто возникающих при использовании виртуализации сети Hyper-V (HNVv1) в Windows Server 2012 R2 из рабочих развертываний на рынке, и совпадают различные типы проблем, возникающих в Windows Server 2016 HNVv2 с новым стеком программно-определяемой сети (SDN). The following list represents the class of problems most often seen with Hyper-V Network Virtualization (HNVv1) in Windows Server 2012 R2 from in-market production deployments and coincides in many ways with the same types of problems seen in Windows Server 2016 HNVv2 with the new Software Defined Network (SDN) Stack.

Большинство ошибок можно классифицировать в небольшой набор классов: Most errors can be classified into a small set of classes:

Недопустимая или неподдерживаемая конфигурация Пользователь неправильно вызывает API обмена или имеет недопустимую политику. Invalid or unsupported configuration A user invokes the NorthBound API incorrectly or with invalid policy.

Ошибка в приложении политики Политика сетевого контроллера не доставляется на узел Hyper-V, значительно отложена и (или) не обновлена на всех узлах Hyper-V (например, после динамическая миграция). Error in policy application Policy from Network Controller was not delivered to a Hyper-V Host, significantly delayed and / or not up to date on all Hyper-V hosts (for example, after a Live Migration).

Отклонение конфигурации или ошибка программного обеспечения Проблемы с путями с данными, приводящие к потере пакетов. Configuration drift or software bug Data-path issues resulting in dropped packets.

Внешняя ошибка, связанная с сетевым адаптером, драйверами или структурой сети ундерлай Неправильно настроенные разгрузки задач (например, VMQ) или ундерлай Network Fabric (например, MTU) External error related to NIC hardware / drivers or the underlay network fabric Misbehaving task offloads (such as VMQ) or underlay network fabric misconfigured (such as MTU)

В этом руководство по устранению неполадок изучаются все эти категории ошибок и приводятся рекомендации и средства диагностики, доступные для выявления и исправления ошибок. This troubleshooting guide examines each of these error categories and recommends best practices and diagnostic tools available to identify and fix the error.

Диагностические средства Diagnostic tools

Прежде чем обсуждать рабочие процессы устранения неполадок для каждого из этих типов ошибок, давайте рассмотрим доступные средства диагностики. Before discussing the troubleshooting workflows for each of these type of errors, let’s examine the diagnostic tools available.

Чтобы использовать средства диагностики сетевого контроллера (Control-Path), необходимо сначала установить компонент RSAT-NetworkController и импортировать NetworkControllerDiagnostics модуль: To use the Network Controller (control-path) diagnostic tools, you must first install the RSAT-NetworkController feature and import the NetworkControllerDiagnostics module:

Чтобы использовать средства диагностики диагностики HNV (Data-Path), необходимо импортировать HNVDiagnostics модуль: To use the HNV Diagnostics (data-path) diagnostic tools, you must import the HNVDiagnostics module:

Диагностика сетевого контроллера Network controller diagnostics

Эти командлеты описаны на сайте TechNet в разделе Командлет диагностики сетевого контроллера. These cmdlets are documented on TechNet in the Network Controller Diagnostics Cmdlet Topic. Они помогают выявление проблем с согласованностью сетевых политик в узлах сетевого контроллера, а также между сетевым контроллером и агентами узла NC, запущенными на узлах Hyper-V. They help identify problems with network policy consistency in the control-path between Network Controller nodes and between the Network Controller and the NC Host Agents running on the Hyper-V hosts.

Командлеты Debug-сервицефабрикнодестатус и Get-нетворкконтроллерреплика должны запускаться с одной из виртуальных машин узла сетевого контроллера. The Debug-ServiceFabricNodeStatus and Get-NetworkControllerReplica cmdlets must be run from one of the Network Controller node virtual machines. Все остальные командлеты диагностики NC можно запускать с любого узла, который имеет подключение к сетевому контроллеру и находится в группе безопасности управления сетевым контроллером (Kerberos) или имеет доступ к сертификату X. 509 для управления сетевым контроллером. All other NC Diagnostic cmdlets can be run from any host which has connectivity to the Network Controller and is in either in the Network Controller Management security group (Kerberos) or has access to the X.509 certificate for managing the Network Controller.

Диагностика узлов Hyper-V Hyper-V host diagnostics

Эти командлеты описаны на сайте TechNet в разделе командлета диагностики виртуализации сети Hyper-V (HNV). These cmdlets are documented on TechNet in the Hyper-V Network Virtualization (HNV) Diagnostics Cmdlet Topic. Они помогают выявление проблем в пути передачи данных между виртуальными машинами клиента (Восток/Западная) и входящим трафиком через виртуальный IP-адрес SLB (Север/Юг). They help identify problems in the data-path between tenant virtual machines (East/West) and ingress traffic through an SLB VIP (North/South).

Для всех локальных тестов, которые можно запускать с любого узла Hyper-V, поддерживаются Отладка-виртуалмачинекуеуеоператион, Get- кустомеррауте , Get- провидераддресс, Get- вмнетворкадаптерпортид, Get-VMSwitchExternalPortId и Test-EncapOverheadSettings . The Debug-VirtualMachineQueueOperation, Get-CustomerRoute, Get-PACAMapping, Get-ProviderAddress, Get-VMNetworkAdapterPortId, Get-VMSwitchExternalPortId, and Test-EncapOverheadSettings are all local tests which can be run from any Hyper-V host. Другие командлеты вызывают проверку пути к данным через сетевой контроллер, поэтому требуется доступ к сетевому контроллеру как дескриед выше. The other cmdlets invoke data-path tests through the Network Controller and therefore need access to the Network Controller as descried above.

GitHub GitHub

Репозиторий GitHub Microsoft/Sdn содержит ряд примеров сценариев и рабочих процессов, которые создаются на основе этих командлетов. The Microsoft/SDN GitHub Repo has a number of sample scripts and workflows which build on top of these in-box cmdlets. В частности, диагностические сценарии можно найти в папке Diagnostics . In particular, diagnostic scripts can be found in the Diagnostics folder. Помогите нам участвовать в этих сценариях, отправив запросы на вытягивание. Please help us contribute to these scripts by submitting Pull Requests.

Устранение неполадок рабочих процессов и руководств Troubleshooting Workflows and Guides

Поставщика услуг размещения Проверка работоспособности системы [Hoster] Validate System Health

В некоторых ресурсах сетевого контроллера имеется внедренный ресурс с именем Configuration State . There is an embedded resource named Configuration State in several of the Network Controller resources. Состояние конфигурации предоставляет сведения о работоспособности системы, включая согласованность конфигурации сетевого контроллера и фактическое (запущенное) состояние на узлах Hyper-V. Configuration state provides information about system health including the consistency between the network controller’s configuration and the actual (running) state on the Hyper-V hosts.

Чтобы проверить состояние конфигурации, выполните следующую команду с любого узла Hyper-V с подключением к сетевому контроллеру. To check configuration state, run the following from any Hyper-V host with connectivity to the Network Controller.

Значение параметра нетворкконтроллер должно быть либо полным доменным именем, либо IP-адресом, исходя из имени субъекта сертификата X. 509 >, созданного для сетевого контроллера. The value for the NetworkController parameter should either be the FQDN or IP address based on the subject name of the X.509 >certificate created for Network Controller.

Параметр Credential необходимо указывать, только если сетевой контроллер использует проверку подлинности Kerberos (обычно в развертываниях VMM). The Credential parameter only needs to be specified if the network controller is using Kerberos authentication (typical in VMM deployments). Учетные данные должны быть заданы для пользователя, который находится в группе безопасности «Управление сетевым контроллером». The credential must be for a user who is in the Network Controller Management Security Group.

Ниже приведен пример сообщения о состоянии конфигурации. A sample Configuration State message is shown below:

В системе имеется ошибка, в которой ресурсы сетевого интерфейса для транзитного сетевого адаптера виртуальной машины мультиплексора SLB находятся в состоянии сбоя с ошибкой «виртуальный коммутатор — узел не подключен к контроллеру». There is a bug in the system where the Network Interface resources for the SLB Mux Transit VM NIC are in a Failure state with error «Virtual Switch — Host Not Connected To Controller». Эту ошибку можно спокойно проигнорировать, если в IP-конфигурации в ресурсе NIC виртуальной машины задан IP-адрес из пула IP-адресов транзитной логической сети. This error can be safely ignored if the IP configuration in the VM NIC resource is set to an IP Address from the Transit Logical Network’s IP Pool. В системе есть вторая ошибка, в которой ресурсы сетевого интерфейса для сетевых адаптеров виртуальных машин поставщика HNV шлюза находятся в состоянии сбоя с ошибкой «Virtual Switch-Портблоккед». There is a second bug in the system where the Network Interface resources for the Gateway HNV Provider VM NICs are in a Failure state with error «Virtual Switch — PortBlocked». Эту ошибку также можно спокойно проигнорировать, если IP-конфигурация в ресурсе NIC виртуальной машины имеет значение null (по шаблону). This error can also be safely ignored if the IP configuration in the VM NIC resource is set to null (by design).

В таблице ниже приведен список кодов ошибок, сообщений и дальнейших действий, которые необходимо выполнить в зависимости от состояния конфигурации. The table below shows the list of error codes, messages, and follow-up actions to take based on the configuration state observed.

Код Code Сообщение Message Действие Action
Неизвестно Unknown Неизвестная ошибка Unknown error
хостунреачабле HostUnreachable Хост-компьютер недоступен The host machine is not reachable Проверка сетевого подключения управления между сетевым контроллером и узлом Check the Management network connectivity between Network Controller and Host
паипаддрессексхаустед PAIpAddressExhausted IP-адреса PA исчерпаны The PA Ip addresses exhausted Увеличение размера пула IP-адресов для логической подсети поставщика HNV Increase the HNV Provider logical subnet’s IP Pool Size
памакаддрессексхаустед PAMacAddressExhausted Mac-адреса PA исчерпаны The PA Mac addresses exhausted Увеличение диапазона пула MAC-адресов Increase the Mac Pool Range
пааддрессконфигуратионфаилуре PAAddressConfigurationFailure Не удалось подключить адреса PA к узлу Failed to plumb PA addresses to the host Проверьте сетевое соединение управления между сетевым контроллером и узлом. Check the Management network connectivity between Network Controller and Host.
цертификатеноттрустед CertificateNotTrusted Сертификат не является доверенным Certificate is not trusted Исправьте сертификаты, используемые для связи с узлом. Fix the certificates used for communication with the host.
цертификатенотаусоризед CertificateNotAuthorized Сертификат не является полномочным Certificate not authorized Исправьте сертификаты, используемые для связи с узлом. Fix the certificates used for communication with the host.
полициконфигуратионфаилуреонвфп PolicyConfigurationFailureOnVfp Сбой при настройке политик VFP Failure in configuring VFP policies Это сбой среды выполнения. This is a runtime failure. Не существует определенной обработки. No definite work arounds. Собирайте журналы. Collect logs.
полициконфигуратионфаилуре PolicyConfigurationFailure Сбой при принудительной отправке политик на узлы из-за сбоев связи или других ошибок в Нетворкконтроллер. Failure in pushing policies to the hosts, due to communication failures or others error in the NetworkController. Нет определенных действий. No definite actions. Это происходит из-за сбоя обработки состояния цели в модулях сетевого контроллера. This is due to failure in goal state processing in the Network Controller modules. Собирайте журналы. Collect logs.
хостнотконнектедтоконтроллер HostNotConnectedToController Узел еще не подключен к сетевому контроллеру The Host is not yet connected to the Network Controller Профиль порта не применяется на узле, или узел недоступен из сетевого контроллера. Port Profile not applied on the host or the host is not reachable from the Network Controller. Проверка того, что раздел реестра HostID соответствует ИДЕНТИФИКАТОРу экземпляра ресурса сервера Validate that HostID registry key matches the Instance ID of the server resource
мултиплевфпенабледсвитчес MultipleVfpEnabledSwitches На узле есть несколько переключателей с поддержкой VFp. There are multiple VFp enabled Switches on the host Удалите один из переключателей, так как агент узла сетевого контроллера поддерживает только один vSwitch с включенным расширением VFP. Delete one of the switches, since Network Controller Host Agent only supports one vSwitch with the VFP extension enabled
полициконфигуратионфаилуре PolicyConfigurationFailure Не удалось принудительно отправить политики виртуальной сети для Вмник из-за ошибок сертификата или ошибок подключения. Failed to push VNet policies for a VmNic due to certificate errors or connectivity errors Проверьте, развернуты ли правильные сертификаты (имя субъекта сертификата должно соответствовать полному доменному имени узла). Check if proper certificates have been deployed (Certificate subject name must match FQDN of host). Также проверьте подключение узла к сетевому контроллеру. Also verify the host connectivity with the Network Controller
полициконфигуратионфаилуре PolicyConfigurationFailure Не удалось принудительно отправить политики vSwitch для Вмник из-за ошибок сертификата или ошибок подключения. Failed to push vSwitch policies for a VmNic due to certificate errors or connectivity errors Проверьте, развернуты ли правильные сертификаты (имя субъекта сертификата должно соответствовать полному доменному имени узла). Check if proper certificates have been deployed (Certificate subject name must match FQDN of host). Также проверьте подключение узла к сетевому контроллеру. Also verify the host connectivity with the Network Controller
полициконфигуратионфаилуре PolicyConfigurationFailure Не удалось принудительно отправить политики брандмауэра для Вмник из-за ошибок сертификата или ошибок подключения. Failed to push Firewall policies for a VmNic due to certificate errors or connectivity errors Проверьте, развернуты ли правильные сертификаты (имя субъекта сертификата должно соответствовать полному доменному имени узла). Check if proper certificates have been deployed (Certificate subject name must match FQDN of host). Также проверьте подключение узла к сетевому контроллеру. Also verify the host connectivity with the Network Controller
дистрибутедраутерконфигуратионфаилуре DistributedRouterConfigurationFailure Не удалось настроить параметры распределенного маршрутизатора на узле vNic Failed to configure the Distributed router settings on the host vNic Ошибка стека TCPIP. TCPIP stack error. Может потребоваться очистка узла vNIC и сервера аварийного восстановления на сервере, на котором была обнаружена эта ошибка. May require cleaning up the PA and DR Host vNICs on the server on which this error was reported
дхкпаддрессаллокатионфаилуре DhcpAddressAllocationFailure Сбой выделения адреса DHCP для Вмник DHCP address allocation failed for a VMNic Проверьте, настроен ли атрибут статического IP-адреса в ресурсе сетевой карты. Check if the static IP address attribute is configured on the NIC resource
цертификатеноттрустед CertificateNotTrusted
цертификатенотаусоризед CertificateNotAuthorized
Не удалось подключиться к мультиплексору из-за ошибок сети или сертификата Failed to connect to Mux due to network or cert errors Проверьте числовой код, указанный в коде сообщения об ошибке: это соответствует коду ошибки Winsock. Check the numeric code provided in the error message code: this corresponds to the winsock error code. Ошибки сертификата детализированы (например, сертификат не может быть проверен, сертификат не прошел проверку и т. д.). Certificate errors are granular (for example, cert cannot be verified, cert not authorized, etc.)
хостунреачабле HostUnreachable МУЛЬТИПЛЕКСОР находится в неработоспособном состоянии (общий случай — Бгпраутер DISCONNECTED) MUX is Unhealthy (Common case is BGPRouter disconnected) Одноранговый узел BGP на RRAS (виртуальная машина BGP) или коммутатор верхнего уровня (ToR) недоступен или не был успешно установлен в пиринг. BGP peer on the RRAS (BGP virtual machine) or Top-of-Rack (ToR) switch is unreachable or not peering successfully. Проверьте параметры BGP для ресурса мультиплексора Load Balancer программного обеспечения и узла BGP (ToR или виртуальная машина RRAS). Check BGP settings on both Software Load Balancer Multiplexer resource and BGP peer (ToR or RRAS virtual machine)
хостнотконнектедтоконтроллер HostNotConnectedToController Агент узла SLB не подключен SLB host agent is not connected Убедитесь, что служба агента узла SLB запущена; В разделе журналы агента узла SLB (автоматический запуск) приведены причины, по которым в случае, если сертификат, предоставленный агентом узла под состоянием «выполняется» (NC) отклонен, будет показывать сведения об особенностях Check that SLB Host Agent service is running; Refer to SLB host agent logs (auto running) for reasons why, in case SLBM (NC) rejected the cert presented by the host agent running state will show nuanced information
портблоккед PortBlocked Порт VFP заблокирован из-за отсутствия политик виртуальной сети и списка управления доступом The VFP port is blocked, due to lack of VNET / ACL policies Проверьте наличие других ошибок, которые могут привести к тому, что политики не будут настроены. Check if there are any other errors, which might cause the policies to be not configured.
Перегрузка Overloaded МУЛЬТИПЛЕКСОР подсистемы балансировки нагрузки перегружен Loadbalancer MUX is overloaded Проблемы с производительностью МУЛЬТИПЛЕКСОРа Performance issue with MUX
раутепубликатионфаилуре RoutePublicationFailure МУЛЬТИПЛЕКСОР подсистемы балансировки нагрузки не подключен к маршрутизатору BGP Loadbalancer MUX is not connected to a BGP router Проверьте, есть ли у МУЛЬТИПЛЕКСОРа связь с маршрутизаторами BGP и правильно ли настроен пиринг BGP. Check if the MUX has connectivity with the BGP routers and that BGP peering is setup correctly
виртуалсерверунреачабле VirtualServerUnreachable МУЛЬТИПЛЕКСОР подсистемы балансировки нагрузки не подключен к диспетчеру SLB Loadbalancer MUX is not connected to SLB manager Проверка подключения между SLBM и МУЛЬТИПЛЕКСОРом Check connectivity between SLBM and MUX
косконфигуратионфаилуре QosConfigurationFailure Не удалось настроить политики качества обслуживания Failed to configure QOS policies Проверьте, доступна ли достаточная пропускная способность для всех виртуальных машин, если используется резервирование QOS. See if sufficient bandwidth is available for all VM’s if QOS reservation is used

Проверка сетевого подключения между сетевым контроллером и узлом Hyper-V (служба агента узла NC) Check network connectivity between the network controller and Hyper-V Host (NC Host Agent service)

Выполните следующую команду netstat , чтобы проверить наличие трех установленных подключений между агентом узла NC и узлами сетевого контроллера и одним СОКЕТом прослушивания на узле Hyper-V. Run the netstat command below to validate that there are three ESTABLISHED connections between the NC Host Agent and the Network Controller node(s) and one LISTENING socket on the Hyper-V Host

  • ПРОСЛУШИВАНИе порта TCP: 6640 на узле Hyper-V (служба агента узла NC) LISTENING on port TCP:6640 on Hyper-V Host (NC Host Agent Service)
  • Два установленных подключения от IP-адреса узла Hyper-V через порт 6640 к IP-адресу узла NC на временных портах (> 32000) Two established connections from Hyper-V host IP on port 6640 to NC node IP on ephemeral ports (> 32000)
  • Одно установленное подключение с IP-адреса узла Hyper-V на временных портах к IP-адресу сети сетевого контроллера по порту 6640 One established connection from Hyper-V host IP on ephemeral port to Network Controller REST IP on port 6640

На узле Hyper-V может быть только два установленных подключения, если на этом узле не развернуты виртуальные машины клиента. There may only be two established connections on a Hyper-V host if there are no tenant virtual machines deployed on that particular host.

Проверка служб агента узла Check Host Agent services

Сетевой контроллер взаимодействует с двумя службами агента узла на узлах Hyper-V: агент узла SLB и агент узла NC. The network controller communicates with two host agent services on the Hyper-V hosts: SLB Host Agent and NC Host Agent. Возможно, одна или обе службы не работают. It is possible that one or both of these services is not running. Проверьте их состояние и перезапустите, если они не запущены. Check their state and restart if they’re not running.

Проверка работоспособности сетевого контроллера Check health of network controller

Если нет трех установленных подключений или сетевой контроллер не отвечает, убедитесь, что все узлы и модули службы работают и работают с помощью следующих командлетов. If there are not three ESTABLISHED connections or if the Network Controller appears unresponsive, check to see that all nodes and service modules are up and running by using the following cmdlets.

Модули службы сетевого контроллера: The network controller service modules are:

  • контроллерсервице ControllerService
  • аписервице ApiService
  • слбманажерсервице SlbManagerService
  • сервицеинсертион ServiceInsertion
  • фиреваллсервице FirewallService
  • всвитчсервице VSwitchService
  • GatewayManager GatewayManager
  • фнмсервице FnmService
  • хелперсервице HelperService
  • UpdateService UpdateService

Убедитесь, что состояние реплики готово для каждой службы. Check that the Replica Status is Ready for each service.

Проверьте наличие соответствующих Хостидс и сертификатов между сетевым контроллером и каждым узлом Hyper-V. Check for corresponding HostIDs and certificates between network controller and each Hyper-V Host

На узле Hyper-V выполните следующие команды, чтобы проверить, соответствует ли HostID идентификатору экземпляра ресурса сервера на сетевом контроллере. On a Hyper-V Host, run the following commands to check that the HostID corresponds to the Instance Id of a server resource on the Network Controller

Исправление При использовании скриптов Сднекспресс или ручного развертывания Обновите ключ HostId в реестре в соответствии с идентификатором экземпляра ресурса сервера. Remediation If using SDNExpress scripts or manual deployment, update the HostId key in the registry to match the Instance Id of the server resource. Перезапустите агент узла сетевого контроллера на узле Hyper-V (физический сервер), если используется VMM, удалите сервер Hyper-V из VMM и удалите раздел реестра HostId. Restart the Network Controller Host Agent on the Hyper-V host (physical server) If using VMM, delete the Hyper-V Server from VMM and remove the HostId registry key. Затем повторно добавьте сервер с помощью VMM. Then, re-add the server through VMM.

Убедитесь, что отпечатки сертификатов X. 509, используемых узлом Hyper-V (имя узла будет совпадать с именем субъекта сертификата) для (Подсистемамми) связи между узлом Hyper-V (служба агента узла NC) и узлами сетевого контроллера, совпадают. Check that the thumbprints of the X.509 certificates used by the Hyper-V host (the hostname will be the cert’s Subject Name) for (SouthBound) communication between the Hyper-V Host (NC Host Agent service) and Network Controller nodes are the same. Также убедитесь, что в сертификате RESTFUL сетевого контроллера есть имя субъекта CN =. Also check that the Network Controller’s REST certificate has subject name of CN=.

Кроме того, можно проверить следующие параметры каждого сертификата, чтобы убедиться, что имя субъекта является ожидаемым (имя узла или полное доменное имя или IP-адрес для остальных узлов), срок действия сертификата еще не истек и все центры сертификации в цепочке сертификатов включены в доверенный корневой центр сертификации. You can also check the following parameters of each cert to make sure the subject name is what is expected (hostname or NC REST FQDN or IP), the certificate has not yet expired, and that all certificate authorities in the certificate chain are included in the trusted root authority.

  • Имя субъекта Subject Name
  • Срок действия Expiration Date
  • Доверенный корневой центр Trusted by Root Authority

Исправление Если на узле Hyper-V несколько сертификатов имеют одно и то же имя субъекта, агент узла сетевого контроллера будет случайным образом выбрать один из них для сетевого контроллера. Remediation If multiple certificates have the same subject name on the Hyper-V host, the Network Controller Host Agent will randomly choose one to present to the Network Controller. Это может не соответствовать отпечатку ресурса сервера, известного сетевому контроллеру. This may not match the thumbprint of the server resource known to the Network Controller. В этом случае удалите один из сертификатов с тем же именем субъекта на узле Hyper-V, а затем повторно запустите службу агента узла сетевого контроллера. In this case, delete one of the certificates with the same subject name on the Hyper-V host and then re-start the Network Controller Host Agent service. Если подключение по-прежнему не удается выполнить, удалите другой сертификат с тем же именем субъекта на узле Hyper-V и удалите соответствующий ресурс сервера в VMM. If a connection can still not be made, delete the other certificate with the same subject name on the Hyper-V Host and delete the corresponding server resource in VMM. Затем повторно создайте ресурс сервера в VMM, который создаст новый сертификат X. 509 и установит его на узле Hyper-V. Then, re-create the server resource in VMM which will generate a new X.509 certificate and install it on the Hyper-V host.

Проверка состояния конфигурации SLB Check the SLB Configuration State

Состояние конфигурации SLB можно определить как часть выходных данных для командлета Debug-NetworkController. The SLB Configuration State can be determined as part of the output to the Debug-NetworkController cmdlet. Этот командлет также выводит текущий набор ресурсов сетевого контроллера в JSON-файлах, все конфигурации IP из каждой политики узла Hyper-V (сервера) и локальной сети из таблиц базы данных агента узла. This cmdlet will also output the current set of Network Controller resources in JSON files, all IP configurations from each Hyper-V host (server) and local network policy from Host Agent database tables.

По умолчанию будут собираться дополнительные трассировки. Additional traces will be collected by default. Чтобы не выполнять накопление трассировок, добавьте параметр-Инклудетрацес: $false. To not collect traces, add the -IncludeTraces:$false parameter.

Расположением выходных данных по умолчанию будет каталог \Нкдиагностикс. The default output location will be the \NCDiagnostics\ directory. Выходной каталог по умолчанию можно изменить с помощью -OutputDirectory параметра. The default output directory can be changed by using the -OutputDirectory parameter.

Сведения о состоянии конфигурации SLB можно найти в diagnostics-slbstateResults.Js файле в этом каталоге. The SLB Configuration State information can be found in the diagnostics-slbstateResults.Json file in this directory.

Этот файл JSON можно разделить на следующие разделы: This JSON file can be broken down into the following sections:

  • Fabric Fabric
    • Слбмвипс. в этом разделе приводится IP-адрес виртуального сетевого адреса диспетчера SLB, который используется сетевым контроллером для кудинате конфигурации и работоспособности агентов узлов SLB мультиплексоров и SLB. SlbmVips — This section lists the IP address of the SLB Manager VIP address which is used by the Network Controller to coodinate configuration and health between the SLB Muxes and SLB Host Agents.
    • Муксстате — в этом разделе перечислены по одному значению для каждого развернутого мультиплексора SLB, который обеспечивает состояние мультиплексора. MuxState — This section will list one value for each SLB Mux deployed giving the state of the mux
    • Настройка маршрутизатора. в этом разделе перечислены номер автономной системы (ASN) вышестоящего маршрутизатора, IP-адрес транзитного маршрута и идентификатор. Router Configuration — This section will list the Upstream Router’s (BGP Peer) Autonomous System Number (ASN), Transit IP Address, and ID. В нем также будет перечисляться IP-адрес SLB мультиплексоров ASN и транзитный. It will also list the SLB Muxes ASN and Transit IP.
    • Сведения о подключенном узле. в этом разделе перечислены IP-адреса всех узлов Hyper-V, доступных для выполнения рабочих нагрузок с балансировкой нагрузки. Connected Host Info — This section will list the Management IP address all of the Hyper-V hosts available to run load-balanced workloads.
    • Диапазоны виртуальных IP-адресов. в этом разделе перечислены диапазоны пула общедоступных и частных ВИРТУАЛЬНЫХ IP-адресов. Vip Ranges — This section will list the public and private VIP IP pool ranges. Виртуальный IP-адрес SLBM будет добавлен в качестве выделенного в один из этих диапазонов. The SLBM VIP will be included as an allocated IP from one of these ranges.
    • Маршруты мультиплексора. в этом разделе приводится список по одному значению для каждого развернутого мультиплексора SLB, содержащего все объявления маршрутов для этого конкретного мультиплексора. Mux Routes — This section will list one value for each SLB Mux deployed containing all of the Route Advertisements for that particular mux.
  • Клиент Tenant
    • Випконсолидатедстате. в этом разделе перечисляются сведения о состоянии подключения для каждого виртуального IP-адреса клиента, включая объявленный префикс маршрута, узлы и конечные точки DIP. VipConsolidatedState — This section will list the connectivity state for each Tenant VIP including advertised route prefix, Hyper-V Host and DIP endpoints.

Состояние SLB можно проверить непосредственно с помощью скрипта думпслбрестстате , доступного в репозитории GitHub Microsoft Sdn. SLB State can be ascertained directly by using the DumpSlbRestState script available on the Microsoft SDN GitHub repository.

Проверка шлюза Gateway Validation

Из сетевого контроллера: From Network Controller:

Из виртуальной машины шлюза: From Gateway VM:

Переключение с верхней части стойки (ToR): From Top of Rack (ToR) Switch:

sh ip bgp summary (for 3rd party BGP Routers)

Маршрутизатор Windows BGP Windows BGP Router

В дополнение к ним, от проблем, которые мы видели до сих пор (особенно при развертывании на основе Сднекспресс), наиболее распространенной причиной, по которой для секции клиента не настраивается на виртуальных машинах GW, является тот факт, что емкость GW в FabricConfig.psd1 меньше по сравнению с тем, что люди пытаются назначить сетевому подключению (туннели S2S) в TenantConfig.psd1. In addition to these, from the issues we have seen so far (especially on SDNExpress based deployments), the most common reason for Tenant Compartment not getting configured on GW VMs seem to be the fact that the GW Capacity in FabricConfig.psd1 is less compared to what folks try to assign to the Network Connections (S2S Tunnels) in TenantConfig.psd1. Это можно легко проверить, сравнив выходные данные следующих команд: This can be checked easily by comparing outputs of the following commands:

Поставщика услуг размещения Проверка Data-Plane [Hoster] Validate Data-Plane

После развертывания сетевого контроллера были созданы виртуальные сети и подсети клиента, а виртуальные сети подключены к виртуальным подсетям. поставщик услуг размещения может выполнять дополнительные тесты на уровне структуры для проверки возможности подключения клиента. After the Network Controller has been deployed, tenant virtual networks and subnets have been created, and VMs have been attached to the virtual subnets, additional fabric level tests can be performed by the hoster to check tenant connectivity.

Проверка подключения к логической сети поставщика HNV Check HNV Provider Logical Network Connectivity

После подключения первой гостевой виртуальной машины, запущенной на узле Hyper-V к виртуальной сети клиента, сетевой контроллер присвоит узлу Hyper-V два IP-адреса поставщика HNV (IP-адреса PA). After the first guest VM running on a Hyper-V host has been connected to a tenant virtual network, the Network Controller will assign two HNV Provider IP Addresses (PA IP Addresses) to the Hyper-V Host. Эти IP-адреса будут поступать из пула HNVов логической сети поставщика услуг и управляться сетевым контроллером. These IPs will come from the HNV Provider logical network’s IP Pool and be managed by the Network Controller. Чтобы узнать, что такое два IP-адреса HNV To find out what these two HNV IP Addresses are ‘s

Эти IP-адреса поставщика HNV (PA) назначаются адаптерам Ethernet, созданным в отдельном сетевом сегменте TCPIP, и имеют имя адаптера вланкс , где X — это виртуальная ЛС, назначенная логической сети поставщика HNV (Transport). These HNV Provider IP Addresses (PA IPs) are assigned to Ethernet Adapters created in a separate TCPIP network compartment and have an adapter name of VLANX where X is the VLAN assigned to the HNV Provider (transport) logical network.

Связь между двумя узлами Hyper-V, использующими логическую сеть поставщика HNV, может выполняться командой ping с дополнительным параметром секции (-c Y), где Y — это Секция сети TCPIP, в которой создаются Пахоствникс. Connectivity between two Hyper-V hosts using the HNV Provider logical network can be done by a ping with an additional compartment (-c Y) parameter where Y is the TCPIP network compartment in which the PAhostVNICs are created. Эту секцию можно определить, выполнив следующую команду: This compartment can be determined by executing:

Адаптеры узла PA vNIC не используются в пути к данным и поэтому не имеют IP-адреса, назначенного адаптеру «адаптера vethernet (Пахоствник)». The PA Host vNIC Adapters are not used in the data-path and so do not have an IP assigned to the «vEthernet (PAhostVNic) adapter».

Например, предположим, что узлы Hyper-V 1 и 2 имеют IP-адреса HNV Provider (PA): For instance, assume that Hyper-V hosts 1 and 2 have HNV Provider (PA) IP Addresses of:

Узел Hyper-V Hyper-V Host IP-адрес PA 1 PA IP Address 1 IP-адрес PA 2 PA IP Address 2
Узел 1 Host 1 10.10.182.64 10.10.182.64 10.10.182.65 10.10.182.65
Узел 2 Host 2 10.10.182.66 10.10.182.66 10.10.182.67 10.10.182.67

Мы можем проверить связь между двумя с помощью следующей команды для проверки подключения к логической сети поставщика HNV. we can ping between the two using the following command to check HNV Provider logical network connectivity.

Исправление Если проверка связи с поставщиком HNV не работает, проверьте подключение к физической сети, включая конфигурацию виртуальной ЛС. Remediation If HNV Provider ping does not work, check your physical network connectivity including VLAN configuration. Физические сетевые адаптеры на каждом узле Hyper-V должны находиться в режиме магистрали без определенной назначенной виртуальной ЛС. The physical NICs on each Hyper-V host should be in trunk mode with no specific VLAN assigned. Узел управления vNIC должен быть изолирован к виртуальной ЛС логической сети управления. The Management Host vNIC should be isolated to the Management Logical Network’s VLAN.

Проверка поддержки кадров MTU и крупных размеров в логической сети поставщика HNV Check MTU and Jumbo Frame support on HNV Provider Logical Network

Еще одна распространенная проблема в логической сети поставщика HNV заключается в том, что физические сетевые порты и/или плата Ethernet не имеют достаточного размера MTU, настроенного для снижения нагрузки на ВКСЛАН (или NVGRE). Another common problem in the HNV Provider logical network is that the physical network ports and/or Ethernet card do not have a large enough MTU configured to handle the overhead from VXLAN (or NVGRE) encapsulation.

Некоторые карты и драйверы Ethernet поддерживают новое ключевое слово * Енкаповерхеад, которое автоматически устанавливается агентом узла сетевого контроллера в значение 160. Some Ethernet cards and drivers support the new *EncapOverhead keyword which will automatically be set by the Network Controller Host Agent to a value of 160. Затем это значение будет добавлено к значению ключевого слова * Жумбопаккет, сумма которого используется в качестве объявленного MTU. This value will then be added to the value of the *JumboPacket keyword whose summation is used as the advertised MTU. Например, * Енкаповерхеад = 160 и * Жумбопаккет = 1514 => MTU = 1674B e.g. *EncapOverhead = 160 and *JumboPacket = 1514 => MTU = 1674B

Чтобы проверить, поддерживает ли логическая сеть поставщика HNV более полный размер MTU, используйте командлет Test-логикалнетворксуппортсжумбопаккет : To test whether or not the HNV Provider logical network supports the larger MTU size end-to-end, use the Test-LogicalNetworkSupportsJumboPacket cmdlet:

  • Измените размер MTU на портах физического коммутатора как минимум 1674B (включая заголовок и трейлер Ethernet 14B). Adjust the MTU size on the physical switch ports to be at least 1674B (including 14B Ethernet header and trailer)
  • Если плата NIC не поддерживает ключевое слово Енкаповерхеад, измените ключевое слово Жумбопаккет, чтобы оно было как минимум 1674B If your NIC card does not support the EncapOverhead keyword, adjust the JumboPacket keyword to be at least 1674B

Проверка подключения сетевого адаптера виртуальной машины клиента Check Tenant VM NIC connectivity

Каждая сетевая карта виртуальных машин, назначенная гостевой виртуальной машине, имеет сопоставление CA-PA между частным адресом клиента (CA) и пространством поставщика HNV (PA). Each VM NIC assigned to a guest VM has a CA-PA mapping between the private Customer Address (CA) and the HNV Provider Address (PA) space. Эти сопоставления хранятся в таблицах сервера ОВСДБ на каждом узле Hyper-V, и их можно найти, выполнив следующий командлет. These mappings are kept in the OVSDB server tables on each Hyper-V host and can be found by executing the following cmdlet.

Если для указанной виртуальной машины клиента не выводятся сопоставления CA-PA, проверьте ресурсы сетевого адаптера виртуальной машины и конфигурации IP-адресов на сетевом контроллере с помощью командлета Get-нетворкконтроллернетворкинтерфаце . If the CA-PA mappings you expect are not output for a given tenant VM, please check the VM NIC and IP Configuration resources on the Network Controller using the Get-NetworkControllerNetworkInterface cmdlet. Кроме того, проверьте наличие установленных соединений между агентом узла NC и узлами сетевого контроллера. Also, check the established connections between the NC Host Agent and Network Controller nodes.

Используя эти сведения, поставщик услуг размещения может инициировать проверку связи для виртуальной машины клиента с помощью командлета Test-виртуалнетворкконнектион . With this information, a tenant VM ping can now be initiated by the Hoster from the Network Controller using the Test-VirtualNetworkConnection cmdlet.

Конкретные сценарии устранения неполадок Specific Troubleshooting Scenarios

В следующих разделах приводятся рекомендации по устранению неполадок в конкретных сценариях. The following sections provide guidance for troubleshooting specific scenarios.

Отсутствует сетевое подключение между двумя виртуальными машинами клиента No network connectivity between two tenant virtual machines

  1. Клиентом Убедитесь, что брандмауэр Windows на виртуальных машинах клиента не блокирует трафик. [Tenant] Ensure Windows Firewall in tenant virtual machines is not blocking traffic.
  2. Клиентом Убедитесь, что IP-адреса назначены виртуальной машине клиента, выполнив команду ipconfig. [Tenant] Check that IP addresses have been assigned to the tenant virtual machine by running ipconfig.
  3. Поставщика услуг размещения Выполните команду Test-виртуалнетворкконнектион с узла Hyper-V, чтобы проверить подключение между двумя виртуальными машинами клиента. [Hoster] Run Test-VirtualNetworkConnection from the Hyper-V host to validate connectivity between the two tenant virtual machines in question.

VSID ссылается на идентификатор виртуальной подсети. The VSID refers to the Virtual Subnet ID. В случае с ВКСЛАН это идентификатор ВКСЛАН Network (вни). In the case of VXLAN, this is the VXLAN Network Identifier (VNI). Это значение можно найти, выполнив командлет Get-пакамаппинг . You can find this value by running the Get-PACAMapping cmdlet.

Пример Example

Создайте CA-ping между «зеленой веб-виртуальной машиной 1» и Сендерка IP-адресом 192.168.1.4 на узле «sa18n30-2.sa18.nttest.microsoft.com» с IP-адресом 10.127.132.153 на Листенерка IP-адрес 192.168.1.5, подключенных к виртуальной подсети (VSID) 4114. Create CA-ping between «Green Web VM 1» with SenderCA IP of 192.168.1.4 on Host «sa18n30-2.sa18.nttest.microsoft.com» with Mgmt IP of 10.127.132.153 to ListenerCA IP of 192.168.1.5 both attached to Virtual Subnet (VSID) 4114.

  1. Клиентом Убедитесь, что на виртуальных подсетях или сетевых интерфейсах ВИРТУАЛЬНОЙ сети не указаны распределенные политики брандмауэра, которые блокируют трафик. [Tenant] Check that there is no distributed firewall policies specified on the virtual subnet or VM network interfaces which would block traffic.

Запросите REST API сетевого контроллера, который находится в демонстрационной среде по адресу sa18n30nc в домене sa18.nttest.microsoft.com. Query the Network Controller REST API found in demo environment at sa18n30nc in the sa18.nttest.microsoft.com domain.

Просмотреть IP-конфигурацию и виртуальные подсети, ссылающиеся на этот ACL Look at IP Configuration and Virtual Subnets which are referencing this ACL

  1. Поставщика услуг размещения Запустите Get-ProviderAddress на обоих узлах Hyper-v, где размещены две виртуальные машины клиента, а затем запустите Test-LogicalNetworkConnection или ping -c с узла Hyper-v, чтобы проверить подключение в ЛОГИЧЕСКОЙ сети поставщика HNV. [Hoster] Run Get-ProviderAddress on both Hyper-V hosts hosting the two tenant virtual machines in question and then run Test-LogicalNetworkConnection or ping -c from the Hyper-V host to validate connectivity on the HNV Provider logical network
  2. Поставщика услуг размещения Убедитесь, что на узлах Hyper-V установлены правильные параметры MTU и все устройства, переключающие между узлами Hyper-V. [Hoster] Ensure that the MTU settings are correct on the Hyper-V hosts and any Layer-2 switching devices in between the Hyper-V Hosts. Запустите Test-EncapOverheadValue на всех узлах Hyper-V, которые находятся в вопросе. Run Test-EncapOverheadValue on all Hyper-V hosts in question. Кроме того, убедитесь, что для всех переключений уровня 2 между параметром MTU задано значение не менее 1674 байт, чтобы учитывать максимальную нагрузку на 160 байт. Also check that all Layer-2 switches in between have MTU set to least 1674 bytes to account for maximum overhead of 160 bytes.
  3. Поставщика услуг размещения Если IP-адреса PA отсутствуют и (или) подключение к центру сертификации разорвано, убедитесь, что политика сети получена. [Hoster] If PA IP Addresses are not present and/or CA Connectivity is broken, check to ensure network policy has been received. Выполните команду Get-PACAMapping , чтобы узнать, правильно ли установлены правила инкапсуляции и СОПОСТАВЛЕНИЯ CA-PA, необходимые для создания виртуальных сетей оверлея. Run Get-PACAMapping to see if the encapsulation rules and CA-PA mappings required for creating overlay virtual networks are correctly established.
  4. Поставщика услуг размещения Убедитесь, что агент узла сетевого контроллера подключен к сетевому контроллеру. [Hoster] Check that the Network Controller Host Agent is connected to the Network Controller. Выполните команду, netstat -anp tcp |findstr 6640 чтобы проверить, Run netstat -anp tcp |findstr 6640 to see if the
  5. Поставщика услуг размещения Убедитесь, что идентификатор узла в HKLM/соответствует ИДЕНТИФИКАТОРу экземпляра ресурсов сервера, на которых размещаются виртуальные машины клиента. [Hoster] Check that the Host ID in HKLM/ matches the Instance ID of the server resources hosting the tenant virtual machines.
  6. Поставщика услуг размещения Убедитесь, что идентификатор профиля порта соответствует ИДЕНТИФИКАТОРу экземпляра сетевых интерфейсов виртуальных машин клиента. [Hoster] Check that the Port Profile ID matches the Instance ID of the VM Network Interfaces of the tenant virtual machines.

Ведение журналов, трассировка и Расширенная диагностика Logging, Tracing and advanced diagnostics

В следующих разделах приведены сведения о расширенной диагностике, ведении журнала и трассировке. The following sections provide information on advanced diagnostics, logging, and tracing.

Централизованное ведение журналов сетевого контроллера Network controller centralized logging

Сетевой контроллер может автоматически получать журналы отладчика и хранить их в централизованном расположении. The Network Controller can automatically collect debugger logs and store them in a centralized location. Сбор журналов можно включить при первом развертывании сетевого контроллера или в любое другое время. Log collection can be enabled when you deploy the Network Controller for the first time or any time later. Журналы собираются из сетевого контроллера, а сетевые элементы управляются сетевым контроллером: компьютерами размещения, подсистемами балансировки нагрузки программного обеспечения (SLB) и шлюзами. The logs are collected from the Network Controller, and network elements managed by Network Controller: host machines, software load balancers (SLB) and gateway machines.

Эти журналы содержат журналы отладки для кластера сетевого контроллера, приложения сетевого контроллера, журналов шлюзов, SLB, виртуальных сетей и распределенного брандмауэра. These logs include debug logs for the Network Controller cluster, the Network Controller application, gateway logs, SLB, virtual networking and the distributed firewall. При добавлении нового узла, SLB или шлюза в сетевой контроллер на этих компьютерах запускается ведение журнала. Whenever a new host/SLB/gateway is added to the Network Controller, logging is started on those machines. Аналогично, при удалении узла, SLB или шлюза из сетевого контроллера, ведение журнала на этих компьютерах останавливается. Similarly, when a host/SLB/gateway is removed from the Network Controller, logging is stopped on those machines.

Включение ведения журналов Enable logging

Ведение журнала включается автоматически при установке кластера сетевого контроллера с помощью командлета Install-нетворкконтроллерклустер . Logging is automatically enabled when you install the Network Controller cluster using the Install-NetworkControllerCluster cmdlet. По умолчанию журналы собираются локально на узлах сетевого контроллера по адресу %системдриве%\сдндиагностикс. By default, the logs are collected locally on the Network Controller nodes at %systemdrive%\SDNDiagnostics. Настоятельно рекомендуется изменить это расположение на удаленную общую папку (не локальную). It is STRONGLY RECOMMENDED that you change this location to be a remote file share (not local).

Журналы кластера сетевого контроллера хранятся на сайте %Програмдата%\виндовс фабрик\лог\трацес. The Network Controller cluster logs are stored at %programData%\Windows Fabric\log\Traces. Можно указать централизованное расположение для сбора журналов с помощью параметра диагностиклоглокатион с рекомендацией, что это также удаленная общая папка. You can specify a centralized location for log collection with the DiagnosticLogLocation parameter with the recommendation that this is also be a remote file share.

Если вы хотите ограничить доступ к этому расположению, можно указать учетные данные доступа с помощью параметра логлокатионкредентиал . If you want to restrict access to this location, you can provide the access credentials with the LogLocationCredential parameter. При предоставлении учетных данных для доступа к расположению журнала необходимо также указать параметр кредентиаленкриптионцертификате , который используется для шифрования учетных данных, хранимых локально на узлах сетевого контроллера. If you provide the credentials to access the log location, you should also provide the CredentialEncryptionCertificate parameter, which is used to encrypt the credentials stored locally on the Network Controller nodes.

При использовании параметров по умолчанию рекомендуется иметь не менее 75 ГБ свободного места в центральном расположении и 25 ГБ на локальных узлах (если не используется центральное расположение) для кластера сетевого контроллера с тремя узлами. With the default settings, it is recommended that you have at least 75 GB of free space in the central location, and 25 GB on the local nodes (if not using a central location) for a 3-node Network Controller cluster.

Изменение параметров ведения журнала Change logging settings

Параметры ведения журнала можно изменить в любое время с помощью Set-NetworkControllerDiagnostic командлета. You can change logging settings at any time using the Set-NetworkControllerDiagnostic cmdlet. Можно изменить следующие параметры: The following settings can be changed:

  • Расположение централизованного журнала. Centralized log location. Можно изменить расположение для хранения всех журналов с помощью DiagnosticLogLocation параметра. You can change the location to store all the logs, with the DiagnosticLogLocation parameter.
  • Учетные данные для доступа к расположению журнала. Credentials to access log location. Вы можете изменить учетные данные для доступа к расположению журнала с LogLocationCredential параметром. You can change the credentials to access the log location, with the LogLocationCredential parameter.
  • Переместить в локальное ведение журнала. Move to local logging. Если вы указали централизованное расположение для хранения журналов, можно вернуться к локальному журналу на узлах сетевого контроллера с UseLocalLogLocation параметром (не рекомендуется из-за большого объема дискового пространства). If you have provided centralized location to store logs, you can move back to logging locally on the Network Controller nodes with the UseLocalLogLocation parameter (not recommended due to large disk space requirements).
  • Область ведения журнала. Logging scope. По умолчанию собираются все журналы. By default, all logs are collected. Можно изменить область, чтобы она составила только журналы кластера сетевого контроллера. You can change the scope to collect only Network Controller cluster logs.
  • Уровень ведения журнала. Logging level. Уровень ведения журнала по умолчанию — информационный. The default logging level is Informational. Его можно изменить на Error, warning или verbose. You can change it to Error, Warning, or Verbose.
  • Время устаревания журнала. Log Aging time. Журналы хранятся циклически. The logs are stored in a circular fashion. По умолчанию данные будут регистрироваться в течение 3 дней независимо от того, используется ли локальное ведение журнала или централизованное ведение журнала. You will have 3 days of logging data by default, whether you use local logging or centralized logging. Это ограничение времени можно изменить с помощью параметра логтимелимитиндайс . You can change this time limit with LogTimeLimitInDays parameter.
  • Размер старения журнала. Log Aging size. По умолчанию вы получите максимум 75 ГБ данных для ведения журнала при использовании централизованного ведения журнала и 25 ГБ при использовании локального ведения журнала. By default, you will have a maximum 75 GB of logging data if using centralized logging and 25 GB if using local logging. Это ограничение можно изменить с помощью параметра логсизелимитинмбс . You can change this limit with the LogSizeLimitInMBs parameter.

Сбор журналов и трассировок Collecting Logs and Traces

По умолчанию развертывания VMM используют централизованное ведение журналов для сетевого контроллера. VMM deployments use centralized logging for the Network Controller by default. Расположение общих файловых ресурсов для этих журналов указывается при развертывании шаблона службы сетевого контроллера. The file share location for these logs is specified when deploying the Network Controller service template.

Если расположение файла не указано, на каждом узле сетевого контроллера будет использоваться локальное ведение журнала с журналами, сохраненными в К:\виндовс\траЦинг\сдндиагностикс. If a file location has not been specified, local logging will be used on each Network Controller node with logs saved under C:\Windows\tracing\SDNDiagnostics. Эти журналы сохраняются с помощью следующей иерархии: These logs are saved using the following hierarchy:

  • CrashDumps CrashDumps
  • нкаппликатионкрашдумпс NCApplicationCrashDumps
  • нкаппликатионлогс NCApplicationLogs
  • PerfCounters PerfCounters
  • сдндиагностикс SDNDiagnostics
  • Трассировки Traces

Сетевой контроллер использует Service Fabric (Azure). The Network Controller uses (Azure) Service Fabric. При устранении определенных проблем могут потребоваться Service Fabric журналы. Service Fabric logs may be required when troubleshooting certain issues. Эти журналы можно найти на каждом узле сетевого контроллера в К:\програмдата\микрософт\сервице Fabric. These logs can be found on each Network Controller node at C:\ProgramData\Microsoft\Service Fabric.

Если пользователь выполнил командлет Debug-нетворкконтроллер , дополнительные журналы будут доступны на каждом узле Hyper-V, который был указан с помощью ресурса сервера в сетевом контроллере. If a user has run the Debug-NetworkController cmdlet, additional logs will be available on each Hyper-V host which has been specified with a server resource in the Network Controller. Эти журналы (и трассировки, если они включены) хранятся в разделе К:\нкдиагностикс These logs (and traces if enabled) are kept under C:\NCDiagnostics

Диагностика SLB SLB Diagnostics

Ошибки фабрики SLBM (действия поставщика услуг размещения) SLBM Fabric errors (Hosting service provider actions)

  1. Убедитесь, что диспетчер программного обеспечения Load Balancer Manager (SLBM) работает и что уровни оркестрации могут взаимодействовать друг с другом: агентами SLB на основе SLBM-> и SLBM-> узлов SLB. Check that Software Load Balancer Manager (SLBM) is functioning and that the orchestration layers can talk to each other: SLBM -> SLB Mux and SLBM -> SLB Host Agents. Запустите думпслбрестстате из любого узла с доступом к КОНЕЧНОЙ точке RESTful сетевого контроллера. Run DumpSlbRestState from any node with access to Network Controller REST Endpoint.
  2. Проверьте сднслбмперфкаунтерс в PerfMon на одной из виртуальных машин узла сетевого контроллера (предпочтительный узел основного сетевого контроллера — Get-нетворкконтроллерреплика): Validate the SDNSLBMPerfCounters in PerfMon on one of the Network Controller node VMs (preferably the primary Network Controller node — Get-NetworkControllerReplica):
    1. Подсистема обработки Load Balancer (фунтов) подключена к SLBM? Is Load Balancer (LB) engine connected to SLBM? (Количество конфигураций SLBM лбенгине: Total > 0) (SLBM LBEngine Configurations Total > 0)
    2. По крайней мере знает о своих собственных конечных точках SLBM? Does SLBM at least know about its own endpoints? (Всего конечных точек виртуального IP-адреса >= 2) (VIP Endpoints Total >= 2 )
    3. Подключены ли узлы Hyper-V (DIP) к SLBM? Are Hyper-V (DIP) hosts connected to SLBM? (HP клиенты подключены = = число серверов) (HP clients connected == num servers)
    4. Подключен ли SLBM к мультиплексоров? Is SLBM connected to Muxes? (Мультиплексоров подключено == Мультиплексоров Исправен в SLBM == Мультиплексоров Reporting «Исправен » = # SLB мультиплексоров VMS. (Muxes Connected == Muxes Healthy on SLBM == Muxes reporting healthy = # SLB Muxes VMs).
  3. Убедитесь, что настроенный маршрутизатор BGP успешно пиринг с МУЛЬТИПЛЕКСОРом SLB Ensure the BGP router configured is successfully peering with the SLB MUX
    1. При использовании RRAS с удаленным доступом (т. е. виртуальной машины BGP): If using RRAS with Remote Access (i.e. BGP virtual machine):
      1. Get-BgpPeer должны показывать подключенные Get-BgpPeer should show connected
      2. Get-BgpRouteInformation должен отображать по крайней мере маршрут для самовиртуального IP-адреса SLBM Get-BgpRouteInformation should show at least a route for the SLBM self VIP
    2. Если используется физический коммутатор верхнего уровня (ToR) в качестве узла BGP, обратитесь к документации. If using physical Top-of-Rack (ToR) switch as BGP Peer, consult your documentation
      1. Например: # показывать экземпляр BGP For example: # show bgp instance
  4. Проверка счетчиков слбмуксперфкаунтерс и SLBMUX в PerfMon на ВИРТУАЛЬНОЙ машине мультиплексора SLB Validate the SlbMuxPerfCounters and SLBMUX counters in PerfMon on the SLB Mux VM
  5. Проверка состояния конфигурации и диапазонов виртуальных IP-адресов в ресурсе программного Load Balancer Manager Check configuration state and VIP ranges in Software Load Balancer Manager Resource
    1. Get-NetworkControllerLoadBalancerConfiguration-ConnectionUri Get-NetworkControllerLoadBalancerConfiguration -ConnectionUri
      1. Get-NetworkControllerIpPool-NetworkId » «-SubnetId » «-ResourceId » «-ConnectionUri $URI | ConvertTo-JSON-Depth 8 Get-NetworkControllerIpPool -NetworkId »

        » -ResourceId «» -ConnectionUri $uri |convertto-json -depth 8

    2. Debug-NetworkControllerConfigurationState — Debug-NetworkControllerConfigurationState —

Если какая-либо из перечисленных выше проверок завершается ошибкой, состояние SLB клиента также будет в режиме сбоя. If any of the checks above fail, the tenant SLB state will also be in a failure mode.

Исправление На основе приведенных ниже диагностических сведений исправьте следующее. Remediation Based on the following diagnostic information presented, fix the following:

  • Убедитесь, что мультиплексоры SLB подключены Ensure SLB Multiplexers are connected
    • Устранение проблем с сертификатами Fix certificate issues
    • Исправление сетевых неполадок Fix network connectivity issues
  • Убедитесь, что сведения об пиринга BGP успешно настроены Ensure BGP peering information is successfully configured
  • Убедитесь, что идентификатор узла в реестре совпадает с ИДЕНТИФИКАТОРом экземпляра сервера в ресурсе сервера (в справочном приложении для кода ошибки хостнотконнектед ) Ensure Host ID in the registry matches Server Instance ID in Server Resource (reference Appendix for HostNotConnected error code)
  • Сбор журналов Collect logs

Ошибки клиента SLBM (действия поставщика услуг хостинга и клиента) SLBM Tenant errors (Hosting service provider and tenant actions)

  1. Поставщика услуг размещения Проверьте отладку-нетворкконтроллерконфигуратионстате , чтобы узнать, находятся ли какие-либо ресурсы подсистемы балансировки в состоянии ошибки. [Hoster] Check Debug-NetworkControllerConfigurationState to see if any LoadBalancer resources are in an error state. Попробуйте устранить проблемы, выполнив таблицу действий в приложении. Try to mitigate by following the Action items Table in the Appendix.
    1. Проверка наличия конечной точки виртуального IP-адреса и объявлений Check that a VIP endpoint is present and advertising routes
    2. Проверьте количество обнаруженных конечных точек DIP для конечной точки виртуального IP-адреса. Check how many DIP endpoints have been discovered for the VIP endpoint
  2. Клиентом Правильно указаны ресурсы Load Balancer проверки [Tenant] Validate Load Balancer Resources are correctly specified
    1. Проверка конечных точек DIP, зарегистрированных в SLBM, на размещение виртуальных машин клиентов, соответствующих IP-конфигурациям пула адресов серверной части подсистемы балансировки нагрузки Validate DIP endpoints which are registered in SLBM are hosting tenant virtual machines which correspond to the LoadBalancer Back-end Address pool IP configurations
  3. Поставщика услуг размещения Если DIP конечных точек не обнаруживаются или не подключены: [Hoster] If DIP endpoints are not discovered or connected:
    1. Проверьте Debug-нетворкконтроллерконфигуратионстате Check Debug-NetworkControllerConfigurationState
      1. Убедитесь, что агент NC и узел SLB успешно подключены к координатору событий сетевого контроллера с помощью netstat -anp tcp |findstr 6640) Validate that NC and SLB Host Agent is successfully connected to the Network Controller Event Coordinator using netstat -anp tcp |findstr 6640)
    2. Проверьте HostID в разделе реестра nchostagent Service RegKey (ссылка на код ошибки Хостнотконнектед в приложении) соответствует идентификатору экземпляра соответствующего ресурса сервера ( Get-NCServer |convertto-json -depth 8 ). Check HostId in nchostagent service regkey (reference HostNotConnected error code in the Appendix) matches the corresponding server resource’s instance Id ( Get-NCServer |convertto-json -depth 8 )
    3. Проверьте идентификатор профиля порта для порта виртуальной машины, соответствующий идентификатору экземпляра ресурса сетевого адаптера виртуальной машины Check port profile id for virtual machine port matches corresponding virtual machine NIC resource’s Instance Id
  4. [Поставщик услуг размещения] Получение журналов [Hosting provider] Collect logs

Трассировка мультиплексора SLB SLB Mux Tracing

Сведения из программного Load Balancer мультиплексоров также можно определить с помощью Просмотр событий. Information from the Software Load Balancer Muxes can also be determined through Event Viewer.

  1. В меню «вид Просмотр событий» щелкните «Показать журналы аналитики и отладки». Click on «Show Analytic and Debug Logs» under the Event Viewer View menu
  2. Перейдите к разделу «Журналы приложений и служб» > Microsoft > Windows > Слбмуксдривер > трассировка в Просмотр событий Navigate to «Applications and Services Logs» > Microsoft > Windows > SlbMuxDriver > Trace in Event Viewer
  3. Щелкните его правой кнопкой мыши и выберите пункт «включить журнал». Right click on it and select «Enable Log»

Рекомендуется включить это ведение журнала в течение короткого периода времени, пока вы пытаетесь воспроизвести проблему. It is recommended that you only have this logging enabled for a short time while you are trying to reproduce a problem

Трассировка VFP и vSwitch VFP and vSwitch Tracing

На любом узле Hyper-V, на котором размещена гостевая виртуальная машина, подключенная к виртуальной сети клиента, можно собрать трассировку VFP, чтобы определить, где могут находиться проблемы. From any Hyper-V host which is hosting a guest VM attached to a tenant virtual network, you can collected a VFP trace to determine where problems might lie.

Читайте также:  Компонент windows защищенный узел
Оцените статью