前言
最近閱讀 Best Practices - Physical Networking | Nutanix文件,整理出個人想要的重點,詳細資訊請參考該文件內容。
Maximum of Three Switch Hops
在同一個 Nutanix Cluster 環境中,Nutanix Node 之間,最好不要超過「3 個」Switch Hops,通常採用 Leaf-Spine架構便能滿足此需求。
- 另一個規劃重點是「Same Switch Fabric」,簡單來說,Nutanix Node 之間最好處於「Layer 2」網路環境,並且在同一個網段。
- 倘若有跨 WAN 需求時,應該建多個 Nutanix Cluster,然後用 DR Replication 來處理。
圖、Leaf-Spine 示意圖
圖、Scaling the Leaf-Spine 示意圖
圖、Core-Aggregation-Access 示意圖
圖、Scaling the Core-Aggregation-Access 示意圖
如果有跨 Site 的需求時,不要只建一個 Nutanix Cluster 然後跨越二個 Site,而是應該建立多個 Nutanix Cluster,然後搭配 Asynchronous Disaster Recovery / NearSync / Metro Availability 機制去處理才對。
圖、Multisite Network Design Using Replication
VLANs 規劃
- CVM 和 AHV Hypervisor 的 VLAN,應該和 VMs 虛擬主機的 VLAN 分開。
- Nutanix Node 之間,使用 IPv6 Neighbor Discovery Protocol 和 IPv6 UDP Broadcast溝通。
- 建議停用Multicast和 Broadcast Flood Optimizations。
- 建議停用Proxy Address Resolution Protocol (ARP)。
Remote Direct Memory Access (RDMA)
預設情況下,Nutanix Node 之間的 Storage Replication 網路流量是走標準的 TCP/IP。倘若,需要 High-Performance 和 Low-Latency 時,Nutanix 支援採用 RDMA技術繞過 TCP/IP Stack,採用的是 RDMA over Converged Ethernet (RoCE)技術。當然,如果 RDMA 失敗時,會退回採用 TCP/IP。
- 目前的 RDMA 不支援 NIC High Availability 機制。
- 不支援使用「第二個」RDMA Port。
- 採用 NVIDIA Mellanox ConnectX-4 Ethernet Adapter (CX-4) 時,記得 Physical Switch 要開啟 Data Center Bridging (DCB)或 Priority-based Flow Control (PFC),而 PFC 數值通常是「3」。
- 在 AOS 6.6 版本之前,只能在 Foundation VM 部署期間,使用 RDMA Port Passthrough 去設定。在 AOS 6.6 之後的版本,可以部署叢集後再組態設定 RDMA
- 在 AOS 6.7 之後的版本,支援 Zero-Touch RDMA over Converged Ethernet (ZTR)就不需要 Physical Switch 設定 DCB/PFC 了,但記得必須是 NVIDIA Mellanox ConnectX-5 Ethernet Adapter (CX-5) 或 NVIDIA Mellanox ConnectX-6 Ethernet Adapter (CX-6) 才支援 ZTR。
- 不支援混用,例如,CX-4/CX-5,或 CX-5 搭 25Gb 網卡,混用的話 Nutanix Cluster 就不允許啟動 RDMA。