La NVIDIA DGX H100, lanzada en 2022, está equipada con 8 tarjetas de red ConnectX-7 de un solo puerto, que admiten un ancho de banda NDR de 400 Gb/s, y 2 DPU Bluefield-3 de doble puerto (200 Gb/s) que pueden admitir redes IB/Ethernet. . La apariencia se muestra en la siguiente figura.
El DGX H100 cuenta con 4 puertos QSFP56 para red de almacenamiento y red de gestión In-Band; Además, hay un puerto Ethernet 10G para la administración remota del sistema operativo del host y un puerto Ethernet 1G para la administración remota del sistema.
En la figura de la topología de la red interna del servidor, hay 4 puertos OSFP para la conexión de la red informática (los morados), y los bloques azules son tarjetas de red, que pueden actuar como tarjetas de red y también desempeñar el papel de expansión del conmutador PCIe. , convirtiéndose en el puente entre CPU y GPU.
Si se adopta el esquema de interconexión del clúster NVIDIA SuperPOD NVLink, 32 H100 se interconectarán a través de conmutadores NVLink externos. Las 8 GPU dentro del servidor están conectadas a 4 módulos NVSwitch, cada módulo NVSwitch corresponde a 4-5 módulos ópticos OSFP, un total de 18 OSFP, y luego los OSFP se conectan a 18 conmutadores NVLink externos. (Actualmente, los H100 en el mercado no tienen estos 18 módulos OSFP) Este artículo no analiza el método de red NVLink, pero se centra en el método de red IB. Según el documento de diseño de referencia de NVIDIA: en el clúster de servidores DGX H100, cada 32 DGX H100 forman una SU y cada 4 DGX H100 se colocan en un bastidor separado (se estima que la potencia de cada bastidor es cercana a los 40 KW). y se colocan varios interruptores en dos racks independientes. Por lo tanto, cada SU contiene 10 racks (8 para colocar servidores y 2 para colocar conmutadores). La red informática solo necesita utilizar conmutadores de dos capas Spine-Leaf (Mellanox QM9700), la topología de la red se muestra en la siguiente figura.
Uso del conmutador: en el clúster, cada 32 DGX H100 forma una SU (hay 8 conmutadores Leaf en cada SU) y hay 4 SU en el clúster de servidores 128 H100, por lo que hay un total de 32 conmutadores Leaf. Cada DGX H100 en la SU debe tener una conexión con los 8 interruptores Leaf. Dado que cada servidor solo tiene 4 puertos OSFP para la conexión de la red informática, después de conectar módulos ópticos de 800G a cada puerto, un puerto OSFP se expande a dos puertos QSFP a través del puerto de expansión, logrando la conexión de cada DGX H100 con 8 conmutadores Leaf. Cada conmutador Leaf tiene 16 puertos de enlace ascendente que se conectan a 16 conmutadores Spine.
Uso del módulo óptico: se requieren módulos ópticos de 400G para los puertos de enlace descendente del conmutador Leaf y la demanda es 3284. Se utilizan módulos ópticos de 800G para los puertos de enlace ascendente del conmutador Leaf y la demanda es 1684. Se utilizan módulos ópticos de 800G para los puertos de enlace descendente del conmutador Spine. Por lo tanto, en el clúster de servidores 128 H800, la red informática utilizada Módulos ópticos 800G Módulos ópticos 1536 y 400G 1024.
Productos relacionados:
- NVIDIA MMA4Z00-NS400 Compatible 400G OSFP SR4 Flat Top PAM4 850nm 30m en OM3/50m en OM4 MTP/MPO-12 Módulo transceptor óptico FEC multimodo $900.00
- NVIDIA MMA4Z00-NS-FLT Compatible 800 Gb/s Twin-port OSFP 2x400G SR8 PAM4 850nm 100m DOM Dual MPO-12 MMF Módulo transceptor óptico $1200.00
- NVIDIA MMA4Z00-NS Compatible 800 Gb/s Twin-port OSFP 2x400G SR8 PAM4 850nm 100m DOM Dual MPO-12 MMF Módulo transceptor óptico $1200.00
- NVIDIA MMS4X00-NM Compatible 800 Gb/s Puerto doble OSFP 2x400G PAM4 1310nm 500m DOM Dual MTP/MPO-12 Módulo transceptor óptico SMF $1550.00
- NVIDIA MMS4X00-NM-FLT Compatible 800G Twin-port OSFP 2x400G Flat Top PAM4 1310nm 500m DOM Dual MTP/MPO-12 SMF Módulo transceptor óptico $1550.00
- NVIDIA MMS4X00-NS400 Compatible 400G OSFP DR4 Flat Top PAM4 1310nm MTP/MPO-12 500m SMF FEC Módulo transceptor óptico $1350.00
- Mellanox MMA1T00-HS Compatible 200G Infiniband HDR QSFP56 SR4 850nm 100m MPO-12 APC OM3/OM4 FEC PAM4 módulo transceptor óptico $300.00
- Compatible con NVIDIA MFP7E10-N010 10 m (33 pies) 8 fibras Baja pérdida de inserción Hembra a hembra Cable troncal MPO Polaridad B APC a APC LSZH multimodo OM3 50/125 $47.00
- NVIDIA MCP7Y00-N003-FLT Compatible 3 m (10 pies) 800G OSFP de doble puerto a 2x400G OSFP de parte superior plana InfiniBand NDR Breakout DAC $495.00
- Cable de cobre de conexión directa, 7m (70 pies), 002G, doble puerto, 2x7G OSFP a 400x2G QSFP200, Compatible con NVIDIA MCP4Y100-H56 $250.00
- Cable de cobre activo InfiniBand NDR de 4 m (80 pies) compatible con NVIDIA MCA003J3-N10-FTF de doble puerto 800x2G OSFP a 400x2G OSFP, parte superior plana en un extremo y parte superior con aletas en el otro $600.00
- NVIDIA MCP7Y10-N002 Compatible con 2m (7 pies) 800G InfiniBand NDR OSFP de doble puerto a DAC de ruptura 2x400G QSFP112 $680.00