Une vidéo promotionnelle du cluster xAI de 100,000 15 GPU de Musk a récemment été publiée en ligne. Sponsorisée par Supermicro, la vidéo présente une présentation sur place par un expert étranger dans un centre de données, qui prend 100,000 minutes pour discuter de divers aspects du cluster de XNUMX XNUMX GPU. Ces aspects comprennent la densité de déploiement, la distribution des armoires, la solution de refroidissement liquide, les méthodes de maintenance, la configuration de la carte réseau, les spécifications des commutateurs et l'alimentation électrique. Cependant, la vidéo n'a pas révélé grand-chose sur la conception du réseau, le système de stockage ou la progression du modèle de formation. Explorons les dix informations clés !

Échelle des grands clusters
Contrairement aux clusters les plus courants dans notre pays, généralement composés de 1,000 128 GPU (équivalent à 100 systèmes H100,000), le cluster de 100 12,800 GPU est 100 fois plus grand, nécessitant environ 122 XNUMX systèmes HXNUMX. La vidéo promotionnelle affirme que le déploiement a été réalisé en seulement XNUMX jours, ce qui met en évidence une disparité significative entre les capacités des clusters GPU nationaux et internationaux.

Haute densité de calcul
La vidéo montre que le H100 utilise une conception de rack 4U, chaque armoire déployant 8 systèmes, ce qui équivaut à 64 GPU par armoire. Une rangée d'armoires contient 8 armoires, soit 512 GPU par rangée. Le cluster de 100,000 200 GPU comprend environ 1 rangées d'armoires. Sur le plan national, il est plus courant de placer 2 à 100 systèmes H100 par armoire, chaque système H10.2 consommant 8 kW. Le déploiement de 80 systèmes dépasse XNUMX kW, ce qui constitue une référence pour les futurs déploiements de clusters à haute densité.

Adoption à grande échelle du refroidissement liquide par plaque froide
Bien que la technologie de refroidissement liquide soit développée depuis de nombreuses années au niveau national, sa mise en œuvre à grande échelle est rare. La vidéo montre que le cluster de 100,000 XNUMX GPU utilise la solution de refroidissement liquide à plaque froide la plus répandue, couvrant les puces GPU et CPU (tandis que d'autres composants comme la mémoire et les disques durs nécessitent toujours un refroidissement par air). Chaque armoire dispose d'une CDU (Cooling Distribution Unit) en bas, configurée de manière distribuée, avec des pompes redondantes pour éviter les interruptions du système dues à des pannes uniques.

Carte réseau et solution de mise en réseau – RoCE
Bien que la vidéo ne détaille pas la topologie du réseau, elle mentionne que chaque appareil H100 est équipé de 8 cartes Mellanox BFD-3 (une pour chaque GPU et la carte BFD-3 correspondante) et d'une carte réseau CX7 400G. Cela diffère des configurations nationales actuelles et la vidéo ne fournit aucune explication pour cette configuration. De plus, la solution réseau utilise RoCE au lieu du réseau IB plus répandu au niveau national, probablement en raison de la rentabilité de RoCE et de sa maturité dans la gestion des clusters à grande échelle. Mellanox reste la marque de commutateurs de choix.

Modèle et spécifications du commutateur
La vidéo présente le modèle de commutateur Ethernet NVIDIA Spectrum-x SN5600, qui dispose de 64 interfaces physiques 800G pouvant être converties en 128 interfaces 400G. Cette configuration réduit considérablement le nombre de commutateurs requis, ce qui pourrait devenir une tendance future dans la conception des réseaux.

Maintenance modulaire pour serveurs GPU
Nous savons tous que le taux de défaillance des GPU H100 est nettement plus élevé que celui des serveurs à usage général, ce qui rend le remplacement et la réparation assez difficiles. La vidéo présente la plateforme 4U H100 de Supermicro, qui prend en charge la maintenance de type tiroir pour les modules GPU et CPU. Comme le montre l'image, il y a une poignée qui permet un retrait et une maintenance faciles sans avoir à démonter l'ensemble du serveur, ce qui améliore considérablement l'efficacité de la maintenance.

Voyants de couleur de l'armoire
Comme le montre l'image, l'effet bleu donne une forte impression technologique tout en indiquant que l'équipement fonctionne normalement. Si une armoire rencontre un problème, le changement de couleur des voyants lumineux permet au personnel de maintenance d'identifier rapidement l'armoire défectueuse. Bien qu'il ne s'agisse pas d'une technologie de pointe, c'est assez intéressant et pratique.

Besoin continu de serveurs polyvalents
Lors de la conception de solutions de centres de calcul intelligents, les serveurs à usage général sont souvent négligés. Bien que les serveurs GPU soient le cœur du système, de nombreuses tâches de gestion auxiliaires nécessitent toujours l'assistance de serveurs à usage général. La vidéo présente des serveurs 1U haute densité fournissant une puissance de calcul CPU, coexistant avec des nœuds GPU sans conflit. Les nœuds CPU prennent principalement en charge les systèmes d'entreprise liés à la gestion.

Importance des systèmes de stockage
Bien que la vidéo ne détaille pas la conception du système de stockage, elle présente brièvement ce module essentiel pour les centres de calcul intelligents. Le stockage est essentiel pour prendre en charge le stockage des données dans les systèmes de formation, ce qui affecte directement l'efficacité de la formation. Par conséquent, les centres de calcul intelligents choisissent généralement un stockage GPFS hautes performances pour créer des systèmes de fichiers distribués.

Système de garantie d'alimentation électrique
La vidéo montre un gros pack de batteries spécialement conçu pour le cluster de 100,000 XNUMX GPU. Le système d'alimentation se connecte au pack de batteries, qui alimente ensuite le cluster, atténuant ainsi efficacement les risques associés à une alimentation électrique instable. Bien que peu d'informations aient été divulguées, cela souligne l'importance d'une alimentation électrique fiable pour les systèmes de centres de calcul intelligents.

A suivre : l'expansion continue du cluster
La vidéo conclut en affirmant que le cluster de 100,000 XNUMX GPU n'est qu'une phase et que l'ingénierie du système est toujours en cours.

Produits associés:
-
OSFP-800G-FR4 800G OSFP FR4 (200G par ligne) Module émetteur-récepteur optique PAM4 CWDM Duplex LC 2km SMF $5000.00
-
OSFP-800G-2FR2L 800G OSFP 2FR2 (200G par ligne) PAM4 1291/1311nm 2km DOM Duplex LC SMF Module émetteur-récepteur optique $4500.00
-
OSFP-800G-2FR2 800G OSFP 2FR2 (200G par ligne) PAM4 1291/1311nm 2km DOM double CS SMF Module émetteur-récepteur optique $4500.00
-
OSFP-800G-DR4 800G OSFP DR4 (200G par ligne) PAM4 1311nm MPO-12 500m SMF DDM Module émetteur-récepteur optique $3500.00
-
NVIDIA MMS4X00-NM-FLT Compatible 800G Twin-port OSFP 2x400G Flat Top PAM4 1310nm 500m DOM Dual MTP/MPO-12 Module émetteur-récepteur optique SMF $1200.00
-
NVIDIA MMA4Z00-NS-FLT Compatible 800Gb/s Twin-port OSFP 2x400G SR8 PAM4 850nm 100m DOM Dual MPO-12 Module émetteur-récepteur optique MMF $850.00
-
NVIDIA MMS4X00-NM Compatible 800Gb/s double port OSFP 2x400G PAM4 1310nm 500m DOM double MTP/MPO-12 Module émetteur-récepteur optique SMF $1100.00
-
NVIDIA MMA4Z00-NS Compatible 800Gb/s Twin-port OSFP 2x400G SR8 PAM4 850nm 100m DOM Dual MPO-12 Module émetteur-récepteur optique MMF $750.00
-
NVIDIA MMS1Z00-NS400 Compatible 400G NDR QSFP112 DR4 PAM4 1310nm 500m MPO-12 avec Module émetteur-récepteur optique FEC $800.00
-
NVIDIA MMS4X00-NS400 Compatible 400G OSFP DR4 Flat Top PAM4 1310nm MTP/MPO-12 500m SMF FEC Module Émetteur-Récepteur Optique $800.00
-
Module émetteur-récepteur optique NVIDIA MMA1Z00-NS400 Compatible 400G QSFP112 SR4 PAM4 850nm 100m MTP/MPO-12 OM3 FEC $650.00
-
NVIDIA MMA4Z00-NS400 Compatible 400G OSFP SR4 Flat Top PAM4 850nm 30m sur OM3/50m sur OM4 MTP/MPO-12 Module émetteur-récepteur optique FEC multimode $650.00
-
Module émetteur-récepteur optique OSFP 4x50G FR2 PAM400 4nm 4km DOM double Duplex LC SMF Compatible NVIDIA MMS1310X2-NM $1350.00
-
Module émetteur-récepteur optique OSFP-XD-1.6T-4FR2 1.6T OSFP-XD 4xFR2 PAM4 1291/1311nm 2km SN SMF $17000.00
-
Module émetteur-récepteur optique LC SMF double duplex OSFP-XD-1.6T-2FR4 1.6T OSFP-XD 2xFR4 PAM4 2x CWDM4 2 km $22400.00
-
Module émetteur-récepteur optique OSFP-XD-1.6T-DR8 1.6T OSFP-XD DR8 PAM4 1311nm 2km MPO-16 SMF $12600.00