2014 : Introduction de l'architecture Pascal avec Tesla P100
En 2014, Nvidia a lancé le Tesla P100 basé sur l'architecture Pascal. Ce GPU était doté de la technologie NVLink de première génération, permettant une communication à haut débit entre 4 ou 8 GPU. La bande passante d'interconnexion bidirectionnelle du NVLink 1.0 était cinq fois supérieure à celle du PCIe 3.0×16. Voici le calcul :
- PCIe 3.0×16 : bande passante de communication bidirectionnelle de 32 Go/s (1 Go x 16 x 2).
- NVLink 1.0 : Bande passante d'interconnexion bidirectionnelle de 160 Go/s (20 Go x 4 x 2).
En raison de l’absence de puces NvSwitch, les GPU ont été interconnectés dans une topologie maillée, où 160 Go/s représente la bande passante totale d’un GPU à quatre GPU directement connectés.

2017 : Architecture Volta avec V100
En 2017, Nvidia a lancé l'architecture Volta avec le GPU V100. Le NVLink du V100 a augmenté la bande passante unidirectionnelle par lien de 20 Go/s à 25 Go/s et le nombre de liens de 4 à 6, portant la bande passante totale NVLink prise en charge par le GPU à 300 Go/s. Cependant, le système V100 DGX-1 sorti en 2017 ne disposait pas de NvSwitch. La topologie était similaire à celle de NVLink 1.0, avec une augmentation du nombre de liens.

2018 : Lancement du système V100 DGX-2
Pour améliorer encore la bande passante de communication inter-GPU et les performances globales du système, Nvidia a introduit le système V100 DGX-2 en 2018. Il s'agissait du premier système à intégrer la puce NvSwitch, permettant une interconnectivité complète entre 16 GPU SXM V100 au sein d'un seul système DGX-2.

Le NVSwitch dispose de 18 ports NVLink, 8 se connectant au GPU et 8 à une autre puce NVSwitch sur une carte mère différente. Chaque carte mère contient six NVSwitch pour la communication avec une autre carte mère.

2020 : Architecture Ampère avec A100
En 2020, Nvidia a lancé l'architecture Ampere avec le GPU A100. Les puces NVLink et NVSwitch ont été mises à niveau vers les versions 3.0 et 2.0, respectivement. Bien que la bande passante unidirectionnelle par lien soit restée à 25 Go/s, le nombre de liens est passé à 12, ce qui donne une bande passante d'interconnexion bidirectionnelle totale de 600 Go/s. Le système DGX A100 comprend 6 puces NVSwitch 2.0, chaque GPU A100 étant interconnecté via 12 connexions NVLink aux 6 puces NVSwitch, assurant ainsi deux liens vers chaque NVSwitch.
La topologie logique du système GPU est la suivante :

De nombreuses personnes ne comprennent pas la relation logique entre le module HGX et la « tête de serveur ». Le schéma ci-dessous montre que la carte mère du GPU SXM est interconnectée avec la carte mère du serveur via des liaisons PCIe. La puce du commutateur PCIe (PCIeSw) est intégrée à la carte mère de la tête de serveur. La carte réseau et les signaux PCIe NVMe U.2 proviennent également du PCIeSw.

2022 : Architecture Hopper avec H100
Le GPU H100, basé sur l'architecture Hopper, est sorti en 2022 avec les versions NVLink et NVSwitch 4.0 et 3.0, respectivement. Alors que la bande passante unidirectionnelle par lien est restée inchangée à 25 Go/s, le nombre de liens est passé à 18, ce qui donne une bande passante d'interconnexion bidirectionnelle totale de 900 Go/s. Chaque GPU est interconnecté avec 4 NVSwitches à l'aide d'un groupement 5+4+4+5.

Les interfaces OSFP des puces NVSwitch du système DGX sont utilisées pour le plus grand réseau GPU de Nvidia, comme dans la solution DGX H100 256 SuperPOD.

2024 : Blackwell Architecture avec B200
En 2024, Nvidia a présenté l'architecture Blackwell avec le GPU B200, doté respectivement des versions NVLink et NVSwitch 5.0 et 4.0. La bande passante unidirectionnelle par lien a doublé pour atteindre 50 Go/s, avec 18 liens, ce qui donne une bande passante d'interconnexion bidirectionnelle totale de 1.8 To/s. Chaque puce NVSwitch dispose de 72 ports NVLink 5.0 et chaque GPU utilise 9 connexions NVLink vers deux puces NVSwitch.

Avec la sortie du B200, Nvidia a également introduit le NVL72, un système GPU intégré qui utilise le commutateur réseau NVLink pour obtenir une interconnectivité complète entre 72 GPU.
La topologie logique pour l'interconnexion des 72 GPU à l'aide de 9 commutateurs NVLink est la suivante :

Chaque GPU B200 dispose de 18 ports NVLink, ce qui représente un total de 1,296 72 connexions NVLink (18 × 72). Un seul plateau de commutation contient deux puces de commutation NVLink, chacune fournissant 144 interfaces (9 au total). Ainsi, 72 plateaux de commutation sont nécessaires pour interconnecter complètement les XNUMX GPU.
Produits associés:
-
NVIDIA MMA4Z00-NS400 Compatible 400G OSFP SR4 Flat Top PAM4 850nm 30m sur OM3/50m sur OM4 MTP/MPO-12 Module émetteur-récepteur optique FEC multimode $650.00
-
NVIDIA MMA4Z00-NS-FLT Compatible 800Gb/s Twin-port OSFP 2x400G SR8 PAM4 850nm 100m DOM Dual MPO-12 Module émetteur-récepteur optique MMF $850.00
-
NVIDIA MMA4Z00-NS Compatible 800Gb/s Twin-port OSFP 2x400G SR8 PAM4 850nm 100m DOM Dual MPO-12 Module émetteur-récepteur optique MMF $750.00
-
NVIDIA MMS4X00-NM Compatible 800Gb/s double port OSFP 2x400G PAM4 1310nm 500m DOM double MTP/MPO-12 Module émetteur-récepteur optique SMF $1100.00
-
NVIDIA MMS4X00-NM-FLT Compatible 800G Twin-port OSFP 2x400G Flat Top PAM4 1310nm 500m DOM Dual MTP/MPO-12 Module émetteur-récepteur optique SMF $1200.00
-
NVIDIA MMS4X00-NS400 Compatible 400G OSFP DR4 Flat Top PAM4 1310nm MTP/MPO-12 500m SMF FEC Module Émetteur-Récepteur Optique $800.00
-
Mellanox MMA1T00-HS Compatible 200G Infiniband HDR QSFP56 SR4 850nm 100m MPO-12 APC OM3/OM4 FEC PAM4 Module émetteur-récepteur optique $200.00
-
NVIDIA MFP7E10-N010 Compatible 10 m (33 pieds) 8 fibres faible perte d'insertion femelle à femelle câble tronc MPO polarité B APC vers APC LSZH multimode OM3 50/125 $47.00
-
NVIDIA MCP7Y00-N003-FLT Compatible 3m (10ft) OSFP double port 800G à 2x400G Flat Top OSFP InfiniBand NDR Breakout DAC $275.00
-
NVIDIA MCP7Y70-H002 Compatible 2 m (7 pieds) 400G double port 2x200G OSFP à 4x100G QSFP56 câble en cuivre à connexion directe à dérivation passive $155.00
-
Câble en cuivre actif NVIDIA MCA4J80-N003-FTF 3 m (10 pieds) 800G double port 2x400G OSFP vers 2x400G OSFP InfiniBand NDR, dessus plat à une extrémité et dessus à ailettes à l'autre $600.00
-
NVIDIA MCP7Y10-N002 Compatible 2 m (7 pieds) 800G InfiniBand NDR double port OSFP vers 2x400G QSFP112 Breakout DAC $200.00