Combien d'émetteurs-récepteurs optiques nécessite ChatGPT ?

FiberMall a extrapolé l'infrastructure d'IA, y compris les émetteurs-récepteurs optiques que ChatGPT apporte à la table.

La différence avec un centre de données traditionnel est qu'avec le InfiniBand structure arborescente grasse commune à AI, plus de commutateurs sont utilisés et le nombre de ports en amont et en aval à chaque nœud est identique.

Topologie du centre de données traditionnel et du réseau sans graisse

L'une des unités de base correspondant au modèle de clustering AI utilisé par NVIDIA est le SuperPOD.

Un SuperPOD standard est construit avec 140 serveurs GPU DGX A100, HDR InfiniBand 200G NIC, et 170 commutateurs NVIDIA Quantum QM8790 avec 200G et 40 ports chacun.

Basé sur la solution NVIDIA, un SuperPOD avec 170 commutateurs, chaque commutateur a 40 ports, et le moyen le plus simple est d'interconnecter 70 serveurs chacun, et l'exigence de câble correspondante est de 40 × 170/2 = 3400, compte tenu de la situation de déploiement réelle jusqu'à 4000 câbles. Parmi eux, le ratio câble cuivre : AOC : module optique = 4:4:2, correspondant au nombre d'émetteurs-récepteurs optiques nécessaires = 4000 * 0.2 * 2 = 1600, soit, pour un SuperPod, le ratio serveur : switch : utilisation module optique = 140 : 170 : 1600 = 1 : 1.2 : 11.4

Une exigence similaire aux exigences d'entrée de gamme GPT4.0 nécessite environ 3750 100 serveurs NVIDIA DGX AXNUMX. Les exigences des émetteurs-récepteurs optiques dans cette condition sont répertoriées dans le tableau suivant.

Les exigences du module optique

Selon IDC, le marché mondial des serveurs d'IA est de 15.6 milliards de dollars en 2021 et devrait atteindre 35.5 milliards de dollars d'ici 2026. La taille du marché de l'industrie chinoise des serveurs d'IA est de 6.4 milliards de dollars en 2021. Selon les données d'IDC, des expéditions de ports 200/400G sont attendues. à augmenter rapidement dans les scénarios de centres de données, avec un taux de croissance composé de 62 % entre 22 et 26 ans. Les expéditions mondiales des ports de commutation devraient dépasser 870 millions en 2026, avec une taille de marché de plus de 44 milliards de dollars.

FiberMall extrapole la demande de serveurs, de commutateurs et d'émetteurs-récepteurs optiques à partir de l'architecture du centre de données AI. Dans ce processus d'extrapolation, FiberMall utilise le rapport de 4:4:2. L'utilisation de modules optiques dans le centre de données est finalement directement liée à la demande de trafic. Ce ratio n'existera probablement qu'à pleine capacité, et il est toujours utile d'étudier en profondeur l'état actuel du trafic de service au sein du centre de données AI.

Laisser un commentaire

Remonter en haut