Le GPU B200 de Nvidia dévoilé : la consommation d'énergie atteint 1000 XNUMX W

Dell dévoile la puce Blackwell AI de nouvelle génération de Nvidia : la B100 sera lancée en 2024 et la B200 en 2025.

Blackwell

Le 4 mars, selon un rapport de Barron's, un cadre supérieur de Dell a révélé lors de la récente conférence téléphonique sur les résultats de la société que Nvidia prévoyait de lancer sa puce phare de calcul d'IA, le GPU B200, en 2025. La consommation électrique individuelle du GPU du B200 est indiquée pour atteindre 1000W. En comparaison, le GPU phare actuel de Nvidia, le H100, a une consommation d'énergie globale de 700 W, tandis que le H200 de Nvidia et l'Instinct MI300X d'AMD ont une consommation d'énergie globale allant de 700 W à 750 W. Le B200 n'apparaissait pas auparavant dans la feuille de route de Nvidia, ce qui suggère que la société aurait pu divulguer l'information à l'avance à des partenaires majeurs comme Dell.

Architecture d'IA NVIDIA
Feuille de route des itérations de produits NVIDIA pour centres de données/IA (Source : NVIDIA)

Selon sa feuille de route précédemment divulguée, le B100 est le GPU phare de nouvelle génération, le GB200 est une superpuce combinant CPU et GPU, et le GB200NVL est une plate-forme interconnectée pour une utilisation en supercalcul.

Feuille de route du GPU IA pour centre de données NVIDIA
Informations de base sur le centre de données NVIDIA/GPU AI (Source : Wccftech)

La série de GPU Blackwell de Nvidia comprendra au moins deux puces majeures d'accélération de l'IA : le B100 lancé cette année et le B200 qui fera ses débuts l'année prochaine.

Selon certaines informations, les GPU Blackwell de Nvidia pourraient adopter une conception à puce unique.
Capture d'écran de la transcription de Jeffrey W. Clarke, COO et vice-président du groupe Dell Technologies, s'exprimant lors de l'appel aux résultats

Selon certaines informations, les GPU Blackwell de Nvidia pourraient adopter une conception à puce unique. Cependant, compte tenu de la consommation électrique et du refroidissement requis, il est supposé que le B100 pourrait être la première conception à double puce de Nvidia, permettant une plus grande surface pour dissiper la chaleur générée. L'année dernière, Nvidia est devenu le deuxième client de TSMC, représentant 11 % du chiffre d'affaires net de TSMC, juste derrière la contribution de 25 % d'Apple. Pour améliorer encore les performances et l'efficacité énergétique, les GPU AI de nouvelle génération de Nvidia devraient utiliser des technologies de processus améliorées.

Comme le GPU Hopper H200, le Blackwell B100 de première génération exploitera la technologie de mémoire HBM3E. La variante B200 améliorée peut donc adopter une mémoire HBM encore plus rapide, ainsi qu'une capacité de mémoire potentiellement plus élevée, des spécifications améliorées et des fonctionnalités améliorées. Nvidia a des attentes élevées pour son activité de centres de données. Selon un rapport des médias coréens de décembre dernier, Nvidia a prépayé plus d'un milliard de dollars de commandes aux géants des puces mémoire SK Hynix et Micron afin de garantir un stock HBM1E suffisant pour les GPU H3 et B200.

Dell et HP
Feuille de route de l'évolution de la technologie de mémoire utilisée dans les GPU NVIDIA (Source : NVIDIA)

Dell et HP, deux principaux fournisseurs de serveurs d'IA, ont mentionné une forte augmentation de la demande de produits liés à l'IA lors de leurs récents appels aux résultats. Dell a déclaré que son carnet de commandes de serveurs IA au quatrième trimestre avait presque doublé, les commandes d'IA étant réparties sur plusieurs modèles de GPU nouveaux et existants. HP a révélé lors de son appel que les délais de livraison des GPU restaient « assez longs », à 20 semaines ou plus.

Laisser un commentaire

Remonter en haut