Nvidias B200-GPU enthüllt: Stromverbrauch erreicht 1000 W

Dell stellt Nvidias Blackwell AI-Chip der nächsten Generation vor: B100 soll 2024 auf den Markt kommen, B200 2025.

Blackwell

Laut einem Bericht von Barron's gab ein leitender Dell-Manager am 4. März während der jüngsten Telefonkonferenz des Unternehmens bekannt, dass Nvidia die Einführung seines Flaggschiff-KI-Computing-Chips, der B200 GPU, im Jahr 2025 plant. Der individuelle GPU-Stromverbrauch des B200 wird angegeben um 1000W zu erreichen. Im Vergleich dazu hat Nvidias aktuelle Flaggschiff-GPU H100 einen Gesamtstromverbrauch von 700 W, während der Gesamtstromverbrauch von Nvidias H200 und AMDs Instinct MI300X zwischen 700 W und 750 W liegt. Der B200 war bisher nicht in der Roadmap von Nvidia enthalten, was darauf hindeutet, dass das Unternehmen die Informationen möglicherweise vorzeitig an große Partner wie Dell weitergegeben hat.

NVIDIA AI-Architektur
NVIDIA-Rechenzentrums-/KI-Produktiterations-Roadmap (Quelle: NVIDIA)

Laut der zuvor veröffentlichten Roadmap ist B100 die Flaggschiff-GPU der nächsten Generation, GB200 ein Superchip, der CPU und GPU kombiniert, und GB200NVL ist eine vernetzte Plattform für den Supercomputing-Einsatz.

NVIDIA-Rechenzentrum-AI-GPU-Roadmap
NVIDIA-Rechenzentrum/KI-GPU-Basisinformationen (Quelle: Wccftech)

Nvidias Blackwell-GPU-Serie wird mindestens zwei große KI-Beschleunigungschips umfassen – den B100, der dieses Jahr auf den Markt kommt, und den B200, der nächstes Jahr auf den Markt kommt.

Es gibt Berichte, dass Nvidias Blackwell-GPUs möglicherweise ein Single-Chip-Design annehmen.
Screenshot des Protokolls von Jeffrey W. Clarke, COO und stellvertretender Vorsitzender der Dell Technologies Group, bei der Telefonkonferenz zu den Ergebnissen

Es gibt Berichte, dass Nvidias Blackwell-GPUs möglicherweise ein Single-Chip-Design annehmen. Angesichts des Stromverbrauchs und der erforderlichen Kühlung wird jedoch spekuliert, dass der B100 Nvidias erstes Dual-Chip-Design sein könnte, das eine größere Oberfläche zur Ableitung der erzeugten Wärme ermöglicht. Letztes Jahr wurde Nvidia zum zweitgrößten Kunden von TSMC und erwirtschaftete 11 % des Nettoumsatzes von TSMC, gefolgt von Apples Beitrag von 25 %. Um die Leistung und Energieeffizienz weiter zu verbessern, werden die KI-GPUs der nächsten Generation von Nvidia voraussichtlich verbesserte Prozesstechnologien nutzen.

Wie die Hopper H200-GPU wird auch der Blackwell B100 der ersten Generation die HBM3E-Speichertechnologie nutzen. Die aktualisierte B200-Variante könnte daher einen noch schnelleren HBM-Speicher sowie möglicherweise eine höhere Speicherkapazität, verbesserte Spezifikationen und erweiterte Funktionen übernehmen. Nvidia hat hohe Erwartungen an sein Rechenzentrumsgeschäft. Laut einem koreanischen Medienbericht vom vergangenen Dezember hat Nvidia über 1 Milliarde US-Dollar an Aufträgen an die Speicherchip-Giganten SK Hynix und Micron im Voraus bezahlt, um sich ausreichend HBM3E-Bestand für die H200- und B100-GPUs zu sichern.

Dell und HP
Roadmap der Entwicklung der Speichertechnologie, die in NVIDIA-GPUs verwendet wird (Quelle: NVIDIA)

Sowohl Dell als auch HP, zwei große Anbieter von KI-Servern, erwähnten bei ihren jüngsten Gewinnmitteilungen einen starken Anstieg der Nachfrage nach KI-bezogenen Produkten. Dell gab an, dass sich sein Auftragsbestand an KI-Servern im vierten Quartal fast verdoppelt habe, wobei die KI-Bestellungen auf mehrere neue und bestehende GPU-Modelle verteilt seien. HP gab in seinem Anruf bekannt, dass die GPU-Lieferzeiten mit 20 Wochen oder mehr „ziemlich lang“ bleiben.

Hinterlasse einen Kommentar

Nach oben scrollen