Nvidia の B200 GPU が明らかに: 消費電力は 1000W に達する

デルは、Nvidia の次世代 Blackwell AI チップ、B100 が 2024 年に、B200 が 2025 年に発売されることを発表しました。

Blackwell

Barron's の報道によると、4 月 200 日、デルの上級幹部は最近の決算会見で、Nvidia が主力 AI コンピューティング チップである B2025 GPU を 200 年に発売する計画であることを明らかにしました。B1000 の個々の GPU の電力消費量は、 100Wに達するまで。比較すると、Nvidia の現在の主力 GPU H700 の全体の消費電力は 200 W ですが、Nvidia の H300 と AMD の Instinct MI700X の全体の消費電力は 750 W ~ 200 W です。 BXNUMXはこれまでNvidiaのロードマップに登場しておらず、同社が事前にDellなどの主要パートナーに情報を開示した可能性があることを示唆している。

NVIDIA AI アーキテクチャ
NVIDIA データセンター/AI 製品イテレーション ロードマップ (出典: NVIDIA)

以前に公開されたロードマップによると、B100は次世代フラッグシップGPU、GB200はCPUとGPUを組み合わせたスーパーチップ、GB200NVLはスーパーコンピューティング用の相互接続プラットフォームである。

NVIDIA データセンター AI GPU ロードマップ
NVIDIA データセンター/AI GPU ベース情報 (出典: Wccftech)

Nvidia の Blackwell GPU シリーズには、少なくとも 100 つの主要な AI アクセラレーション チップが含まれます。B200 は今年発売され、BXNUMX は来年デビューします。

NvidiaのBlackwell GPUがシングルチップ設計を採用する可能性があるとの報道がある。
Dell Technologies Group の COO 兼副会長である Jeffrey W. Clarke の決算会見での講演の記録のスクリーンショット

NvidiaのBlackwell GPUがシングルチップ設計を採用する可能性があるとの報道がある。ただし、消費電力と必要な冷却を考慮すると、B100 は Nvidia の初のデュアルチップ設計であり、発生した熱を放散するための表面積を大きくできるのではないかと推測されています。昨年、Nvidia は TSMC の 11 番目に大きな顧客となり、TSMC の純収益の 25% を占め、Apple の XNUMX% に次いで XNUMX 位となりました。パフォーマンスとエネルギー効率をさらに向上させるために、Nvidia の次世代 AI GPU は強化されたプロセス テクノロジを利用することが期待されています。

Hopper H200 GPU と同様に、第 100 世代 Blackwell B3 は HBM200E メモリ テクノロジを活用します。したがって、アップグレードされた B1 バリアントでは、さらに高速な HBM メモリが採用される可能性があるほか、メモリ容量が増加し、仕様がアップグレードされ、機能が強化される可能性があります。エヌビディアはデータセンター事業に大きな期待を寄せている。昨年 3 月の韓国メディアの報道によると、Nvidia は、H200 および B100 GPU 用の十分な HBMXNUMXE 在庫を確保するために、メモリチップ大手の SK Hynix と Micron に注文で XNUMX 億ドル以上を前払いしました。

デルと HP
NVIDIA GPU で使用されるメモリ テクノロジーの進化のロードマップ (出典: NVIDIA)

AI サーバー ベンダーの 20 大大手である Dell と HP は、最近の決算説明会で AI 関連製品の需要の急激な増加について言及しました。デルは、第 XNUMX 四半期の AI サーバーのバックログがほぼ XNUMX 倍になり、AI の注文が複数の新規および既存の GPU モデルに分散されたと述べました。 HP は電話会議の中で、GPU の納期は依然として XNUMX 週間以上と「かなり長い」と明らかにしました。

コメント

上へスクロール