NVIDIA DGX H100 の概要

NVIDIA DGX H100 システムは、AI インフラストラクチャとワークロード向けに設計されたユニバーサル システムです。システムの主なハードウェアとコンポーネントの機能の概要は次のとおりです。

主なハードウェアとコンポーネントの機能
コンポーネント

GPU ボード トレイは、AI サーバー全体の主要なコンポーネントの組み立て領域です。コア部分は GPU ボード トレイで、主に GPU コンポーネント、モジュール ボード、NVSwitch が含まれます。

CPU マザーボード トレイは、サーバー (通常のサーバーと AI サーバーの両方を含む) のコア コンポーネントであり、CPU マザーボード、システム メモリ、ネットワーク カード、PCIE スイッチ、およびその他のコンポーネントが含まれています。

概要
フロント
バック
  • グラフィック プロセッサ: 8 つの NVIDIA H100 GPU、640 GB の GPU メモリを提供します。
  • 中央プロセッサ: 2 つの Intel Xeon 8480C PCIe Gen5 CPU、それぞれ 56 コア、クロック速度は 2.0 GHz ~ 3.8 GHz です。
ホッパー H100 テンサーコア CPU
  • NVLink: 4 つの第 900 世代 NVLink、XNUMX GB/秒の GPU 間の帯域幅を提供します。
  • ストレージ:

オペレーティング システム ストレージ: 2 1.92 TB NVMe M.2 SSD (RAID 1 アレイ)。

データ キャッシュ ストレージ: 8 つの 3.84 TB NVMe U.2 SED (RAID 0 アレイ)。

  • ネットワーク:

クラスターネットワーク: 4 OSFPポート、InfiniBand (最大 400Gbps) およびイーサネット (最大 400GbE) をサポートします。

ストレージ ネットワーク: 2 枚の NVIDIA ConnectX-7 デュアルポート イーサネット カード、イーサネット (最大 400 GbE) および InfiniBand (最大 400 Gbps) をサポート。

  • システム メモリ: 32 個の DIMM ごとに 2 TB のメモリを提供します。
  • 帯域外システム管理 (BMC): Redfish、IPMI、SNMP、KVM、および Web ユーザー インターフェイスをサポートします。
  • インバンドシステム管理: 3 つのデュアルポート 100GbE および 10GbE RJ45 インターフェイス。機械的および電力仕様:
帯域内システム管理
PCleカードライザー
  • 寸法: 8U ラックマウント、高さ 14 インチ、最大幅 19 インチ、最大奥行き 35.3 インチ。
  • 重量: 最大 287.6 ポンド (130.45 kg)。
  • 入力電圧: 200 ~ 240 ボルト AC。
  • 各電源の仕様: 最大 10.2 キロワット、3300 ワット @ 200 ~ 240 ボルト、16 アンペア、50 ~ 60 ヘルツ。
  • InfiniBand やイーサネットなど、最大 400Gbps の高速ネットワーク接続をサポートします。
第4世代NVlink
DGX H100 ネットワーキング モジュール
CPUへの接続

コメント

上へスクロール