2014年: Tesla P100によるPascalアーキテクチャの導入
2014 年、Nvidia は Pascal アーキテクチャに基づく Tesla P100 を発売しました。この GPU は第 4 世代の NVLink テクノロジを搭載し、8 個または 1.0 個の GPU 間の高速通信を可能にしました。NVLink 3.0 の双方向相互接続帯域幅は、PCIe 16×XNUMX の XNUMX 倍でした。計算は次のとおりです。
- PCIe 3.0×16: 双方向通信帯域幅32GB/s (1GBx16x2)。
- NVLink 1.0: 双方向相互接続帯域幅 160GB/秒 (20GBx4x2)。
NvSwitch チップがないため、GPU はメッシュ トポロジで相互接続されており、160 つの GPU から XNUMX つの直接接続された GPU までの合計帯域幅は XNUMX GB/秒です。

2017: Volta ArchitectureとV100
2017 年、Nvidia は V100 GPU を搭載した Volta アーキテクチャをリリースしました。V100 の NVLink は、リンクあたりの単方向帯域幅を 20GB/秒から 25GB/秒に、リンク数を 4 から 6 に増やし、サポートされる GPU NVLink 帯域幅の合計を 300GB/秒に引き上げました。ただし、100 年にリリースされた V1 DGX-2017 システムには NvSwitch は搭載されていませんでした。トポロジは NVLink 1.0 に似ており、リンク数が増加しました。

2018年:V100 DGX-2システムの導入
GPU 間通信帯域幅とシステム全体のパフォーマンスをさらに強化するために、Nvidia は 100 年に V2 DGX-2018 システムを導入しました。これは NvSwitch チップを組み込んだ最初のシステムであり、単一の DGX-16 システム内で 100 個の SXM V2 GPU 間の完全な相互接続を可能にしました。

NVSwitch には 18 個の NVLink ポートがあり、そのうち 8 個は GPU に接続し、8 個は別のベースボード上の別の NVSwitch チップに接続します。各ベースボードには、別のベースボードとの通信用に XNUMX 個の NVSwitch が含まれています。

2020: A100を搭載したAmpereアーキテクチャ
2020 年、Nvidia は A100 GPU を搭載した Ampere アーキテクチャを発表しました。NVLink チップと NVSwitch チップは、それぞれバージョン 3.0 と 2.0 にアップグレードされました。リンクあたりの単方向帯域幅は 25 GB/秒のままですが、リンクの数は 12 に増加し、双方向相互接続帯域幅の合計は 600 GB/秒になりました。DGX A100 システムには 6 つの NVSwitch 2.0 チップが搭載されており、各 A100 GPU は 12 の NVLink 接続を介して 6 つの NVSwitch チップに相互接続され、各 NVSwitch に XNUMX つのリンクが確保されます。
GPU システムの論理トポロジは次のとおりです。

HGX モジュールと「サーバー ヘッド」の論理的な関係については、多くの人が明確に理解していません。以下は、SXM GPU ベースボードが PCIe リンクを介してサーバー マザーボードと相互接続されていることを示す図です。PCIe スイッチ (PCIeSw) チップは、サーバー ヘッド マザーボードに統合されています。ネットワーク カードと NVMe U.2 PCIe 信号も、PCIeSw から発信されます。

2022: H100を使用したホッパーアーキテクチャ
Hopper アーキテクチャに基づく H100 GPU は、2022 年に NVLink と NVSwitch のバージョンがそれぞれ 4.0 と 3.0 でリリースされました。リンクあたりの単方向帯域幅は 25 GB/秒のまま変わりませんでしたが、リンクの数は 18 に増加し、双方向相互接続帯域幅の合計は 900 GB/秒になりました。各 GPU は、4+5+4+4 のグループを使用して 5 つの NVSwitch と相互接続されています。

DGX システムの NVSwitch チップの OSFP インターフェイスは、DGX H100 256 SuperPOD ソリューションなどの Nvidia の大規模な GPU ネットワークに使用されます。

2024年:ブラックウェル・アーキテクチャーとB200
2024 年、Nvidia は B200 GPU で Blackwell アーキテクチャを導入しました。これは、それぞれ NVLink と NVSwitch バージョン 5.0 と 4.0 を搭載しています。リンクあたりの単方向帯域幅は 50 のリンクで 18GB/秒に倍増し、合計双方向相互接続帯域幅は 1.8TB/秒になりました。各 NVSwitch チップには 72 個の NVLink 5.0 ポートがあり、各 GPU は 9 つの NVSwitch チップへの XNUMX つの NVLink 接続を使用します。

B200 のリリースと同時に、Nvidia は NVLink ネットワーク スイッチを利用して 72 個の GPU 間の完全な相互接続を実現する統合 GPU システムである NVL72 も発表しました。
72 つの NVLink スイッチを使用して 9 個の GPU を相互接続するための論理トポロジは次のとおりです。

各 B200 GPU には 18 個の NVLink ポートがあり、合計 1,296 個の NVLink 接続 (72×18) になります。72 つのスイッチ トレイには 144 つの NVLink スイッチ チップが含まれており、それぞれが 9 個のインターフェイス (合計 72 個) を提供します。したがって、XNUMX 個の GPU を完全に相互接続するには XNUMX 個のスイッチ トレイが必要です。
関連製品:
-
NVIDIA MMA4Z00-NS400 互換 400G OSFP SR4 フラットトップ PAM4 850nm OM30 で 3m/OM50 で 4m MTP/MPO-12 マルチモード FEC 光トランシーバ モジュール $650.00
-
NVIDIA MMA4Z00-NS-FLT 互換 800Gb/s ツインポート OSFP 2x400G SR8 PAM4 850nm 100m DOM デュアル MPO-12 MMF 光トランシーバー モジュール $850.00
-
NVIDIA MMA4Z00-NS 互換 800Gb/s ツインポート OSFP 2x400G SR8 PAM4 850nm 100m DOM デュアル MPO-12 MMF 光トランシーバー モジュール $750.00
-
NVIDIA MMS4X00-NM 互換 800Gb/s ツインポート OSFP 2x400G PAM4 1310nm 500m DOM デュアル MTP/MPO-12 SMF 光トランシーバー モジュール $1100.00
-
NVIDIA MMS4X00-NM-FLT 互換 800G ツインポート OSFP 2x400G フラットトップ PAM4 1310nm 500m DOM デュアル MTP/MPO-12 SMF 光トランシーバー モジュール $1200.00
-
NVIDIA MMS4X00-NS400 互換 400G OSFP DR4 フラットトップ PAM4 1310nm MTP/MPO-12 500m SMF FEC 光トランシーバー モジュール $800.00
-
Mellanox MMA1T00-HS 互換 200G Infiniband HDR QSFP56 SR4 850nm 100m MPO-12 APC OM3/OM4 FEC PAM4 光トランシーバー モジュール $200.00
-
NVIDIA MFP7E10-N010 互換 10 メートル (33 フィート) 8 ファイバー 低挿入損失 メス - メス MPO トランク ケーブル 極性 B APC - APC LSZH マルチモード OM3 50/125 $47.00
-
NVIDIA MCP7Y00-N003-FLT 互換 3m (10 フィート) 800G ツインポート OSFP ~ 2x400G フラットトップ OSFP InfiniBand NDR ブレイクアウト DAC $275.00
-
NVIDIA MCP7Y70-H002 互換 2m (7 フィート) 400G ツインポート 2x200G OSFP から 4x100G QSFP56 パッシブ ブレークアウト ダイレクト アタッチ銅線ケーブル $155.00
-
NVIDIA MCA4J80-N003-FTF 互換 3m (10 フィート) 800G ツインポート 2x400G OSFP から 2x400G OSFP InfiniBand NDR アクティブ銅線ケーブル、一方の端はフラット トップ、もう一方の端はフィン付きトップ $600.00
-
NVIDIA MCP7Y10-N002 互換性のある 2m (7 フィート) 800G InfiniBand NDR ツインポート OSFP から 2x400G QSFP112 ブレイクアウト DAC $200.00