ChatGPT にはいくつの光トランシーバーが必要ですか?

FiberMall は、ChatGPT がテーブルにもたらす光トランシーバーを含む AI インフラストラクチャを推測しました。

従来のデータセンターとの違いは、 AI に共通のファット ツリー構造で、より多くのスイッチが使用され、各ノードの上流と下流のポートの数は同じです。

従来のデータセンターとファット フリー ネットワークのトポロジ

NVIDIA が使用する AI クラスタリング モデルに対応する基本ユニットの XNUMX つが SuperPOD です。

標準の SuperPOD は、140 台の DGX A100 GPU サーバー、HDR InfiniBand 200G で構築されています NIC、およびそれぞれ 170G および 8790 ポートを備えた 200 台の NVIDIA Quantum QM40 スイッチ。

NVIDIA ソリューションに基づいて、170 個のスイッチを備えた SuperPOD、各スイッチには 40 個のポートがあり、最も簡単な方法はそれぞれ 70 台のサーバーを相互接続することであり、対応するケーブル要件は 40×170/2=3400 です。 4000本のケーブル。 その中で、銅ケーブルの比率: AOC: 光モジュール = 4:4:2、必要な光トランシーバーの数に対応 = 4000 * 0.2 * 2 = 1600、つまり、SuperPod の場合、サーバー: スイッチの比率: 光モジュールの使用 = 140: 170: 1600 = 1: 1.2: 11.4

GPT4.0 のエントリー レベルの要件と同様の要件には、約 3750 台の NVIDIA DGX A100 サーバーが必要です。 この条件での光トランシーバの要件を次の表に示します。

光モジュールの要件

IDC によると、世界の AI サーバー市場は 15.6 年に 2021 億ドルで、35.5 年までに 2026 億ドルに達すると予想されています。中国の AI サーバー産業の市場規模は 6.4 年には 2021 億ドルです。データセンターのシナリオでは急速に増加し、200 ~ 400 年間で複合成長率は 62% になります。 世界のスイッチ ポートの出荷は、22 年には 26 億 870 万を超え、市場規模は 2026 億ドルを超えると予想されています。

FiberMall は、AI データセンター アーキテクチャからサーバー、スイッチ、光トランシーバーの需要を推定します。 この外挿プロセスでは、FiberMall は 4:4:2 の比率を使用します。 データセンターでの光モジュールの使用は、最終的にトラフィックの需要に直接関係しています。 この比率は、フル キャパシティでのみ存在する可能性が高く、AI データ センター内のサービス トラフィックが現在どのようになっているかを詳細に調査する価値があります。

コメント

上へスクロール