100G-SWDM4 トランシーバと 100G-SRBD トランシーバはどちらも、デュプレックス マルチモード ファイバ上で 100G をサポートします。 各トランシーバーはいつ使用する必要がありますか?

ファイバーモール

ファイバーモール

午前8時44分に回答済み

100G-SWDM4 トランシーバは 850nm ウィンドウで 100 つの波長を使用しますが、100G-SRBD トランシーバは同じウィンドウで 4 つの波長を使用します。 これは、100G-SWDMXNUMX トランシーバーのスペクトル効率が高く、同じファイバー上でより多くのチャネルをサポートできることを意味します。 ただし、XNUMXG-SRBD トランシーバは挿入損失が低く、モード分散に対する耐性が高いため、信号の品質と信頼性が向上します。

100G-SWDM4 トランシーバは、OM70 MMF で最大 3m、または OM100 MMF で最大 4m をサポートできます。一方、100G-SRBD トランシーバは、OM70 MMF で最大 3m、OM100 MMF で最大 4m、または OM150 MMF で最大 5m をサポートできます。 。 これは、100G-SRBD トランシーバが、OM100 MMF よりも広い帯域幅と低い減衰を備えた新しいタイプの MMF である OM5 MMF を使用することにより、デュプレックス MMF を介した 4G 伝送の到達範囲を拡張できることを意味します。

100G-SWDM4 トランシーバは QSFP28 フォーム ファクタおよび LC コネクタと互換性があり、100G-SRBD トランシーバは QSFP28 と QSFP の両方のフォーム ファクタおよび LC コネクタと互換性があります。 これは、100G-SRBD トランシーバは 100G ポートと 40G ポートの両方をサポートできるのに対し、100G-SWDM4 トランシーバは 100G ポートのみをサポートできることを意味します。 ただし、QSFP28 フォーム ファクタは QSFP フォーム ファクタよりもコンパクトで電力効率が高いため、データ センターのスペースとエネルギーを節約できます。

100G-SWDM4 と 100G-SRBD (「BIDI」トランシーバーとも呼ばれる) はどちらも業界内で広く導入されており、同じ光到達距離とファイバー タイプ (OM70/OM100 二重 MMF で 3m/4m) を共有しています。

ただし、100G-SWDM4 と 100G-SRBD は相互運用しません。

将来の 400G 光ファイバーとの相互運用性を考慮する場合は、QSFP-100G-SRBD を検討する必要があります。 の QSFP-100G-SRBD トランシーバは、将来の Arista 「400G-BIDI」トランシーバと相互運用します。 つまり、Arista OSFP-400G-SRBD または QDD-400G-SRBD トランシーバは、4x QSFP-100G-SRBD へのブレークアウトをサポートします。 SWDM4 には、将来の 400G 光ファイバーとの相互運用のためのパスがありません。

どの光学系を選択するかの決定は、多くの場合、相互運用要件に依存します。 たとえば、サードパーティの 100G BIDI 光学系との光相互運用が必要なアプリケーションの場合は、QSFP-100G-SRBD を使用する必要があります。

人々も尋ねる

高性能サーバーで NVIDIA H100 GPU のパワーを解放する

データ量の増加と計算要件の増大を特徴とする現代のコンピューティングのプレッシャーのかかる環境では、高性能サーバーの先駆者である NVIDIA H100 GPU の出現が目の当たりにしました。この記事は、NVIDIA H100 GPU の背後にある革新的な機能と新しいテクノロジーを明らかにすることを目的としています。

次世代ファイバーネットワーク向けの Nvidia MPO ケーブルの可能性を解き放つ

Nvidia MPO ケーブルは、今日の絶え間なく変化する通信およびデータセンター ネットワーキングの世界においてイノベーションの最前線にあります。これらは、容量、効率、拡張性の点でファイバー ネットワークの大幅な向上を約束します。このホワイトペーパーでは、さまざまな可能性を評価することを目指しています。 offこれらの先進的なケーブル配線ソリューションにより、

NVIDIA HGX プラットフォームの紹介: AI とハイ パフォーマンス コンピューティングの加速

NVIDIA の HGX プラットフォームは、AI と HPC における画期的な進歩です。今日のデータ集約型環境で増大する電力需要に応えるように設計されており、最先端の GPU テクノロジーと統合されています。優れた処理効率と柔軟性を実現します。この紹介文は、読者に予備知識を提供することを目的としています。

革新的な Nvidia DGX GH200: AI スーパーコンピューターの未来を推進

Nvidia DGX GH200 は、人工知能 (AI) と機械学習のパラダイム シフトを表し、AI スーパーコンピューターの新たな章の幕開けとなります。これは、拡大するニーズに応える比類のない計算能力、高速性、エネルギー効率で複雑な AI ワークロードを処理できる最先端のシステムとして設計されています。この記事

イーサネットベースの GPU スケールアップ ネットワーク

Scale-UP 相互接続に RoCE を利用する Intel の Gaudi-3 の最近の発売と、NVLink の Ethernet への置き換えに関する Jim Keller の議論により、この革新的なアプローチが注目を集めています。特に、Jim Keller が関与している Tenstorrent は、イーサネットを使用したチップ間のネットワーク相互接続を巧みに実装しています。したがって、次のことに対処することが重要です。

NVIDIA H100 と A100: ニーズに最適な GPU を明らかにする

人工知能 (AI) とハイパフォーマンス コンピューティング (HPC) の中には、完璧なグラフィック プロセッシング ユニット (GPU) が計算集約型アプリケーションのパフォーマンスを左右する、急速に変化する世界があります。これらのモデルのうち、NVIDIA H100 と A100 の XNUMX つは、この分野で注目を集めています。どちらも NVIDIA によって作成されました

関連記事

800g SR8 および 400g SR4

800G SR8 および 400G SR4 光トランシーバー モジュールの互換性および相互接続テスト レポート

バージョン変更ログ ライター V0 サンプル テスト Cassie テスト目的 テスト対象:800G OSFP SR8/400G OSFP SR4/400G Q112 SR4。 対応するテストを実施することにより、テストパラメータは関連する業界標準を満たし、テストモジュールは通常、Nvidia (Mellanox) MQM9790 スイッチ、Nvidia (Mellanox) ConnectX-7 ネットワーク カード、および Nvidia (Mellanox) BlueField-3 に使用でき、のための基礎

続きを読む»
高性能サーバーで NVIDIA H100 GPU のパワーを解放する

高性能サーバーで NVIDIA H100 GPU のパワーを解放する

データ量の増加と計算要件の増大を特徴とする現代のコンピューティングのプレッシャーのかかる環境では、高性能サーバーの先駆者である NVIDIA H100 GPU の出現が目の当たりにしました。この記事は、NVIDIA H100 GPU の背後にある革新的な機能と新しいテクノロジーを明らかにすることを目的としています。

続きを読む»
8 ファイバー mpo ケーブル 1

次世代ファイバーネットワーク向けの Nvidia MPO ケーブルの可能性を解き放つ

Nvidia MPO ケーブルは、今日の絶え間なく変化する通信およびデータセンター ネットワーキングの世界においてイノベーションの最前線にあります。これらは、容量、効率、拡張性の点でファイバー ネットワークの大幅な向上を約束します。このホワイトペーパーでは、さまざまな可能性を評価することを目指しています。 offこれらの先進的なケーブル配線ソリューションにより、

続きを読む»
nvidia hgx

NVIDIA HGX プラットフォームの紹介: AI とハイ パフォーマンス コンピューティングの加速

NVIDIA の HGX プラットフォームは、AI と HPC における画期的な進歩です。今日のデータ集約型環境で増大する電力需要に応えるように設計されており、最先端の GPU テクノロジーと統合されています。優れた処理効率と柔軟性を実現します。この紹介文は、読者に予備知識を提供することを目的としています。

続きを読む»
革新的な Nvidia DGX GH200: AI スーパーコンピューターの未来を推進

革新的な Nvidia DGX GH200: AI スーパーコンピューターの未来を推進

Nvidia DGX GH200 は、人工知能 (AI) と機械学習のパラダイム シフトを表し、AI スーパーコンピューターの新たな章の幕開けとなります。これは、拡大するニーズに応える比類のない計算能力、高速性、エネルギー効率で複雑な AI ワークロードを処理できる最先端のシステムとして設計されています。この記事

続きを読む»
ScaleUP のためのメモリ プーリング

イーサネットベースの GPU スケールアップ ネットワーク

Scale-UP 相互接続に RoCE を利用する Intel の Gaudi-3 の最近の発売と、NVLink の Ethernet への置き換えに関する Jim Keller の議論により、この革新的なアプローチが注目を集めています。特に、Jim Keller が関与している Tenstorrent は、イーサネットを使用したチップ間のネットワーク相互接続を巧みに実装しています。したがって、次のことに対処することが重要です。

続きを読む»
NVIDIA-H100 対 A100-3

NVIDIA H100 と A100: ニーズに最適な GPU を明らかにする

人工知能 (AI) とハイパフォーマンス コンピューティング (HPC) の中には、完璧なグラフィック プロセッシング ユニット (GPU) が計算集約型アプリケーションのパフォーマンスを左右する、急速に変化する世界があります。これらのモデルのうち、NVIDIA H100 と A100 の XNUMX つは、この分野で注目を集めています。どちらも NVIDIA によって作成されました

続きを読む»

コメント

上へスクロール