100G-DR、100G-FR、100G-LR QSFP トランシーバーとは何ですか?

ハリー・コリンズ

ハリー・コリンズ

午前2時21分に回答済み

100G-DR、100G-FR、および 100G-LR QSFP トランシーバは、シングルモード ファイバ上で 100 ギガビット イーサネット データ レートをサポートする光モジュールです。 これらは、IEEE 802.3 標準および 100G Lambda MSA 仕様に基づいています。 単一波長の光を使用してデータを送受信するため、光学コンポーネントの複雑さとコストが削減されます。 また、小型フォームファクターと低消費電力を備えているため、高密度および低電力アプリケーションに適しています。

100 種類のトランシーバーの主な違いは、到達距離と他のモジュールとの相互運用性です。 500G-DR トランシーバは、二重シングルモード ファイバで最大 400 メートルの到達距離をサポートし、4x4GbE ブレークアウト アプリケーションで 100G DR100 モジュールと相互運用できます。 2G-FR トランシーバーは、二重シングルモード ファイバーで最大 400 キロメートルの到達距離をサポートし、4x4GbE ブレークアウト アプリケーションで 100G DR100+ モジュールと相互運用できます。 10G-LR トランシーバーは、二重シングルモード ファイバーで最大 4 キロメートルの到達距離をサポートし、100x1GbE ブレークアウト アプリケーションで 4x100G LRXNUMX モジュールと相互運用できます。

レガシー 100G QSFP モジュールと 100G-DR / FR モジュールの違いを以下に示します。

レガシーモジュールとdr

100G-DR/FR/LR モジュールは、SMF 経由で 500m/2km/10km の到達距離があり、ブレークアウト ケーブルを使用して 400G-DR4/XDR4/PLR4 トランシーバと相互運用するように設計されています。 各 400G-DR4/XDR4/PLR4 モジュールは 4 つの 100G-DR/FR/LR モジュールに接続できます。

人々も尋ねる

A100/H100/GH200 クラスタ: ネットワーク アーキテクチャと光モジュールの要件

従来のデータセンターは、主にデータセンター内の東西トラフィックの増加に対応するために、3 層アーキテクチャからリーフスパイン アーキテクチャへの移行を経験しました。クラウドへのデータ移行プロセスが加速し続けるにつれて、クラウド コンピューティング データセンターの規模は拡大し続けています。アプリケーション

PCIEの開発

2012 年には、PCIE プロトコルを使用して XNUMX つのボード間の通信が光ファイバー経由で実現されました。そうすることの利点は、予約された光ポートにより XNUMX つのデバイスを物理的に分離できること、予約された光インターフェイスとメモリに互換性があり、相互にアクセスできることです。

高性能サーバーで NVIDIA H100 GPU のパワーを解放する

データ量の増加と計算要件の増大を特徴とする現代のコンピューティングのプレッシャーのかかる環境では、高性能サーバーの先駆者である NVIDIA H100 GPU の出現が目の当たりにしました。この記事は、NVIDIA H100 GPU の背後にある革新的な機能と新しいテクノロジーを明らかにすることを目的としています。

次世代ファイバーネットワーク向けの Nvidia MPO ケーブルの可能性を解き放つ

Nvidia MPO ケーブルは、今日の絶え間なく変化する通信およびデータセンター ネットワーキングの世界においてイノベーションの最前線にあります。これらは、容量、効率、拡張性の点でファイバー ネットワークの大幅な向上を約束します。このホワイトペーパーでは、さまざまな可能性を評価することを目指しています。 offこれらの先進的なケーブル配線ソリューションにより、

NVIDIA HGX プラットフォームの紹介: AI とハイ パフォーマンス コンピューティングの加速

NVIDIA の HGX プラットフォームは、AI と HPC における画期的な進歩です。今日のデータ集約型環境で増大する電力需要に応えるように設計されており、最先端の GPU テクノロジーと統合されています。優れた処理効率と柔軟性を実現します。この紹介文は、読者に予備知識を提供することを目的としています。

革新的な Nvidia DGX GH200: AI スーパーコンピューターの未来を推進

Nvidia DGX GH200 は、人工知能 (AI) と機械学習のパラダイム シフトを表し、AI スーパーコンピューターの新たな章の幕開けとなります。これは、拡大するニーズに応える比類のない計算能力、高速性、エネルギー効率で複雑な AI ワークロードを処理できる最先端のシステムとして設計されています。この記事

関連記事

800g SR8 および 400g SR4

800G SR8 および 400G SR4 光トランシーバー モジュールの互換性および相互接続テスト レポート

バージョン変更ログ ライター V0 サンプル テスト Cassie テスト目的 テスト対象:800G OSFP SR8/400G OSFP SR4/400G Q112 SR4。 対応するテストを実施することにより、テストパラメータは関連する業界標準を満たし、テストモジュールは通常、Nvidia (Mellanox) MQM9790 スイッチ、Nvidia (Mellanox) ConnectX-7 ネットワーク カード、および Nvidia (Mellanox) BlueField-3 に使用でき、のための基礎

続きを読む»
メタネットワーキングスケール-32k-スケール-トポロジー

A100/H100/GH200 クラスタ: ネットワーク アーキテクチャと光モジュールの要件

従来のデータセンターは、主にデータセンター内の東西トラフィックの増加に対応するために、3 層アーキテクチャからリーフスパイン アーキテクチャへの移行を経験しました。クラウドへのデータ移行プロセスが加速し続けるにつれて、クラウド コンピューティング データセンターの規模は拡大し続けています。アプリケーション

続きを読む»
PCIE GEN4 ファイバーリンク図

PCIEの開発

2012 年には、PCIE プロトコルを使用して XNUMX つのボード間の通信が光ファイバー経由で実現されました。そうすることの利点は、予約された光ポートにより XNUMX つのデバイスを物理的に分離できること、予約された光インターフェイスとメモリに互換性があり、相互にアクセスできることです。

続きを読む»
高性能サーバーで NVIDIA H100 GPU のパワーを解放する

高性能サーバーで NVIDIA H100 GPU のパワーを解放する

データ量の増加と計算要件の増大を特徴とする現代のコンピューティングのプレッシャーのかかる環境では、高性能サーバーの先駆者である NVIDIA H100 GPU の出現が目の当たりにしました。この記事は、NVIDIA H100 GPU の背後にある革新的な機能と新しいテクノロジーを明らかにすることを目的としています。

続きを読む»
8 ファイバー mpo ケーブル 1

次世代ファイバーネットワーク向けの Nvidia MPO ケーブルの可能性を解き放つ

Nvidia MPO ケーブルは、今日の絶え間なく変化する通信およびデータセンター ネットワーキングの世界においてイノベーションの最前線にあります。これらは、容量、効率、拡張性の点でファイバー ネットワークの大幅な向上を約束します。このホワイトペーパーでは、さまざまな可能性を評価することを目指しています。 offこれらの先進的なケーブル配線ソリューションにより、

続きを読む»
nvidia hgx

NVIDIA HGX プラットフォームの紹介: AI とハイ パフォーマンス コンピューティングの加速

NVIDIA の HGX プラットフォームは、AI と HPC における画期的な進歩です。今日のデータ集約型環境で増大する電力需要に応えるように設計されており、最先端の GPU テクノロジーと統合されています。優れた処理効率と柔軟性を実現します。この紹介文は、読者に予備知識を提供することを目的としています。

続きを読む»
革新的な Nvidia DGX GH200: AI スーパーコンピューターの未来を推進

革新的な Nvidia DGX GH200: AI スーパーコンピューターの未来を推進

Nvidia DGX GH200 は、人工知能 (AI) と機械学習のパラダイム シフトを表し、AI スーパーコンピューターの新たな章の幕開けとなります。これは、拡大するニーズに応える比類のない計算能力、高速性、エネルギー効率で複雑な AI ワークロードを処理できる最先端のシステムとして設計されています。この記事

続きを読む»

コメント

上へスクロール