「100G ラムダ」オプティクスとは何ですか?

ハリー・コリンズ

ハリー・コリンズ

午前8時05分に回答済み

100G ラムダ オプティクスは、単一の波長またはラムダで 100 ギガビット/秒 (Gbps) のデータを送信する光トランシーバーです。 彼らは PAM4 (Pulse Amplitude Modulation 4 の略) と呼ばれる変調技術を使用して、シンボルごとに XNUMX ビットの情報をエンコードします。 これにより、シンボルごとに XNUMX ビットをエンコードする従来の NRZ (Non-Return-to-Zero) 変調よりも高いデータ レートを実現できます。

100G Lambda Optics は、より高い帯域幅を実現するために 200G 信号の複数のレーンを使用する 400G および 100G イーサネット規格と互換性があります。 また、100G DR (デュプレックス リーチ)、100G FR (100 波長)、100G LR4 (ロング リーチ) など、異なる変調方式や波長を使用する他の XNUMXG 光ファイバーと相互運用することもできます。 トランシーバーの種類とモデルに応じて、さまざまな距離とアプリケーションをサポートできます。

  • QSFP-100G-DR: 100GBASE-DR シングル ラムダ QSFP、デュプレックス SMF 経由で最大 500m。
  • QSFP-100G-FR: 100GBASE-FR シングル ラムダ QSFP、デュプレックス SMF 経由で最大 2km。
  • QSFP-100G-LR: 100GBASE-LR シングル ラムダ QSFP、デュプレックス SMF で最大 10 km。

レガシー 100g 光学系

100g シングルラムダ光学系

100G ラムダ オプティクスの利点の一部は次のとおりです。

他の 100G 光ファイバーよりも使用するコンポーネントと波長が少ないため、光モジュールとファイバー インフラストラクチャの複雑さとコストが軽減されます。

パフォーマンスや互換性を犠牲にすることなく、新しいフォーム ファクターやより高いデータ レートに再利用またはアップグレードできるため、ネットワークの将来性と拡張性が可能になります。

同じタイプの光ファイバーを使用してさまざまなタイプのデバイスやネットワークに接続できるため、データセンター運営者に運用の柔軟性と効率性を提供します。

人々も尋ねる

A100/H100/GH200 クラスタ: ネットワーク アーキテクチャと光モジュールの要件

従来のデータセンターは、主にデータセンター内の東西トラフィックの増加に対応するために、3 層アーキテクチャからリーフスパイン アーキテクチャへの移行を経験しました。クラウドへのデータ移行プロセスが加速し続けるにつれて、クラウド コンピューティング データセンターの規模は拡大し続けています。アプリケーション

PCIEの開発

2012 年には、PCIE プロトコルを使用して XNUMX つのボード間の通信が光ファイバー経由で実現されました。そうすることの利点は、予約された光ポートにより XNUMX つのデバイスを物理的に分離できること、予約された光インターフェイスとメモリに互換性があり、相互にアクセスできることです。

高性能サーバーで NVIDIA H100 GPU のパワーを解放する

データ量の増加と計算要件の増大を特徴とする現代のコンピューティングのプレッシャーのかかる環境では、高性能サーバーの先駆者である NVIDIA H100 GPU の出現が目の当たりにしました。この記事は、NVIDIA H100 GPU の背後にある革新的な機能と新しいテクノロジーを明らかにすることを目的としています。

次世代ファイバーネットワーク向けの Nvidia MPO ケーブルの可能性を解き放つ

Nvidia MPO ケーブルは、今日の絶え間なく変化する通信およびデータセンター ネットワーキングの世界においてイノベーションの最前線にあります。これらは、容量、効率、拡張性の点でファイバー ネットワークの大幅な向上を約束します。このホワイトペーパーでは、さまざまな可能性を評価することを目指しています。 offこれらの先進的なケーブル配線ソリューションにより、

NVIDIA HGX プラットフォームの紹介: AI とハイ パフォーマンス コンピューティングの加速

NVIDIA の HGX プラットフォームは、AI と HPC における画期的な進歩です。今日のデータ集約型環境で増大する電力需要に応えるように設計されており、最先端の GPU テクノロジーと統合されています。優れた処理効率と柔軟性を実現します。この紹介文は、読者に予備知識を提供することを目的としています。

革新的な Nvidia DGX GH200: AI スーパーコンピューターの未来を推進

Nvidia DGX GH200 は、人工知能 (AI) と機械学習のパラダイム シフトを表し、AI スーパーコンピューターの新たな章の幕開けとなります。これは、拡大するニーズに応える比類のない計算能力、高速性、エネルギー効率で複雑な AI ワークロードを処理できる最先端のシステムとして設計されています。この記事

関連記事

800g SR8 および 400g SR4

800G SR8 および 400G SR4 光トランシーバー モジュールの互換性および相互接続テスト レポート

バージョン変更ログ ライター V0 サンプル テスト Cassie テスト目的 テスト対象:800G OSFP SR8/400G OSFP SR4/400G Q112 SR4。 対応するテストを実施することにより、テストパラメータは関連する業界標準を満たし、テストモジュールは通常、Nvidia (Mellanox) MQM9790 スイッチ、Nvidia (Mellanox) ConnectX-7 ネットワーク カード、および Nvidia (Mellanox) BlueField-3 に使用でき、のための基礎

続きを読む»
メタネットワーキングスケール-32k-スケール-トポロジー

A100/H100/GH200 クラスタ: ネットワーク アーキテクチャと光モジュールの要件

従来のデータセンターは、主にデータセンター内の東西トラフィックの増加に対応するために、3 層アーキテクチャからリーフスパイン アーキテクチャへの移行を経験しました。クラウドへのデータ移行プロセスが加速し続けるにつれて、クラウド コンピューティング データセンターの規模は拡大し続けています。アプリケーション

続きを読む»
PCIE GEN4 ファイバーリンク図

PCIEの開発

2012 年には、PCIE プロトコルを使用して XNUMX つのボード間の通信が光ファイバー経由で実現されました。そうすることの利点は、予約された光ポートにより XNUMX つのデバイスを物理的に分離できること、予約された光インターフェイスとメモリに互換性があり、相互にアクセスできることです。

続きを読む»
高性能サーバーで NVIDIA H100 GPU のパワーを解放する

高性能サーバーで NVIDIA H100 GPU のパワーを解放する

データ量の増加と計算要件の増大を特徴とする現代のコンピューティングのプレッシャーのかかる環境では、高性能サーバーの先駆者である NVIDIA H100 GPU の出現が目の当たりにしました。この記事は、NVIDIA H100 GPU の背後にある革新的な機能と新しいテクノロジーを明らかにすることを目的としています。

続きを読む»
8 ファイバー mpo ケーブル 1

次世代ファイバーネットワーク向けの Nvidia MPO ケーブルの可能性を解き放つ

Nvidia MPO ケーブルは、今日の絶え間なく変化する通信およびデータセンター ネットワーキングの世界においてイノベーションの最前線にあります。これらは、容量、効率、拡張性の点でファイバー ネットワークの大幅な向上を約束します。このホワイトペーパーでは、さまざまな可能性を評価することを目指しています。 offこれらの先進的なケーブル配線ソリューションにより、

続きを読む»
nvidia hgx

NVIDIA HGX プラットフォームの紹介: AI とハイ パフォーマンス コンピューティングの加速

NVIDIA の HGX プラットフォームは、AI と HPC における画期的な進歩です。今日のデータ集約型環境で増大する電力需要に応えるように設計されており、最先端の GPU テクノロジーと統合されています。優れた処理効率と柔軟性を実現します。この紹介文は、読者に予備知識を提供することを目的としています。

続きを読む»
革新的な Nvidia DGX GH200: AI スーパーコンピューターの未来を推進

革新的な Nvidia DGX GH200: AI スーパーコンピューターの未来を推進

Nvidia DGX GH200 は、人工知能 (AI) と機械学習のパラダイム シフトを表し、AI スーパーコンピューターの新たな章の幕開けとなります。これは、拡大するニーズに応える比類のない計算能力、高速性、エネルギー効率で複雑な AI ワークロードを処理できる最先端のシステムとして設計されています。この記事

続きを読む»

コメント

上へスクロール