ブレークアウト モードで使用できる Arista 100G トランシーバとケーブルはどれですか?

ファイバーモール

ファイバーモール

午前6時59分に回答済み

いくつかの Arista 100G トランシーバとケーブルをブレークアウト モードで使用できます。これは、それらを 25 つの XNUMXG チャネルに分割できることを意味します。 これらには次のものが含まれます。

  • QSFP-100G-SR4: 100GBASE-SR4 QSFP 光トランシーバー、パラレル OM70 で最大 3m、または OM100 マルチモード ファイバーで最大 4m
  • QSFP-100G-XSR4: 100GBASE-XSR4 QSFP 光トランシーバー、パラレル OM150 で最大 3 m、または OM300 マルチモード ファイバーで最大 4 m
  • QSFP-100G-PSM4: 100GBASE-PSM4 40G/100G デュアルスピード QSFP 光トランシーバー、パラレル SMF で最大 500m
  • QSFP-100G-PLRL4: 100GBASE-PLRL4 40G/100G デュアルスピード QSFP 光トランシーバー、パラレル SMF 経由で最大 2km
  • CAB-QQ-100G-xM:100GBASE-CR4 QSFP - QSFP Twinax 銅線ケーブル、0.5m ~ 5m
  • CAB-Q-4S-100G-xM:100GBASE-CR4 QSFP から 4 x 25GbE SFP Twinax 銅線ケーブル、1m ~ 5m
  • AOC-QQ-100G-xM: 100GbE QSFP - QSFP アクティブ光ケーブル、1m ~ 30m
  • AOC-Q-4S-100G-xM: Arista AOC-Q-4S-100G-xM 互換 QSFP28 ~ 4x25G SFP28 ブレークアウト アクティブ光ケーブル、3m ~ 30m

これらのトランシーバーとケーブルは、次の表に示すように、ブレークアウト モードで使用する場合、関連する業界標準と相互運用できます。

テーブル

人々も尋ねる

A100/H100/GH200 クラスタ: ネットワーク アーキテクチャと光モジュールの要件

従来のデータセンターは、主にデータセンター内の東西トラフィックの増加に対応するために、3 層アーキテクチャからリーフスパイン アーキテクチャへの移行を経験しました。クラウドへのデータ移行プロセスが加速し続けるにつれて、クラウド コンピューティング データセンターの規模は拡大し続けています。アプリケーション

PCIEの開発

2012 年には、PCIE プロトコルを使用して XNUMX つのボード間の通信が光ファイバー経由で実現されました。そうすることの利点は、予約された光ポートにより XNUMX つのデバイスを物理的に分離できること、予約された光インターフェイスとメモリに互換性があり、相互にアクセスできることです。

高性能サーバーで NVIDIA H100 GPU のパワーを解放する

データ量の増加と計算要件の増大を特徴とする現代のコンピューティングのプレッシャーのかかる環境では、高性能サーバーの先駆者である NVIDIA H100 GPU の出現が目の当たりにしました。この記事は、NVIDIA H100 GPU の背後にある革新的な機能と新しいテクノロジーを明らかにすることを目的としています。

次世代ファイバーネットワーク向けの Nvidia MPO ケーブルの可能性を解き放つ

Nvidia MPO ケーブルは、今日の絶え間なく変化する通信およびデータセンター ネットワーキングの世界においてイノベーションの最前線にあります。これらは、容量、効率、拡張性の点でファイバー ネットワークの大幅な向上を約束します。このホワイトペーパーでは、さまざまな可能性を評価することを目指しています。 offこれらの先進的なケーブル配線ソリューションにより、

NVIDIA HGX プラットフォームの紹介: AI とハイ パフォーマンス コンピューティングの加速

NVIDIA の HGX プラットフォームは、AI と HPC における画期的な進歩です。今日のデータ集約型環境で増大する電力需要に応えるように設計されており、最先端の GPU テクノロジーと統合されています。優れた処理効率と柔軟性を実現します。この紹介文は、読者に予備知識を提供することを目的としています。

革新的な Nvidia DGX GH200: AI スーパーコンピューターの未来を推進

Nvidia DGX GH200 は、人工知能 (AI) と機械学習のパラダイム シフトを表し、AI スーパーコンピューターの新たな章の幕開けとなります。これは、拡大するニーズに応える比類のない計算能力、高速性、エネルギー効率で複雑な AI ワークロードを処理できる最先端のシステムとして設計されています。この記事

関連記事

800g SR8 および 400g SR4

800G SR8 および 400G SR4 光トランシーバー モジュールの互換性および相互接続テスト レポート

バージョン変更ログ ライター V0 サンプル テスト Cassie テスト目的 テスト対象:800G OSFP SR8/400G OSFP SR4/400G Q112 SR4。 対応するテストを実施することにより、テストパラメータは関連する業界標準を満たし、テストモジュールは通常、Nvidia (Mellanox) MQM9790 スイッチ、Nvidia (Mellanox) ConnectX-7 ネットワーク カード、および Nvidia (Mellanox) BlueField-3 に使用でき、のための基礎

続きを読む»
メタネットワーキングスケール-32k-スケール-トポロジー

A100/H100/GH200 クラスタ: ネットワーク アーキテクチャと光モジュールの要件

従来のデータセンターは、主にデータセンター内の東西トラフィックの増加に対応するために、3 層アーキテクチャからリーフスパイン アーキテクチャへの移行を経験しました。クラウドへのデータ移行プロセスが加速し続けるにつれて、クラウド コンピューティング データセンターの規模は拡大し続けています。アプリケーション

続きを読む»
PCIE GEN4 ファイバーリンク図

PCIEの開発

2012 年には、PCIE プロトコルを使用して XNUMX つのボード間の通信が光ファイバー経由で実現されました。そうすることの利点は、予約された光ポートにより XNUMX つのデバイスを物理的に分離できること、予約された光インターフェイスとメモリに互換性があり、相互にアクセスできることです。

続きを読む»
高性能サーバーで NVIDIA H100 GPU のパワーを解放する

高性能サーバーで NVIDIA H100 GPU のパワーを解放する

データ量の増加と計算要件の増大を特徴とする現代のコンピューティングのプレッシャーのかかる環境では、高性能サーバーの先駆者である NVIDIA H100 GPU の出現が目の当たりにしました。この記事は、NVIDIA H100 GPU の背後にある革新的な機能と新しいテクノロジーを明らかにすることを目的としています。

続きを読む»
8 ファイバー mpo ケーブル 1

次世代ファイバーネットワーク向けの Nvidia MPO ケーブルの可能性を解き放つ

Nvidia MPO ケーブルは、今日の絶え間なく変化する通信およびデータセンター ネットワーキングの世界においてイノベーションの最前線にあります。これらは、容量、効率、拡張性の点でファイバー ネットワークの大幅な向上を約束します。このホワイトペーパーでは、さまざまな可能性を評価することを目指しています。 offこれらの先進的なケーブル配線ソリューションにより、

続きを読む»
nvidia hgx

NVIDIA HGX プラットフォームの紹介: AI とハイ パフォーマンス コンピューティングの加速

NVIDIA の HGX プラットフォームは、AI と HPC における画期的な進歩です。今日のデータ集約型環境で増大する電力需要に応えるように設計されており、最先端の GPU テクノロジーと統合されています。優れた処理効率と柔軟性を実現します。この紹介文は、読者に予備知識を提供することを目的としています。

続きを読む»
革新的な Nvidia DGX GH200: AI スーパーコンピューターの未来を推進

革新的な Nvidia DGX GH200: AI スーパーコンピューターの未来を推進

Nvidia DGX GH200 は、人工知能 (AI) と機械学習のパラダイム シフトを表し、AI スーパーコンピューターの新たな章の幕開けとなります。これは、拡大するニーズに応える比類のない計算能力、高速性、エネルギー効率で複雑な AI ワークロードを処理できる最先端のシステムとして設計されています。この記事

続きを読む»

コメント

上へスクロール