400G リンクの一方の端に OSFP を配置し、もう一方の端に QSFP-DD を配置できますか?

ファイバーモール

ファイバーモール

午前9時37分に回答済み

はい、同じ光インターフェイスと変調方式と互換性がある限り、400G リンクの一方の端に OSFP を配置し、もう一方の端に QSFP-DD を配置することができます。 たとえば、一方の端で 400G OSFP FR4 モジュールを使用し、もう一方の端で 400G QSFP-DD FR4 モジュールを使用できます。これは、どちらもシングルモード ファイバ上で 4x100G PAM4 をサポートしているためです。 ただし、OSFP モジュールを QSFP-DD ケーブルに接続する、またはその逆に接続するにはアダプタが必要です。 OSFP は、QSFP-DD と同様に QSFP+/QSFP28 との下位互換性がありますが、追加の OSFP to QSFP アダプタが必要です。 OSFP は QSFP よりもわずかに幅が広く奥行きがあるため、OSFP ケージ内の既存の 100G QSFP 光モジュール (QSFP28) をサポートするアダプタを構築することができます。

人々も尋ねる

イーサネットベースの GPU スケールアップ ネットワーク

Scale-UP 相互接続に RoCE を利用する Intel の Gaudi-3 の最近の発売と、NVLink の Ethernet への置き換えに関する Jim Keller の議論により、この革新的なアプローチが注目を集めています。特に、Jim Keller が関与している Tenstorrent は、イーサネットを使用したチップ間のネットワーク相互接続を巧みに実装しています。したがって、次のことに対処することが重要です。

NVIDIA H100 と A100: ニーズに最適な GPU を明らかにする

人工知能 (AI) とハイパフォーマンス コンピューティング (HPC) の中には、完璧なグラフィック プロセッシング ユニット (GPU) が計算集約型アプリケーションのパフォーマンスを左右する、急速に変化する世界があります。これらのモデルのうち、NVIDIA H100 と A100 の XNUMX つは、この分野で注目を集めています。どちらも NVIDIA によって作成されました

Nvidia H100 で AI の力を解き放つ: 究極の深層学習 GPU

Nvidia H100 で AI のパワーを解放: 究極のディープ ラーニング GPU 急速に変化する人工知能 (AI) とディープ ラーニングの世界では、強力な計算リソースに対する需要が急増しています。 Nvidia H100 GPU は、これらのニーズに対する革新的な答えであり、

NVIDIA GB200 が 800G/1.6T DAC/ACC を活用する方法

NVIDIA は、パフォーマンスが大幅に向上した最新の GB200 シリーズ コンピューティング システムをリリースしました。これらのシステムは銅と光の両方の相互接続を利用しているため、市場では「銅」と「光」テクノロジーの進化について多くの議論が行われています。現状: GB200 (以前の GH200 を含む) シリーズは、NVIDIA の「スーパーチップ」システムです。に比べ

NVIDIA GB200 分析: 相互接続アーキテクチャと将来の進化

GB200 インターコネクト アーキテクチャの分析 NVLink 帯域幅の計算 NVIDIA では、NVLink 伝送帯域幅の計算とサブリンク/ポート/レーンの概念に多くの混乱があります。通常、単一の B200 チップの NVLink 帯域幅は 1.8TB/秒です。これは通常、メモリ帯域幅アルゴリズムを使用して計算され、単位はバイトです。

AEC、DAC、AOCの市場予測

Lightcounting の最近のレポートによると、アクティブ電気ケーブル (AEC)、デジタルアナログコンバーター (DAC)、およびアクティブ光ケーブル (AOC) の市場は、1.2 年の 2023 億ドルから 2.8 年までに 2028 億ドルに成長すると予想されています。市場成長率 パフォーマンスとコストの傾向 AOC offAECと比較して優れたパフォーマンス

関連記事

800g SR8 および 400g SR4

800G SR8 および 400G SR4 光トランシーバー モジュールの互換性および相互接続テスト レポート

バージョン変更ログ ライター V0 サンプル テスト Cassie テスト目的 テスト対象:800G OSFP SR8/400G OSFP SR4/400G Q112 SR4。 対応するテストを実施することにより、テストパラメータは関連する業界標準を満たし、テストモジュールは通常、Nvidia (Mellanox) MQM9790 スイッチ、Nvidia (Mellanox) ConnectX-7 ネットワーク カード、および Nvidia (Mellanox) BlueField-3 に使用でき、のための基礎

続きを読む»
ScaleUP のためのメモリ プーリング

イーサネットベースの GPU スケールアップ ネットワーク

Scale-UP 相互接続に RoCE を利用する Intel の Gaudi-3 の最近の発売と、NVLink の Ethernet への置き換えに関する Jim Keller の議論により、この革新的なアプローチが注目を集めています。特に、Jim Keller が関与している Tenstorrent は、イーサネットを使用したチップ間のネットワーク相互接続を巧みに実装しています。したがって、次のことに対処することが重要です。

続きを読む»
NVIDIA-H100 対 A100-3

NVIDIA H100 と A100: ニーズに最適な GPU を明らかにする

人工知能 (AI) とハイパフォーマンス コンピューティング (HPC) の中には、完璧なグラフィック プロセッシング ユニット (GPU) が計算集約型アプリケーションのパフォーマンスを左右する、急速に変化する世界があります。これらのモデルのうち、NVIDIA H100 と A100 の XNUMX つは、この分野で注目を集めています。どちらも NVIDIA によって作成されました

続きを読む»
gb200

NVIDIA GB200 が 800G/1.6T DAC/ACC を活用する方法

NVIDIA は、パフォーマンスが大幅に向上した最新の GB200 シリーズ コンピューティング システムをリリースしました。これらのシステムは銅と光の両方の相互接続を利用しているため、市場では「銅」と「光」テクノロジーの進化について多くの議論が行われています。現状: GB200 (以前の GH200 を含む) シリーズは、NVIDIA の「スーパーチップ」システムです。に比べ

続きを読む»
GB200 NVL72

NVIDIA GB200 分析: 相互接続アーキテクチャと将来の進化

GB200 インターコネクト アーキテクチャの分析 NVLink 帯域幅の計算 NVIDIA では、NVLink 伝送帯域幅の計算とサブリンク/ポート/レーンの概念に多くの混乱があります。通常、単一の B200 チップの NVLink 帯域幅は 1.8TB/秒です。これは通常、メモリ帯域幅アルゴリズムを使用して計算され、単位はバイトです。

続きを読む»
モジュール

AEC、DAC、AOCの市場予測

Lightcounting の最近のレポートによると、アクティブ電気ケーブル (AEC)、デジタルアナログコンバーター (DAC)、およびアクティブ光ケーブル (AOC) の市場は、1.2 年の 2023 億ドルから 2.8 年までに 2028 億ドルに成長すると予想されています。市場成長率 パフォーマンスとコストの傾向 AOC offAECと比較して優れたパフォーマンス

続きを読む»

コメント

上へスクロール