- ミア
- 2023 年 9 月 23 日
- 5:55午前
ハーパー・ロス
午前5時55分に回答済み
100GBASE-LR4 QSFP28、LC コネクタを備えた二重シングルモード ファイバー (SMF) で最大 10 km をサポートできます。 このトランシーバーは 1310nm LAN WDM の 100 つの波長を使用して 802.3G データ レートを実現します。 IEEE 100ba 4GBASE-LR28 および QSFPXNUMX MSA 規格に準拠しています。
100GBASE-ER4L QSFP28、製品仕様に応じて、LC コネクタを備えたデュプレックス SMF で最大 25 km または 40 km をサポートできます。 このトランシーバーは、1310nm LAN WDM の 100 つの波長を使用して 802.3G データ レートを実現します。 IEEE 100ba 4GBASE-ER28 および QSFPXNUMX MSA 規格に準拠しています。
100GBASE-ZR4 QSFP28、LC コネクタを備えたデュプレックス SMF で最大 80 km をサポートできます。 このトランシーバーは、1310nm LAN WDM の 100 つの波長を使用して 802.3G データ レートを実現します。 IEEE 100ba 4GBASE-ZR28 および QSFPXNUMX MSA 規格に準拠しています。
人々も尋ねる
関連記事
800G SR8 および 400G SR4 光トランシーバー モジュールの互換性および相互接続テスト レポート
バージョン変更ログ ライター V0 サンプル テスト Cassie テスト目的 テスト対象:800G OSFP SR8/400G OSFP SR4/400G Q112 SR4。 対応するテストを実施することにより、テストパラメータは関連する業界標準を満たし、テストモジュールは通常、Nvidia (Mellanox) MQM9790 スイッチ、Nvidia (Mellanox) ConnectX-7 ネットワーク カード、および Nvidia (Mellanox) BlueField-3 に使用でき、のための基礎
革新的な Nvidia DGX GH200: AI スーパーコンピューターの未来を推進
Nvidia DGX GH200 は、人工知能 (AI) と機械学習のパラダイム シフトを表し、AI スーパーコンピューターの新たな章の幕開けとなります。これは、拡大するニーズに応える比類のない計算能力、高速性、エネルギー効率で複雑な AI ワークロードを処理できる最先端のシステムとして設計されています。この記事
イーサネットベースの GPU スケールアップ ネットワーク
Scale-UP 相互接続に RoCE を利用する Intel の Gaudi-3 の最近の発売と、NVLink の Ethernet への置き換えに関する Jim Keller の議論により、この革新的なアプローチが注目を集めています。特に、Jim Keller が関与している Tenstorrent は、イーサネットを使用したチップ間のネットワーク相互接続を巧みに実装しています。したがって、次のことに対処することが重要です。
NVIDIA H100 と A100: ニーズに最適な GPU を明らかにする
人工知能 (AI) とハイパフォーマンス コンピューティング (HPC) の中には、完璧なグラフィック プロセッシング ユニット (GPU) が計算集約型アプリケーションのパフォーマンスを左右する、急速に変化する世界があります。これらのモデルのうち、NVIDIA H100 と A100 の XNUMX つは、この分野で注目を集めています。どちらも NVIDIA によって作成されました
Nvidia H100 で AI の力を解き放つ: 究極の深層学習 GPU
Nvidia H100 で AI のパワーを解放: 究極のディープ ラーニング GPU 急速に変化する人工知能 (AI) とディープ ラーニングの世界では、強力な計算リソースに対する需要が急増しています。 Nvidia H100 GPU は、これらのニーズに対する革新的な答えであり、
NVIDIA GB200 が 800G/1.6T DAC/ACC を活用する方法
NVIDIA は、パフォーマンスが大幅に向上した最新の GB200 シリーズ コンピューティング システムをリリースしました。これらのシステムは銅と光の両方の相互接続を利用しているため、市場では「銅」と「光」テクノロジーの進化について多くの議論が行われています。現状: GB200 (以前の GH200 を含む) シリーズは、NVIDIA の「スーパーチップ」システムです。に比べ
NVIDIA GB200 分析: 相互接続アーキテクチャと将来の進化
GB200 インターコネクト アーキテクチャの分析 NVLink 帯域幅の計算 NVIDIA では、NVLink 伝送帯域幅の計算とサブリンク/ポート/レーンの概念に多くの混乱があります。通常、単一の B200 チップの NVLink 帯域幅は 1.8TB/秒です。これは通常、メモリ帯域幅アルゴリズムを使用して計算され、単位はバイトです。