- キャサリン
ジョン・ドウ
午前8時10分に回答済み
PAM-4 と NRZ は、電気チャネルまたは光チャネルを介してデータを送信するために使用される 4 つの異なる変調技術です。 変調は、信号の特性 (電圧、振幅、周波数など) を変更して情報をエンコードするプロセスです。 PAM-XNUMX と NRZ には、チャネル特性とデータ レートに応じて異なる利点と欠点があります。
PAM-4 は、パルス振幅変調 4 レベルの略です。 これは、信号が 4 つの異なるレベルの振幅 (または電圧) を持つことができ、それぞれが 0 ビットの情報を表すことを意味します。 たとえば、PAM-1 信号は、2V、3V、00V、および 01V を使用して、それぞれ 11、10、4、および 4 をエンコードできます。 PAM-4 は、同じシンボル レート (またはボー レート) で NRZ の 4 倍のデータを送信できます。これは、400 秒あたりの信号の変化の回数です。 ただし、PAM-XNUMX には、消費電力が高い、信号対雑音比 (SNR) が低い、ビット誤り率 (BER) が高いなど、いくつかの欠点もあります。 PAM-XNUMX では、これらの課題を克服するために、より高度な信号処理とエラー訂正技術が必要です。 PAM-XNUMX は、XNUMXG イーサネットなどの高速データ伝送に使用されます。

NRZ はノンリターントゥゼロの略です。 これは、信号が 1 つの異なるレベルの振幅 (または電圧) を持つことができ、それぞれが 1 ビットの情報を表すことを意味します。 たとえば、NRZ 信号は、-0V と +1V を使用してそれぞれ 4 と 4 をエンコードできます。 NRZ はシンボル間でゼロ電圧に戻らないため、この名前が付けられています。 NRZ には、PAM-100 に比べて、低消費電力、高 SNR、低 BER などの利点があります。 NRZ は PAM-XNUMX よりもシンプルで堅牢ですが、同じシンボル レートでもデータ レートが低くなります。 NRZ は、XNUMXG イーサネットなどの短距離データ伝送に使用されます。

信号が「25Gb/s NRZ」または「25G NRZ」と呼ばれる場合、信号が NRZ 変調により 25 Gbit/秒でデータを伝送していることを意味します。 信号が「50G PAM-4」または「100G PAM-4」と呼ばれる場合、信号が PAM-50 変調を使用して、それぞれ 100 ギガビット/秒、または 4 ギガビット/秒の速度でデータを伝送していることを意味します。 。
人々も尋ねる
関連記事

800G SR8 および 400G SR4 光トランシーバー モジュールの互換性および相互接続テスト レポート
バージョン変更ログ ライター V0 サンプル テスト Cassie テスト目的 テスト対象:800G OSFP SR8/400G OSFP SR4/400G Q112 SR4。 対応するテストを実施することにより、テストパラメータは関連する業界標準を満たし、テストモジュールは通常、Nvidia (Mellanox) MQM9790 スイッチ、Nvidia (Mellanox) ConnectX-7 ネットワーク カード、および Nvidia (Mellanox) BlueField-3 に使用でき、のための基礎

グローバル400Gイーサネットスイッチ市場と技術アーキテクチャに関する詳細な調査レポート:AI主導のネットワーク再構築とエコシステムの進化
概要:デジタル経済と人工知能(AI)技術の爆発的な成長に伴い、世界のデータセンターネットワークインフラは、100Gから400G/800Gへの移行という歴史的に重要な節目を迎えています。大規模言語モデル(LLM)のパラメータが兆単位を突破し、高性能コンピューティング(HPC)の需要が高まるにつれ、

スタックOSFP光トランシーバコールドプレート液体冷却の主な設計制約
序文 データセンター業界では既に800G/1.6T光モジュールが大規模に採用されており、光モジュールのコールドプレート液冷の需要が大幅に増加しています。この業界の需要に応えるため、OSFP-MSA V5.22バージョンでは、コールドプレート液冷に適用可能なソリューションが追加されました。現在、

NVIDIA DGX Spark クイック スタート ガイド: デスク上のパーソナル AI スーパーコンピューター
NVIDIA DGX Sparkは、NVIDIA GB10 Grace Blackwellスーパーチップを搭載した世界最小のAIスーパーコンピューターで、データセンタークラスのAIパフォーマンスをデスクトップに提供します。最大1PFLOPSのFP4 AIコンピューティングと128GBの統合メモリを備え、最大200億パラメータのモデルに対するローカル推論と、モデルの微調整を可能にします。

RoCEv2 の解説: AI データセンターにおける低遅延・高スループットネットワークの究極ガイド
AIトレーニング、ハイパフォーマンスコンピューティング(HPC)、クラウドインフラストラクチャの急速に進化する世界において、ネットワークパフォーマンスはもはや単なる補助的な役割ではなく、ボトルネックを解消する要因となっています。RoCEv2(RDMA over Converged Ethernet version 2)は、超低遅延、高スループット、最小限のCPU負荷を実現するロスレスイーサネットネットワークを構築するための、頼りになるプロトコルとして登場しました。

AIサーバー向け液体冷却コールドプレートの開発、製造、組み立て、テストに関する包括的なガイド
急速に進化するAIサーバーと高性能コンピューティングの世界では、効果的な熱管理が不可欠です。液冷式コールドプレートは、データセンターやクラウド環境における高出力プロセッサの放熱に優れたソリューションとして登場しました。この詳細なガイドでは、コールドプレートの製造と組み立てから開発要件まで、あらゆる側面を網羅しています。

GoogleのTPUアーキテクチャを公開:OCS光回線スイッチング - 4x4x4キューブから9216チップのアイアンウッドへの進化エンジン
GoogleのTPUクラスタがAIスーパーコンピューティングの競争で際立っている理由は何でしょうか?3DトーラストポロジーとOCS(光回線交換)技術の組み合わせにより、低レイテンシと最適なTCO(総所有コスト)を維持しながら、大規模なスケーリングをどのように実現したのでしょうか?この詳細なブログ記事では、
