Können die Transceiver 400G-FR4 und 400G-LR4 miteinander interagieren?

Harper Ross

Harper Ross

Beantwortet am 1:59 Uhr

Ja, die Transceiver 400G-FR4 und 400G-LR4 können bis zu einer Reichweite von 2 km zusammenarbeiten (begrenzt durch FR4). Beachten Sie, dass die maximal zulässige Empfängerleistung für den 400G-FR4 (maximale Rx-Leistung von 3.5 dBm) bei Anschluss an einen 400G-LR4-Sender (maximale Tx-Leistung von 5.1 dBm) möglicherweise eine Mindestdämpfung erfordert.

Laut dem Cisco 400G QSFP-DD-Kabel- und Transceivermodul-Datenblatt entsprechen die 400G-FR4- und 400G-LR4-Transceiver beide dem 100G-Lambda-MSA-Standard, der eine gemeinsame optische Schnittstelle für 100G-pro-Wellenlängen-Anwendungen definiert. Die 400G-FR4- und 400G-LR4-Transceiver verwenden vier optische Spuren, die jeweils ein 100G-PAM4-Signal über eine Duplex-LC-Singlemode-Faser übertragen. Der Hauptunterschied zwischen ihnen ist die Übertragungsentfernung: Der 400G-FR4 kann bis zu 2 km erreichen, während der 400G-LR4 bis zu 10 km erreichen kann.

Um diese Transceiver zusammenarbeiten zu können, müssen sie daher über kompatible Wellenlängen, Leistungsbudgets und Dispersionskompensation verfügen. Das 100G Lambda MSA spezifiziert zwei Sätze von Wellenlängen für 100G-Anwendungen pro Wellenlänge: LAN-WDM (1295.56 nm, 1300.05 nm, 1304.58 nm und 1309.14 nm) und CWDM4 (1271 nm, 1291 nm, 1311 nm und 1331 nm).

Leute fragen auch

Entwicklung von PCIE

Im Jahr 2012 wurde die Kommunikation zwischen zwei Platinen über Glasfaser mithilfe des PCIE-Protokolls realisiert. Die Vorteile dabei sind: Der reservierte optische Port ermöglicht die physische Trennung der beiden Geräte, und die reservierte optische Schnittstelle und der Speicher sind miteinander kompatibel und können voneinander abgerufen werden.

Nutzen Sie die Leistung von NVIDIA H100-GPUs in Hochleistungsservern

In der Hochdrucklandschaft des modernen Computing, die durch steigende Datenmengen und steigende Rechenanforderungen gekennzeichnet ist, ist die NVIDIA H100-GPU entstanden, ein Vorreiter bei Hochleistungsservern. Ziel des Artikels ist es, die revolutionären Funktionen und neuartigen Technologien hinter der NVIDIA H100-GPU vorzustellen

Erschließen Sie das Potenzial von Nvidia MPO-Kabeln für Glasfasernetzwerke der nächsten Generation

Nvidia MPO-Kabel stehen an der Spitze der Innovation und stehen in der sich ständig verändernden Welt der Telekommunikation und Rechenzentrumsvernetzung von heute. Sie versprechen einen erheblichen Schub für Glasfasernetze in Bezug auf Kapazität, Effizienz und Skalierbarkeit. In diesem Artikel sollen die verschiedenen Möglichkeiten bewertet werden offWir sind von diesen fortschrittlichen Verkabelungslösungen mit Respekt beeindruckt

Vorstellung der NVIDIA HGX-Plattform: Beschleunigung von KI und Hochleistungsrechnen

Die HGX-Plattform von NVIDIA ist ein bahnbrechender Fortschritt in den Bereichen KI und HPC. Es wurde entwickelt, um den wachsenden Energieanforderungen der heutigen datenintensiven Umgebungen gerecht zu werden, und wurde mit modernster GPU-Technologie kombiniert. Es bietet eine hervorragende Verarbeitungseffizienz und Flexibilität. Diese Einführung soll den Lesern einen ersten Eindruck vermitteln

Der revolutionäre Nvidia DGX GH200: Antrieb für die Zukunft der KI-Supercomputer

Nvidia DGX GH200 stellt einen Paradigmenwechsel in der künstlichen Intelligenz (KI) und im maschinellen Lernen dar und leitet ein neues Kapitel für KI-Supercomputer ein. Es wurde als hochmodernes System konzipiert, das in der Lage ist, komplexe KI-Arbeitslasten mit unübertroffener Rechenleistung, Schnelligkeit und Energieeffizienz zu bewältigen und so den wachsenden Anforderungen gerecht zu werden. Dieser Artikel

Ethernet-basierte GPU-Scale-UP-Netzwerke

Die jüngste Einführung von Intels Gaudi-3, das RoCE für Scale-UP-Verbindungen nutzt, sowie Jim Kellers Diskussionen über den Ersatz von NVLink durch Ethernet haben die Aufmerksamkeit auf diesen innovativen Ansatz gelenkt. Insbesondere Tenstorrent, an dem Jim Keller beteiligt ist, hat die Netzwerkverbindung zwischen Chips mithilfe von Ethernet geschickt implementiert. Daher ist es wichtig, sich mit dem Problem zu befassen

Ähnliche Artikel

800g SR8 und 400g SR4

Testbericht zur Kompatibilität und Verbindung der optischen Transceivermodule 800G SR8 und 400G SR4

Version Change Log Writer V0 Beispieltest Cassie Testzweck Testobjekte: 800G OSFP SR8/400G OSFP SR4/400G Q112 SR4. Durch die Durchführung entsprechender Tests entsprechen die Testparameter den relevanten Industriestandards und die Testmodule können normalerweise für den Nvidia (Mellanox) MQM9790-Switch, die Nvidia (Mellanox) ConnectX-7-Netzwerkkarte und Nvidia (Mellanox) BlueField-3 verwendet werden, wobei a Grundlage für

Mehr lesen »
PCIE GEN4-Glasfaserverbindungsdiagramm

Entwicklung von PCIE

Im Jahr 2012 wurde die Kommunikation zwischen zwei Platinen über Glasfaser mithilfe des PCIE-Protokolls realisiert. Die Vorteile dabei sind: Der reservierte optische Port ermöglicht die physische Trennung der beiden Geräte, und die reservierte optische Schnittstelle und der Speicher sind miteinander kompatibel und können voneinander abgerufen werden.

Mehr lesen »
Nutzen Sie die Leistung von NVIDIA H100-GPUs in Hochleistungsservern

Nutzen Sie die Leistung von NVIDIA H100-GPUs in Hochleistungsservern

In der Hochdrucklandschaft des modernen Computing, die durch steigende Datenmengen und steigende Rechenanforderungen gekennzeichnet ist, ist die NVIDIA H100-GPU entstanden, ein Vorreiter bei Hochleistungsservern. Ziel des Artikels ist es, die revolutionären Funktionen und neuartigen Technologien hinter der NVIDIA H100-GPU vorzustellen

Mehr lesen »
8-Faser-MPO-Kabel-1

Erschließen Sie das Potenzial von Nvidia MPO-Kabeln für Glasfasernetzwerke der nächsten Generation

Nvidia MPO-Kabel stehen an der Spitze der Innovation und stehen in der sich ständig verändernden Welt der Telekommunikation und Rechenzentrumsvernetzung von heute. Sie versprechen einen erheblichen Schub für Glasfasernetze in Bezug auf Kapazität, Effizienz und Skalierbarkeit. In diesem Artikel sollen die verschiedenen Möglichkeiten bewertet werden offWir sind von diesen fortschrittlichen Verkabelungslösungen mit Respekt beeindruckt

Mehr lesen »
nvidia hgx

Vorstellung der NVIDIA HGX-Plattform: Beschleunigung von KI und Hochleistungsrechnen

Die HGX-Plattform von NVIDIA ist ein bahnbrechender Fortschritt in den Bereichen KI und HPC. Es wurde entwickelt, um den wachsenden Energieanforderungen der heutigen datenintensiven Umgebungen gerecht zu werden, und wurde mit modernster GPU-Technologie kombiniert. Es bietet eine hervorragende Verarbeitungseffizienz und Flexibilität. Diese Einführung soll den Lesern einen ersten Eindruck vermitteln

Mehr lesen »
Der revolutionäre Nvidia DGX GH200: Antrieb für die Zukunft der KI-Supercomputer

Der revolutionäre Nvidia DGX GH200: Antrieb für die Zukunft der KI-Supercomputer

Nvidia DGX GH200 stellt einen Paradigmenwechsel in der künstlichen Intelligenz (KI) und im maschinellen Lernen dar und leitet ein neues Kapitel für KI-Supercomputer ein. Es wurde als hochmodernes System konzipiert, das in der Lage ist, komplexe KI-Arbeitslasten mit unübertroffener Rechenleistung, Schnelligkeit und Energieeffizienz zu bewältigen und so den wachsenden Anforderungen gerecht zu werden. Dieser Artikel

Mehr lesen »
Speicherpooling für ScaleUP

Ethernet-basierte GPU-Scale-UP-Netzwerke

Die jüngste Einführung von Intels Gaudi-3, das RoCE für Scale-UP-Verbindungen nutzt, sowie Jim Kellers Diskussionen über den Ersatz von NVLink durch Ethernet haben die Aufmerksamkeit auf diesen innovativen Ansatz gelenkt. Insbesondere Tenstorrent, an dem Jim Keller beteiligt ist, hat die Netzwerkverbindung zwischen Chips mithilfe von Ethernet geschickt implementiert. Daher ist es wichtig, sich mit dem Problem zu befassen

Mehr lesen »

Hinterlasse einen Kommentar

Nach oben scrollen