- Norbert
- September 6, 2023
- 7: 32 Uhr

Max Mustermann
Beantwortet am 7:32 Uhr
Im Allgemeinen beziehen sich die Buchstaben auf die Reichweite oder die optische Technologie und die Zahl auf die Anzahl der optischen Kanäle:
SR8: Short Range 8. Dieser Transceiver unterstützt 400G-Übertragung über Multimode-Glasfaser (MMF) mit einer maximalen Reichweite von 100 Metern. Es verwendet einen MPO-16-Anschluss und PAM4-Modulation.
SR8-C: Kurzstrecken-8-Kupfer. Dieser Transceiver unterstützt die 400G-Übertragung über Kupferkabel mit einer maximalen Reichweite von 3 Metern. Es verwendet einen QSFP-DD-Anschluss und PAM4-Modulation.
SRBD: Short Range Bidirectional. Dieser Transceiver unterstützt 400G-Übertragung über MMF mit einer maximalen Reichweite von 70 Metern. Er verwendet ein Duplex-LC-Stecker und PAM4-Modulation.
SR4: Short Range 4. Dieser Transceiver unterstützt 400G-Übertragung über MMF mit einer maximalen Reichweite von 100 Metern. Es verwendet einen MPO-12-Anschluss und PAM4-Modulation.
DR4 / XDR4 / PLR4: Data Center Reach 4 / eXtended Data Center Reach 4 / Parallel Long Reach 4. Diese Transceiver unterstützen 400G-Übertragung über Singlemode-Glasfaser (SMF) mit einer maximalen Reichweite von jeweils 500 Metern / 2 Kilometern / 10 Kilometern. Sie verwenden einen MPO-12-Anschluss und PAM4-Modulation.
FR4 / LR4: Fiber Reach 4 / Long Reach 4. Diese Transceiver unterstützen 400G-Übertragung über SMF mit einer maximalen Reichweite von 2 Kilometern bzw. 10 Kilometern. Sie verwenden einen Duplex-LC-Anschluss und PAM4-Modulation.
2FR4: Two Fiber Reach 4. Dieser Transceiver unterstützt 400G-Übertragung über SMF mit einer maximalen Reichweite von 2 Kilometern. Es verwendet zwei Duplex-LC-Anschlüsse und kohärente Modulation.
Leute fragen auch
Spine-Leaf vs. traditionelle Drei-Schichten-Architektur: Umfassender Vergleich und Analyse
Einführung Entwicklung der Rechenzentrumsvernetzung In den letzten Jahrzehnten hat die Rechenzentrumsvernetzung einen massiven Wandel von einfachen lokalen Netzwerken zu komplexen verteilten Systemen durchlaufen. In den 1990er Jahren basierten Rechenzentren hauptsächlich auf einfachen Layer-2-Switching-Netzwerken, bei denen die Server über Hubs oder Low-End-Switches miteinander verbunden waren.
AMD: Pionierarbeit für die Zukunft der Märkte für KI-Flüssigkeitskühlung
In der sich rasant entwickelnden KI-Infrastrukturlandschaft entwickelt sich AMD zu einem entscheidenden Faktor, insbesondere bei Flüssigkeitskühlungstechnologien. Rechenzentren verschieben die Grenzen von Leistung und Effizienz immer weiter, und AMDs neueste Entwicklungen setzen neue Maßstäbe. FiberMall, ein spezialisierter Anbieter von Produkten und Lösungen für die optische Kommunikation, hat sich zum Ziel gesetzt, kostengünstige
Die Entwicklung optischer Module: Antrieb für die Zukunft von Rechenzentren und darüber hinaus
In einer Ära, die von künstlicher Intelligenz (KI), Cloud Computing und Big Data dominiert wird, ist die Nachfrage nach leistungsstarker Datenübertragung so groß wie nie zuvor. Rechenzentren, die Herzstücke dieser digitalen Revolution, müssen riesige Datenmengen mit beispielloser Geschwindigkeit verarbeiten und übertragen. Im Mittelpunkt dieser
Wie ist die thermische Struktur optischer OSFP-Module aufgebaut?
Der Stromverbrauch ultraschneller optischer Module mit 400G OSFP und höheren Raten ist deutlich gestiegen, was das Wärmemanagement zu einer kritischen Herausforderung macht. Für optische Module im OSFP-Gehäusetyp spezifiziert das Protokoll explizit den Impedanzbereich der Kühlrippen. Insbesondere wenn der Kühlgaswinddruck nicht überschreitet
KI-Rechencluster: Antrieb für die Zukunft
In den letzten Jahren hat der globale Aufstieg der künstlichen Intelligenz (KI) große Aufmerksamkeit in der Gesellschaft erregt. Ein häufig diskutierter Punkt im Zusammenhang mit KI ist das Konzept von Rechenclustern – neben Algorithmen und Daten eine der drei Grundsäulen der KI. Diese Rechencluster dienen als primäre Quelle für Rechenleistung.
Rechenzentrums-Switches: Aktuelle Lage und zukünftige Trends
Da künstliche Intelligenz (KI) das exponentielle Wachstum von Datenvolumen und Modellkomplexität vorantreibt, nutzt verteiltes Rechnen vernetzte Knoten, um Trainingsprozesse zu beschleunigen. Rechenzentrums-Switches spielen eine entscheidende Rolle bei der zeitnahen Nachrichtenübermittlung zwischen Knoten, insbesondere in großen Rechenzentren, wo die Latenzzeit für die Bewältigung wettbewerbsintensiver Workloads entscheidend ist.
Ähnliche Artikel

Testbericht zur Kompatibilität und Verbindung der optischen Transceivermodule 800G SR8 und 400G SR4
Version Change Log Writer V0 Beispieltest Cassie Testzweck Testobjekte: 800G OSFP SR8/400G OSFP SR4/400G Q112 SR4. Durch die Durchführung entsprechender Tests entsprechen die Testparameter den relevanten Industriestandards und die Testmodule können normalerweise für den Nvidia (Mellanox) MQM9790-Switch, die Nvidia (Mellanox) ConnectX-7-Netzwerkkarte und Nvidia (Mellanox) BlueField-3 verwendet werden, wobei a Grundlage für

Spine-Leaf vs. traditionelle Drei-Schichten-Architektur: Umfassender Vergleich und Analyse
Einführung Entwicklung der Rechenzentrumsvernetzung In den letzten Jahrzehnten hat die Rechenzentrumsvernetzung einen massiven Wandel von einfachen lokalen Netzwerken zu komplexen verteilten Systemen durchlaufen. In den 1990er Jahren basierten Rechenzentren hauptsächlich auf einfachen Layer-2-Switching-Netzwerken, bei denen die Server über Hubs oder Low-End-Switches miteinander verbunden waren.

AMD: Pionierarbeit für die Zukunft der Märkte für KI-Flüssigkeitskühlung
In der sich rasant entwickelnden KI-Infrastrukturlandschaft entwickelt sich AMD zu einem entscheidenden Faktor, insbesondere bei Flüssigkeitskühlungstechnologien. Rechenzentren verschieben die Grenzen von Leistung und Effizienz immer weiter, und AMDs neueste Entwicklungen setzen neue Maßstäbe. FiberMall, ein spezialisierter Anbieter von Produkten und Lösungen für die optische Kommunikation, hat sich zum Ziel gesetzt, kostengünstige

Die Entwicklung optischer Module: Antrieb für die Zukunft von Rechenzentren und darüber hinaus
In einer Ära, die von künstlicher Intelligenz (KI), Cloud Computing und Big Data dominiert wird, ist die Nachfrage nach leistungsstarker Datenübertragung so groß wie nie zuvor. Rechenzentren, die Herzstücke dieser digitalen Revolution, müssen riesige Datenmengen mit beispielloser Geschwindigkeit verarbeiten und übertragen. Im Mittelpunkt dieser

Wie ist die thermische Struktur optischer OSFP-Module aufgebaut?
Der Stromverbrauch ultraschneller optischer Module mit 400G OSFP und höheren Raten ist deutlich gestiegen, was das Wärmemanagement zu einer kritischen Herausforderung macht. Für optische Module im OSFP-Gehäusetyp spezifiziert das Protokoll explizit den Impedanzbereich der Kühlrippen. Insbesondere wenn der Kühlgaswinddruck nicht überschreitet

KI-Rechencluster: Antrieb für die Zukunft
In den letzten Jahren hat der globale Aufstieg der künstlichen Intelligenz (KI) große Aufmerksamkeit in der Gesellschaft erregt. Ein häufig diskutierter Punkt im Zusammenhang mit KI ist das Konzept von Rechenclustern – neben Algorithmen und Daten eine der drei Grundsäulen der KI. Diese Rechencluster dienen als primäre Quelle für Rechenleistung.

Rechenzentrums-Switches: Aktuelle Lage und zukünftige Trends
Da künstliche Intelligenz (KI) das exponentielle Wachstum von Datenvolumen und Modellkomplexität vorantreibt, nutzt verteiltes Rechnen vernetzte Knoten, um Trainingsprozesse zu beschleunigen. Rechenzentrums-Switches spielen eine entscheidende Rolle bei der zeitnahen Nachrichtenübermittlung zwischen Knoten, insbesondere in großen Rechenzentren, wo die Latenzzeit für die Bewältigung wettbewerbsintensiver Workloads entscheidend ist.
Zusammenhängende Posts:
- Was ist der Unterschied zwischen UFM-Telemetrie, Enterprise und Cyber-KI?
- Gibt es spezielle Anforderungen an die Latenzleistung der CX7-NIC?
- Was bedeuten QSFP28, QSFP56 und SFP56? Welche Nomenklatur sollte zur Beschreibung der verschiedenen Arten von QSFP- und SFP-Ports verwendet werden?
- Welche Arista 100G-Transceiver und -Kabel können im Breakout-Modus verwendet werden?