10G SFP+, 25G SFP28, 40G QSFP+, 100G QSFP28 Special Offer!
Currency: USD
USD - US Dollar
EUR - Euro
GBP - British Pound
CAD - Canadian Dollar
AUD - Australian Dollar
JPY - Japanese Yen
SEK - Swedish Krona
NOK - Norwegian Krone
INR - Indian Rupee
BRL - Brazilian Real
RUB - Russian Ruble
Need Help?
  1. Englisch
  2. Russisch
  3. Portuguiesisch
  4. Spanisch
  5. Französisch
  6. Deutsch
  7. 한국어
  8. العربية
  9. japanisch
Währung wählen
USD - US-Dollar
EUR - Euro
GBP - Britisches Pfund
CAD - Kanadische Dollar
AUD - Australischer Dollar
JPY - Japanischer Yen
SEK - Schwedische Krone
NOK - Norwegische Krone
INR - Indische Rupie
BRL - Brasilianischer Real
RUB - Russischer Rubel
Hilfe

800G QSFP-DD800 OSFP-Transceiver

800G QSFP-DD800 OSFP-Transceiver

Sortieren nach :Das neuste zuerst

Filter
Filter
Filter
43 Ergebnisse

{{page_size}} ansehen

Produktübersicht
Optischer 800G-Transceiver: SR8 vs. DR vs. FR vs. LR vs. FR4 vs. LR4 vs. FR8
Die Sponsoren des steckbaren 800G-MSA sind hauptsächlich chinesische und japanische Unternehmen, darunter hauptsächlich China Telecom Technology Laboratory, H3C, Huawei, Sumitomo, Tencent und Yamazaki. Ziel ist es, steckbare, kostengünstige optische Module für Rechenzentrumsanwendungen mit 800G-Kurzstreckenübertragung, einschließlich 8X100G- und 4X200G-Spezifikationen, mit Übertragungsentfernungen von 100 m, 500 m und 2 km zu definieren, wie in der folgenden Abbildung dargestellt. 
Derzeit gibt es in der Branche einige Ansichten, dass der Bedarf an 800G-Übertragungen im Jahr 2021 aufkommen wird und der Markt bis 2023 zu reifen beginnt. Dementsprechend gibt es eine Arbeitsgruppe für optische QSFP-DD800-MSA-Module unter der Leitung des US-Kommunikationsgiganten Broadcom und Cisco zur Förderung die Standardisierung von optischen 800G-Modulen und zugehörigen Anschlüssen im QSFP-DD-Format.

Abbildung 1. Der Forschungsumfang von 800G MSA

Der allgemeine Inhalt dieses Artikels:
1. Neue Anwendungen (Cloud Computing, KI-Anwendungen) haben die Nachfrage nach höherer Verbindungsbandbreite hervorgerufen, und die Industrie benötigt schnellere optische Module wie 800G;
2. Rechenzentrumsarchitektur und Bandbreitenanforderungen von Switches an verschiedenen Standorten;
3. Anforderungen an das SR-Verbindungsszenario, technische Analyse der 8x100G-Lösung;
4. Bedarfsanalyse des FR-to-Interconnect-Szenarios, Machbarkeit der 4x200G-Technologie, Schlüsseltechnologie;
5. Mögliche technische Lösungen für DR-Szenarien;
6. Zusammenfassung und Ausblick.

Abbildung 2. 800G-MSA-Hauptantriebsunternehmen

1. Hintergrund – Der 800G-Markt kommt
Laut der Forschung von Fiber Mall werden neue Anwendungen wie AR/VR, KI und 5G immer mehr Datenverkehr generieren und exponentiell wachsen. Dies führt dazu, dass mehr Bandbreite und mehr Verbindungen benötigt werden, wie in der Abbildung gezeigt. Die globale Verbindungsbandbreitenkapazität wird in den nächsten vier Jahren weiter schnell wachsen, mit einer durchschnittlichen Wachstumsrate von 48 %.

Abbildung 3. Globaler Verbindungsindex
Auch die entsprechende Marktnachfrage spiegelt diesen Trend wider. Wie in Abbildung 4 gezeigt, prognostiziert die Lichtzählung, dass optische 400G-Module auf dem Rechenzentrumsmarkt in den nächsten fünf Jahren schnell wachsen werden und ein 2x400G- oder 800G-Markt um 2022 entstehen wird. Laut Vladimir, Ph.D., CEO von Lightcounting market Research werden Betreiber von Cloud-Rechenzentren in den Jahren 800 bis 800 optische 2023G-QSFP-DD- und 2024G-OSFP-Module einsetzen, um den wachsenden Netzwerkverkehr zu bewältigen. Die meisten dieser optischen Module sind steckbar, und es ist möglich, Module zusammen verpackt zu sehen.

Abbildung 4. Jährliche Umsatzprognose des Marktes für optische Rechenzentrumsmodule
Da das Mooresche Gesetz der Verdopplung der Kapazität in zwei Jahren in den Switching-ASIC-Chips noch nicht abgelaufen ist, wird die Architektur von Cloud-Rechenzentren durch Kapazitätserweiterung herausgefordert. Die derzeit kommerziell eingesetzten Ethernet-Switches haben eine Kapazität von 12.8 Tb/s, obwohl sie in einem Jahr durch 25.6 Tb/s ersetzt werden. Der Pfad der Kapazitätsentwicklung für Switches ist in Abbildung 1 dargestellt, was einen enormen Druck auf optische Verbindungen mit hoher Dichte ausüben wird. Denn nicht alle optoelektronischen Bauelemente können ihre Integrationsdichte alle zwei Jahre verdoppeln wie CMOS-Prozesse. Dies wird durch die Unterschiede in Geräten, Design und Herstellungsverfahren bestimmt.

Abbildung 5. Gesetz zur Entwicklung der Kapazität von Switching-Chips in Rechenzentren
In den letzten Jahren haben optische 100G-Kurzstreckenmodule auf Basis von NRZ Direct Probing für Furore gesorgt und den größten Teil des schnell wachsenden Datenverkehrs für Cloud-Dienste transportiert. Seit das IEEE im März 400 mit der Forschung zu 2011GE-bezogenen Standards begonnen hat, hat es den Einsatz von optischen 400G-QSFP-DD-Modulen im Jahr 2020 in großem Umfang eingeleitet, und die Nachfrage wird im nächsten Jahr noch stärker sein. Abbildung 4 veranschaulicht diesen Wachstumstrend. Es ist erwähnenswert, dass 400G-QSFP-DD-Module in der frühen Phase der Anwendung hauptsächlich für die Übertragung in DR4-Szenarien mit 4x100G-Raten und Entfernungen bis zu 500 m sowie in FR4-Szenarien mit 2x200G-Raten und Entfernungen bis zu 2 km, dem 400GE, verwendet werden MAC-Funktion wird nicht wirklich genutzt. Gleichzeitig wird auch darauf hingewiesen, dass das IEEE optische 800GE-Ports möglicherweise kurzfristig nicht standardisiert, zumindest in den letzten zwei Jahren wird es die 8x100GE- oder 2x400GE-Verbindung mit hoher Dichte des 800GE-Standards nicht fertigstellen. Aber bis dahin ist die tatsächliche Nachfrage nach 800G entstanden, sodass die Industrie Spezifikationen entwickeln muss, um die Verbindung und Interoperabilität von 800G-Produkten mit optischen Modulen verschiedener Hersteller zu erreichen.

2. Rechenzentrumsarchitektur
Im Allgemeinen können sich die Rechenzentrumsarchitektur und die Datenverkehrseigenschaften je nach bedienter Anwendung unterscheiden. Beispielsweise ist der Hauptdatenverkehr in einem Rechenzentrum, das XaaS-artige Dienste für externe Kunden bereitstellt, wahrscheinlich eher vom Nord-Süd-Server zum Client, in diesem Fall kann die Größe des Rechenzentrums stärker geografisch konzentriert sein. Im Gegensatz dazu fließt der Datenverkehr in einem Cloud- oder speicherorientierten Rechenzentrum für interne Zwecke eher von Ost nach West von Server zu Server, was normalerweise eine Konzentration von Mega-Rechenzentrumsressourcen erfordert. Auch wenn die Anwendungsszenarien ähnlich sind, können Betreiber dennoch PSM4- oder CWDM4-basierte optische Verbindungslösungen basierend auf ihren eigenen Präferenzen wählen. Dies führt zu einer Vielfalt von Rechenzentrumsarchitekturen und -technologien.
Es gibt mindestens zwei gängige Rechenzentrumsarchitekturen. Die folgende Abbildung zeigt eine typische Rechenzentrumsarchitektur (3 Tiers) und ihre Roadmap zur Entwicklung der Switching-Rate. Ein typisches Rechenzentrum verfügt jedoch über mehr Geräte als in der Abbildung, und die Architektur erscheint größer und komplexer. Unter jeder Schicht wird ein Konvergenzverhältnis von etwa 3:1 berücksichtigt. Beispielsweise kann ein Spine-Switch mit drei Leaf-Switches verbunden werden und so weiter. Auf der Spine-Schicht wird eine kohärente optische Verbindungslösung vom Typ ZR benötigt, um eine Verbindung mit anderen Rechenzentren zu erreichen (DCI-Szenario). Das Symbol der 800G-Schnittstellenrate ist, dass, wenn die Rate zwischen Server und TOR-Switch 200G erreicht, die PSM4 4x200G-Fanout-Struktur zwischen TOR und Leaf sowie die Spine-Schicht übernommen werden müssen.

Abbildung 6. Gemeinsame Layer-3-Rechenzentrumsarchitekturen und Entwicklung der optischen Verbindungsrate
Die Schalter TOR, Leaf und Spine entsprechen hier tatsächlich der Zugriffsschicht, der Aggregationsschicht und der Kernschicht. Für ein typisches Rechenzentrumsnetzwerk (DCN) sind 800 GB Netzwerkverbindungsbandbreite erforderlich, wenn 200 GB Serverbandbreite bereitgestellt werden. Einige Handels-offs können in der Kapazität des Rechenzentrums zur Bereitstellung von Diensten (Bandbreite, Übertragungsdistanz und andere Ressourcen) basierend auf dem Baubudget des Rechenzentrums vorgenommen werden. Wie in Tabelle 1 sind die Bandbreiten- und Übertragungsentfernungsanforderungen für verschiedene Ebenen im Rechenzentrumsnetzwerk sowie die empfohlenen Anforderungen an die Gehäusegröße des optischen Moduls angegeben.

Tabelle 1. Bandbreiten- und Übertragungsentfernungsanforderungen für verschiedene Schichten von DCN
In Anbetracht der enormen Rechenanforderungen der kürzlich aufkommenden KI-Anwendungen wird in einigen KI-anwendungsorientierten Supercomputer-Clustern oder KI-Rechenzentren normalerweise eine zweischichtige Switching-Architektur eingesetzt, wie in Abbildung 7 dargestellt , ist keine Datenverkehrsaggregation zwischen Schichten erforderlich. Da der Datenverkehr jedes Servers bereits sehr groß ist, entspricht er direkt einer Switch-Schnittstelle und genießt exklusive Bandbreitenressourcen. Es ist ersichtlich, dass sich die Verkehrseigenschaften dieses KI- oder Supercomputer-Rechenzentrumsnetzwerks von denen herkömmlicher Rechenzentren unterscheiden. Es sind hauptsächlich Verkehrsdienste für große Partikel, die keinen häufigen Austausch benötigen.

Abbildung 7. KI/HPC-Rechenzentrums-Netzwerkarchitektur und Geschwindigkeitsdemonstration
Dieses Layer-2-Rechenzentrumsnetzwerk erfordert keine Datenverkehrsaggregation zwischen den Schichten. Wenn 400G-Server bereitgestellt werden, ist eine Netzwerkverbindungsbandbreite von 800G erforderlich. Verglichen mit dem herkömmlichen dreischichtigen geswitchten Rechenzentrumsnetzwerk ist diese zweischichtige Architektur bequemer für eine schnelle Bereitstellung und hat eine geringere Latenz, was sich sehr gut für zukünftige KI oder Supercomputer DCN eignet. Tabelle 2 zeigt die spezifischen technischen Indikatoren dieses DCN.

Tabelle 2. Netzwerkanforderungen für KI- oder HPC-Rechenzentren
In einigen kleinen Unternehmen oder kleinen Cloud-Rechenzentrumsnetzwerken erfordert die Übertragungsrate zwischen Leaf und Servern jedoch möglicherweise nicht so viel Bandbreite wie 400 G, was ein spezifisches Design erfordert, das die Beziehung zwischen den tatsächlichen Anwendungsszenarien und den Kosten berücksichtigt.
Lassen Sie uns darüber sprechen, worauf Sie beim Rechenzentrumsbau achten sollten. Die beiden wichtigsten Faktoren, die bei einer Rechenzentrumslösung berücksichtigt werden sollten, sind Skalierbarkeit und Kosten. Beim Entwurf eines Rechenzentrums können Kostenkontrolle und Leistung nicht auf einem zu hohen oder zu niedrigen Standard aufgebaut werden. Wenn Benutzer überbauen, werden Ressourcen verschwendet, obwohl diese Ressourcen verwendet werden können, um mehr Geschäft auszuweiten. Ungenutzte Ressourcenkapazität ist jedoch teuer, und diese Kapazität kann zu einer veralteten Technologie werden, wenn sie tatsächlich benötigt wird. Wenn ein Benutzer beispielsweise ein Rechenzentrum mit einem erwarteten Lebenszyklus von 10 Jahren baut und über integrierte zusätzliche Kapazität verfügt, um zukünftiges Wachstum zu bewältigen, kann diese Kapazität in fünf Jahren veraltet sein. Zu diesem Zeitpunkt können Fortschritte bei Stromverbrauch, Leistung und anderen Funktionen den Rechenzentrumsbetrieb und die Wartung erheblich benachteiligen. 
Rechenzentren können auch eine Herausforderung darstellen, wenn sie nach einem niedrigeren Standard gebaut werden, und können sogar teurer sein. Wenn die Fähigkeit des Benutzers, Regeln zu entwerfen, hinter den geplanten Anforderungen zurückbleibt, fällt ein erheblicher Investitionsaufwand bei der Erweiterung und Aufrüstung des Rechenzentrums an.
Aufgrund des oben genannten möglichen Baus von Rechenzentren über oder unter dem Problem, sind der schnelle Ausbau des Rechenzentrums, der komfortable Betrieb und die Kosten dieser wichtigen Themen die Prioritäten vieler Unternehmen.
Grund dafür ist die oben erwähnte mögliche Über- oder Unterbebauung von Rechenzentren. Daher stehen für viele Unternehmen die Hauptthemen schneller Rechenzentrumsausbau, einfache Bedienung und Kosten im Vordergrund. Als flexibelste Lösung entscheiden sich Unternehmen häufig für das Rechenzentrums-Hosting-Modell. Hosting-Betreiber von Rechenzentren ermöglichen es Benutzern, „nach Bedarf zu bezahlen und schrittweise zu skalieren“. Nutzer können die gemietete Fläche nach Bedarf erweitern oder verkleinern und zahlen nur die dazugehörige Nutzungsgebühr. Dadurch werden ungenutzte oder nicht ausgelastete Kapazitäten des Benutzers entfernt, alle infrastrukturbezogenen Probleme beseitigt und der Wert seiner IT-Investition maximiert.
Dies ist jedoch kein Problem für einige Internetgiganten, die sich mehr um den Wert der Daten selbst sorgen, sodass sie nicht zögern werden, viel Geld in den Bau ihrer eigenen Rechenzentren und die Bereitstellung ihrer eigenen Cloud-Dienste zu investieren und über wichtige Vermögenswerte zu verfügen in ihren eigenen Händen. Zum Beispiel haben Alibaba, Tencent, Baidu, Facebook, Google und sogar einige von ihnen spezielle Forschungsabteilungen für Netzwerkinfrastrukturen, die verschiedene kostengünstige und schnelle optische Verbindungslösungen erforschen, sogar das optische Modul, um ihr eigenes zu entwickeln. Ziel ist es, ein besseres Netzwerk von Rechenzentren aufzubauen, schnellere und vielfältigere Dienste bereitzustellen und mehr Benutzer anzuziehen.
Abschließend lohnt es sich zu erklären, warum Rechenzentrumsnetzwerke in den letzten Jahren so beliebt geworden sind. Alles beginnt mit Videos. Die neueste VNI-Verkehrsprognose von Cisco, die unten gezeigt wird, zeigt, dass der Videoverkehr in den letzten Jahren zu einem immer wichtigeren Teil des Netzwerks geworden ist und bis 80 voraussichtlich mehr als 2022 % des gesamten Internetverkehrs ausmachen wird. Dies wird Sie nicht überraschen Sie, da wir jeden Tag die Empfänger und Produzenten von Video-Traffic sind. Der Aufstieg von Videodiensten ist die Änderung der Trägernetzwerkarchitektur und Verkehrsverteilung. Mit dem Aufbau von Content Distribution Networks (CDN) und dem Untergang von Rechenzentrumsnetzwerken (DCN) werden Inhalte wie Videos und Dateien näher am Benutzer zwischengespeichert, was eine geringere Latenz und eine schnellere Pufferung ermöglicht. Der Großteil des Datenverkehrs müsste nicht mehr über große Entfernungen im Backbone-Netzwerk zurückgelegt werden, sondern würde im Bereich von Kurz- und Mittelstreckennetzen in Ballungsräumen oder Rechenzentrumsnetzen landen. Bereits 2017 wurde berichtet, dass der Kurz- und Mittelstrecken-MAN-Verkehr den Langstrecken-Backbone-Verkehr überholt hatte. Rechenzentren, insbesondere Cloud Data Center Interconnection (DCI), ist die typischste Anwendung von Metro-Netzwerken. Daher ist es nicht verwunderlich, dass das Thema in den letzten Jahren heiß diskutiert wurde.

Abbildung 8. Neueste VNI-Traffic-Prognose von Cisco

3.8x100G-Lösung für 800G-SR-Szenario
a) Anwendungsszenario-Anforderungsanalyse von 800G QSFP-DD oder OSFP SR
Bei der 100-m-Rechenzentrumsübertragung wurde die Branche tatsächlich von der VCSEL-Übertragungstechnologie mit einer Ratenbegrenzung von etwa 100 G pro Kanal geplagt, und es scheint schwierig, die Geschwindigkeit weiter zu erhöhen. Das 800G-MSA zielt darauf ab, kostengünstige optische 8x100G-QSFP-DD- oder OSFP-Module für SR-Anwendungen zu entwickeln, die zumindest die wichtigsten Anwendungen in SR sicherstellen und 60 bis 100 m Übertragungen unterstützen, wie in Abbildung 9 gezeigt.
Darüber hinaus versucht die 800G-MSA-Arbeitsgruppe, eine Sendertechnologie zu definieren, die eine lineare Reduzierung der Kosten durch einen hochintegrierten Ansatz ermöglicht, um einen schnellen frühen Vorstoß in den 800G-Markt für optische Verbindungen mit hoher Dichte zu ermöglichen. Der kostengünstige 800G SR8 kann aktuelle Entwicklungstrends im Rechenzentrum unterstützen, indem er kostengünstige serielle 100G-Serverkonnektivität bietet: wachsende Switch-Ports und abnehmende Anzahl von Servern pro Rack. Wie in Abbildung 9 dargestellt, wird die 800G-MSA-Arbeitsgruppe eine kostengünstige PMD-Spezifikation (Physical Medium Dependent Sublayer) für Singlemode-Glasfaserverbindungen basierend auf der 100G-PAM4-Technologie definieren. Aufgrund der Notwendigkeit einer geringen Latenz in SR-Anwendungen wird KP4 FEC außerdem zur Implementierung der Fehlerkorrektur in optischen 800G-MSA-Modulen verwendet, und andere DSP-Algorithmen umfassen eine einfache Taktwiederherstellung und -entzerrung. Außerdem muss für das PSM8-Modul ein Anschluss definiert werden, um eine Verbindung zu 8x100G zu ermöglichen.

Abbildung 9. Blockdiagramm der Architektur des 800G SR8/PSM8-Optikmoduls und 800G-MSA-Spezifikationsbereich
Im Vergleich zu herkömmlichen SR-Modulen wird beim 800G SR8 keine VCSEL-basierte Multi-Mode-Lösung mehr verwendet, sondern ein paralleles Single-Mode-Übertragungsverfahren, PSM8, mit einem Modulationsformat von PAM4 und einschließlich eines DSP-Chips.

b) Machbarkeitsanalyse einer 8x100G-Lösung
Wie oben analysiert, kann die Einkanal-100G-Rate die Multimode-Lösung in 400G QSFP-DD SR8 einschränken, um die Entwicklung zu 800G QSFP-DD SR8 fortzusetzen. Basierend auf dem theoretischen Modell von IEEE kann gefolgert werden, dass, wenn die Baudrate das 50G-Band erreicht, die von Multimode-Glasfaser-MMF unterstützte Übertragungsentfernung 50 m nicht überschreiten wird, wie in Tabelle 3 gezeigt.
Die Hauptbegrenzungsfaktoren sind die Modulationsbandbreite von VCSEL und die intermodale Dispersion von MMF. Obwohl die Übertragungsdistanz mit Hilfe des leistungsstarken DSP-Algorithmus durch Optimierung des Geräte- und Glasfaserdesigns auf etwa 100 m erweitert werden kann, sind die Kosten hoch, mit großer Verzögerung und Stromverbrauch. Auf dieser Grundlage empfiehlt die Arbeitsgruppe MSA Pluggable 800G Optical Module die Singlemode-Übertragungstechnologie für die 800G-SR8-Verbindung.

Tabelle 3. Die Beziehung zwischen MMF-Bandbreite und Übertragungsdistanz wird basierend auf dem theoretischen IEEE-Modell vorhergesagt
Um eine Singlemode-Faser-SMF-basierte Lösung mit geringeren Kosten und geringerem Stromverbrauch zu gewährleisten, müssen angemessene PMD-Standardanforderungen für den 800G-SR8 definiert werden. Die Definition der PMD-Schicht muss mindestens drei Prinzipien genügen:
1) Mehrere lösungsbasierte Übertragungstechnologien wie DML, EML und SiPh zulassen.
2) Alle Potentiale des Gerätes können voll ausgeschöpft werden, um die angestrebte Link Performance zu erreichen.
3) Die Parameter der PMD-Schicht werden so weit wie möglich gelockert, solange die zuverlässige Verbindungsleistung erfüllt ist. Diese drei Prinzipien werden im Folgenden anhand der experimentellen Studienergebnisse erläutert und analysiert.
Zunächst einmal wird erwartet, dass der Singlemode-basierte 800G-SR8 in Bezug auf die Leistungsbilanz dem 400G-SR8 sehr ähnlich sein wird, wobei der einzige Unterschied darin besteht, dass die Einfügungsdämpfung für den neu definierten PSM8-Singlemode-Steckverbinder definiert werden muss . Das bedeutet, dass der DSP-Chip die Leistungsbudgetanforderungen des 800G-SR8 erfüllen kann, indem er direkt die bewährten optoelektronischen Bauelemente der aktuellen 400G-SR8-Verbindung nutzt. Daher besteht die größte Herausforderung bei der Definition der 8G-SR800 PMD-Spezifikation neben der Definition des PSM8-Anschlusses darin, die geeignete optische Modulationsamplitude (OMA) des Senders, das Extinktionsverhältnis (ER), den Sender und den Dispersions-Augenverschluss für PAM4 (TDECQ) zu finden. und Empfängerempfindlichkeit. Um diese geeigneten Metriken zu finden, hat die MSA-Arbeitsgruppe die BER-Leistung einer Reihe verschiedener Sender getestet und bewertet, wie in Abbildung 10 dargestellt.

Abbildung 10. (a) EML BER vs. OMA-Ergebnisse basierend auf im Handel erhältlichen 400G-DSP-ASICs; (b) SiPh BER vs. OMA Ergebnisse basierend auf kommerziell erhältlichen 400G DSP ASICs, (c) DML BER vs. OMA Ergebnisse basierend auf kommerziell erhältlichen 400G DSP ASICs
Die obigen experimentellen Ergebnisse sind BER-gegen-OMA-Kurven, die in Echtzeit an einem 100G-PAM4-Signal mit einer einzigen Wellenlänge gemessen wurden, basierend auf einem kommerziellen 400G-DSP-Chip. Darunter sind die 100G-Ergebnisse von EML und SiPh vielleicht schon bekannt, weil sie in den letzten Jahren diskutiert wurden, aber die Sensitivität auf Basis der DML-Lösung ist auch recht gut, nur die BER-Plattform ist etwas höher, aber solange sie ist unterhalb der BER-Schwelle von KP4 FEC. Da die optischen Übertragungsverluste der Silizium-Photonik etwas größer sind, ist ihre Ausgangsleistung kleiner als bei anderen Lösungen, daher muss versucht werden, bei der Definition des 800G-SR8-Mindest-OMA-Index eine angemessene Lockerung in Betracht zu ziehen.
Beachten Sie, dass, obwohl DML-Geräte mit geringerer Bandbreite als EML- und SiPh-Geräte in den obigen DML-Ergebnissen verwendet werden, die Verwendung kommerzieller DSP-Chips, die leistungsstärker sind als der IEEE-definierte 400GE-Referenzempfänger, immer noch eine bessere Entzerrung und eine ähnliche OMA-Empfindlichkeit wie erreichen kann EML und SiPh, um das Leistungsbudget des 800G SR8 zu erfüllen. Um das volle Potenzial von DSP in 800G SR8-Anwendungen freizusetzen, müssen Empfänger-Compliance-Tests wie TDECQ neu definiert werden, um der tatsächlichen Entzerrungsfähigkeit kommerzieller DSP-Chips zu entsprechen, z. B. mehr Abgriffe als die derzeit definierten 5 Abgriffe.
Andererseits wird in Anbetracht der geringeren Empfindlichkeitsanforderungen in SR-Szenarien und der strengen Einschränkungen des Stromverbrauchs in optischen 800G-Modulen die Verwendung von DSP-Modi mit geringer Komplexität auch in zukünftigen optischen 800G-Modulen empfohlen. Das Auslöschungsverhältnis ER, als eine direkt mit dem Stromverbrauch in Beziehung stehende Metrik, ist theoretisch umso besser, je niedriger das ER ist, solange die zuverlässige Übertragung der Verbindung gewährleistet ist. Basierend auf der obigen Analyse ist die MSA-Arbeitsgruppe der Ansicht, dass eine kostengünstige Lösung mit geringem Stromverbrauch auf der Basis von SMF als vielversprechende Lösung für 800G-SR-Anwendungen verwendet werden kann.

4. 4x200G-Lösung für 800G-FR-Szenario
a) Anforderungsanalyse des 800G FR QSFP-DD- oder OSFP-Szenarios
Die Einkanal-200G-Übertragung basierend auf der PAM4-Modulationstechnologie ist der nächste große technische Meilenstein für Intensity Modulation Direct Detection (IMDD)-Systeme und die Grundlage für das Erreichen von optischen 4-Kanal-800G-Verbindungen und sogar weiteren darauf basierenden 1.6T-Hochgeschwindigkeitsverbindungen.
Wie in Abbildung 11 gezeigt, wird die Arbeitsgruppe einen vollständigen Satz von PMD- und partiellen PMA-Layer-Spezifikationen definieren, einschließlich einer neuen FEC-Lösung mit geringem Stromverbrauch und geringer Latenz zum Wickeln einer Schicht über das elektrische 112G-Eingangssignal, um den Nettocodierungsgewinn zu verbessern des Modems.
Eines der Ziele der Industrie ist die Entwicklung einer neuen Generation von elektrischen und optischen Breitbandsimulatoren für Sender- und Empfängerkomponenten, einschließlich der allgemein verwendeten ADC und DAC. Um die Leistungsanforderungen von steckbaren optischen 800G-Modulen zu erfüllen, wird die nächste Generation von 200G-PAM4-DSP-Chips unter Verwendung eines CMOS-Prozesses mit niedrigerem Übergang wie 7nm/5nm hergestellt und erfordert auch digitale Signalverarbeitungsalgorithmen mit geringer Komplexität und geringem Stromverbrauch um den Kanal auszugleichen.

Abbildung 11. 800G FR4/PSM4 optisches Modulstruktur-Blockdiagramm und 800G MSA-Spezifikationsbereich
Die 4x200G FR-Verbindungslösung scheint zwei Realisierungspfade zu haben, einer ist eine PSM4-Lösung mit 4 Singlemode-Faserpaaren und der andere verwendet ein einzelnes Faserpaar auf der Basis von CWDM4, das immer noch einen relativ großen Unterschied im externen optischen Port aufweist Dichte, und die Kosten und Komplexität von CWDM4-Modulen sollten ebenfalls deutlich erhöht werden.
b) Machbarkeitsanalyse einer 4x200G-Lösung
Bei LAN-WDM ist TEC für die Temperaturregelung erforderlich, während bei einer Einkanal-200G-Anwendung erwartet wird, dass eine Temperaturregelung vermieden wird. Das Leistungsbudget für 800G-FR4 wird basierend auf CWDM4 analysiert. Zu den Hauptfaktoren im Zusammenhang mit dem Leistungsbudget gehören Verbindungseinfügungsdämpfung, Mehrweginterferenz (MPI), unterschiedliche Gruppenverzögerung (DGD) und Sender- und Dispersionsstrafe (TDP). Gemäß dem im IEEE-Standard veröffentlichten Modell wird die durch MPI und DGD verursachte Strafe wie in Tabelle 4 gezeigt berechnet. Da die Baudrate von 200 G bei einem Kanal höher als 100 G ist, muss die Strafe der Dispersion größer sein. Die Arbeitsgruppe empfahl einen vernünftigen TDP-Wert von 3.9 dB. Zusammenfassend kam die Arbeitsgruppe unter Berücksichtigung der Alterung des Empfängers, der Kopplungsverluste und der optischen Ausgangsleistung eines typischen Senders zu dem Schluss, dass die Empfindlichkeit des 200G-PAM4-Empfängers bei etwa -5 dBm liegen muss.

Tabelle 4. Energiebudgetanalyse von 800G-FR4
Im Vergleich zu 100G verdoppelt sich die Baudrate von 200G, was zu einer SNR-Verschlechterung von 3dB führt. Es kann erforderlich sein, stärkere FEC-Fehlerkorrekturcodes zu verwenden, um eine Empfindlichkeit von -5 dBm aufrechtzuerhalten und zu vermeiden, dass die BER-Plattform über dem Pre-FEC-BER-Schwellenwert liegt. Daher sollte, wie bereits erwähnt, eine zusätzliche Schicht aus FEC mit geringer Latenz und geringer Komplexität auf die KP4-FEC gewickelt werden, wenn das optische Modul implementiert wird. Der neue FEC-Fehlerschwellenwert kann entsprechend der tatsächlichen Leistung der optischen Verbindung und den Anforderungen an das Leistungsbudget eingestellt werden.
Die Arbeitsgruppe analysierte außerdem die Leistung der Einkanal-200G-Verbindung durch Simulation und Experimente weiter. Die Parameter der in der Verbindung verwendeten Geräte sind in Tabelle 5 aufgeführt. Die experimentellen Ergebnisse zeigen, dass die Empfängerempfindlichkeit das Ziel erreichen kann, wenn die BER-Schwelle der neuen FEC auf 2e-3 eingestellt ist, wie in Abbildung 12(a) gezeigt ). Jedoch wird der Maximum-Likelihood-Sequenzschätzungsalgorithmus (MLSE) in den Experimenten verwendet, um die starke Intercode-Interferenz ISI in dem Kanal aufgrund von Schmalbandfilterung zu kompensieren. 
Die gestrichelte Linie in Fig. 12(a) repräsentiert die Ergebnisse basierend auf der experimentellen Vorrichtungsparametersimulation. Zusammen mit den experimentellen Ergebnissen zeigt die Simulationsstudie, dass der limitierende Faktor für die Systemleistung die Bandbreite der Geräte wie DA/AD, Treiber und elektrooptischer Modulator ist. Unter der Annahme, dass in den nächsten Jahren Geräte mit hoher Bandbreite auf den Markt gebracht werden, basiert die Simulation auf demselben System, aber nachdem die Gerätebandbreite auf eine größere Größe eingestellt wurde, stellt sich heraus, dass die entsprechende Empfindlichkeitsanforderung im erfüllt werden kann DSP bei Pre FEC BER = 2e-3 unter Verwendung nur des Vorwärtsentzerrungsalgorithmus (FFE), und die Ergebnisse sind in Fig. 4(b) gezeigt, was der theoretischen Erwartung entspricht.

Tabelle 5. Geräteparameter, die in Experiment und Simulation verwendet wurden


Abbildung 12. (a) Experimentelle und Simulationsergebnisse eines 200G-Einzelkanals unter der Bedingung der vorhandenen Gerätebandbreite; (b) FFE-Entzerrungssimulationsergebnisse von 200G-Einzelkanal mit Geräten mit verbesserter Bandbreite.
Basierend auf der obigen Analyse wird weiterhin empfohlen, die entsprechenden TDECQ-Metriken im Konformitätstest des 800G-FR4-Szenarios zu erfüllen. Nur die FFE-Tap-Anzahl der Referenzempfänger, die beim TDECQ-Test verwendet werden, muss auf einen geeigneten Wert erhöht werden, was ebenfalls eine weitere Diskussion und Untersuchung wert ist. Wenn die Kapazität (Bandbreite) zukünftiger 100-Gbd-Geräte hinter unseren Erwartungen zurückbleibt, müssen wir natürlich immer noch die Verwendung komplexerer Algorithmen wie MLSE im FR4-Szenario in Betracht ziehen, was die Entwicklung neuer Compliance-Lösungen bedeutet.

c) Analyse einer 4x200G-Verpackungslösung
Um die Signalintegrität des Hochgeschwindigkeitssignals unter Berücksichtigung des Nyquist-Frequenzbereichs (dh 56 GHz) sicherzustellen, muss das Gehäusedesign des 4x200G-Senders und des Empfängers überdacht werden. Zwei mögliche Implementierungen des Senders sind in Abbildung 13 dargestellt. Methode A ist die herkömmliche Lösung, bei der der Treiber und der Modulator zusammen platziert werden. Im Gegensatz dazu ist der in Lösung B auf dem Kopf stehende Treiberchip zusammen mit dem DSP-Chip verpackt, um die Signalintegrität auf der HF-Übertragungsleitung zu optimieren. Beide Technologien sind derzeit verfügbar.
Vorläufige Simulationsstudien zeigen, dass mit Lösung B bessere Ergebnisse und garantierte Bandbreiten von mehr als 56 GHz erzielt werden können. Die Welligkeit in der S21-Frequenzgangkurve von Lösung A kann durch Signalreflexion am Treibereingang verursacht werden, die durch Anpassung optimiert werden kann Treiberdesign zur weiteren Verbesserung der endgültigen Leistung von Lösung A.

Abbildung 13. Zwei Arten von Verpackungen für den Sender. Die HF-Übertragungsleitung (rote Linie), die Ausrichtung und der Modulator werden in der S21-Simulation berücksichtigt, und die 3-dB-Bandbreite des verwendeten EML-Chips wird mit 60 GHz angenommen.
Auf der Empfängerseite muss die parasitäre Kapazität reduziert werden, um einen Fotodetektor (PD) mit hoher Bandbreite zusammen mit einem Transimpedanzverstärker (TIA) mit großer Bandbreite zu erreichen, um die Bandbreite des Empfängers sicherzustellen. Es gibt kein technisches Problem, eine solche Vorrichtung unter Verwendung aktueller Halbleitertechnologie zu implementieren. Es gibt sogar Unternehmen in der Branche, die bereits viel Aufwand in die Entwicklung entsprechender Produkte investiert haben, die in ein bis zwei Jahren zur Serienreife gelangen sollen. Darüber hinaus ist auch die Verbindung zwischen PD und TIA wichtig und muss optimiert und analysiert werden, da parasitäre Effekte die Leistung beeinträchtigen können.

d) Forward Error Correction Coding (FEC) in Einzelkanal 200G
Insgesamt wurde bereits eine stärkere FEC-Lösung mit einem PreFEC-BER-Schwellenwert von 2e-3 erwähnt, um die Empfindlichkeitsanforderungen des 200G-PAM4-Empfängers zu gewährleisten. Abbildung 14 zeigt die Ergebnisse des Vergleichs zwischen Kaskadierungs- und Ersatzlösungen. Bei der ersten Lösung wird die KP4-FEC durch die neue, teurere FEC am optischen Zwischenanschluss ersetzt, was Vorteile hinsichtlich des Gesamtaufwands und des Nettocodierungsgewinns hat. Bei der zweiten Lösung wird ein kaskadierter FEC-Ansatz gewählt, bei dem KP4 weiterhin als äußere Codierungsschicht beibehalten und in Verbindung mit dem neuen inneren Code verwendet wird. Dieser kaskadierte Code hat den Vorteil einer geringen Latenz und eines geringen Stromverbrauchs und ist daher besser für das 800G-FR4-Anwendungsszenario geeignet.

Abbildung 15. 800G-FEC-Lösung: Neue Ersatz-FEC vs. kaskadierte KP4-FEC

Ein direkterer Weg zum Erreichen der 2E-3-BER-Schwellenwert-FEC besteht darin, die in Abbildung 16 gezeigten Generationsnummern in Reihe mit KP4 zu schalten, wodurch der Stromverbrauch und die Ende-zu-Ende-Verzögerung minimiert werden. Sowohl Hamming-Codes mit Einzel-BER-Korrekturfähigkeit als auch BCH-Codes mit Doppel-BER-Korrekturfähigkeit sind geeignete Wahlen für die Generierungscodes in diesem Kaskadenschema. Beide internen Codes haben einen Overhead von etwa 6 % und in Kombination mit einem einfachen rekursiven Soft-in-Hard-out (SIHO)-Decodierungsalgorithmus mit 64 Testmustern können sowohl Hamming- als auch BCH-Codes eine bessere Fehlerkorrekturleistung als 2e-3 erreichen. Die in 400GBASE-R definierte Symbolverteilung dient im Wesentlichen als Paritäts-Interleaver für die kaskadierte Codierung, und die 10k-Bit-Verzögerung ist ausreichend für die Dekorrelation mit in die Faser eingeführtem Rauschen.

Abbildung 16. Strukturdiagramm des Kaskadenschemas für KP4 und lineare Codes

5. Mögliche Lösungen für 800G DR QSFP-DD- oder OSFP-Szenarien
Wie in Tabelle 6 gezeigt, gibt es vier Wege, um 800G DR zu erreichen.
Erstens kann die im 8G MSA definierte SR800-Lösung die Übertragungsreichweite direkt um 500 m erweitern. Da die parallele Faserlösung mehr Fasern erfordert, können die Kosten für Fasern mit einer Länge von bis zu 500 m bei dieser Anwendung ein Problem darstellen.
Zweitens kann basierend auf der bestehenden FR4-Lösung eine 2x400G-CWDM-Lösung bereitgestellt werden, indem einfach die Transceiver-Geräte verdoppelt werden, was ein gutes Gleichgewicht zwischen Faserverbrauch und Systemreife zu bieten scheint, aber die Kosten und der Stromverbrauch können die praktische Anwendung einschränken .
Schließlich kann die nächste Generation von Einkanal-200G-Lösungen (PSM4 oder CWDM4) DR-Anwendungen abdecken. Dieser Ansatz erfordert nur 4 Paare optischer Transceiver-Module und scheint den niedrigsten Stromverbrauch und die niedrigsten Kosten zu haben. Aufgrund der Reife der Branche und der praktischen Machbarkeit weiterer Nachweise ist jedoch nicht klar, wann die Lösung im Handel erhältlich sein wird.

Tabelle 6. Vier mögliche Lösungen für 800G DR
Zusammenfassend wurden vier mögliche Optionen für 800G DR diskutiert, und die Arbeitsgruppe wird die Entwicklung jeder technischen Route weiterhin überwachen und Optionen zu einem geeigneten Zeitpunkt in der Zukunft empfehlen.

6. Zusammenfassung und Ausblick
Das steckbare 800G-MSA wird die Führung bei der Definition optischer Module für 800G-SR8- und FR4-Szenarien übernehmen. Im SR8-Szenario erwog die Arbeitsgruppe, um mehr Technologien zu berücksichtigen und SMF-basierte Singlemode-Lösungen einzuführen, geeignete Anpassungen an einigen Schlüsselparametern der PMD-Schicht, wodurch schließlich die OMA- und ER-Anforderungen gelockert werden konnten, um sie zu reduzieren Stromverbrauch und die Referenzempfänger für TDECQ-Tests müssen neu definiert werden.
Die Arbeitsgruppe demonstrierte auch die technische Machbarkeit einer optischen Einkanal-200G-Übertragung für 800G-FR4-Anwendungen. Experimentelle und Simulationsergebnisse zeigten, dass es notwendig ist, dem optischen Modul eine FEC-Codierteilschicht mit geringer Latenz und geringer Leistung hinzuzufügen, um das angestrebte Leistungsbudget zu erreichen. Technische Details dieser neuen FEC werden in der 800G-FR4-Standardspezifikation vorgestellt, um die Interoperabilität mit mehreren Anbietern zu erleichtern. Gleichzeitig sind die Erhöhung der Gerätebandbreite und die Optimierung des Modulpaketdesigns zwei Themen, die weiter untersucht werden müssen.
Das steckbare 800G-MSA hat die erste Version der Spezifikation im vierten Quartal 4 veröffentlicht, wobei eine kleine Anzahl von Geräten bereits Prototypen sind und die ersten optischen 2020G-Modelle voraussichtlich im Jahr 800 verfügbar sein werden. Mit der 2021GbE-Generation, die bereit ist, auf den Markt gebracht zu werden, 400G steckbare optische Module werden das neue Ökosystem nutzen, um eine höhere Verbindungsdichte für die nächste Generation von 800T- und 25.6T-Switches bereitzustellen, um kostengünstige optische Einkanal-51.2G- und 100G-Verbindungen zu ermöglichen.
Mit Blick über 800 G bis 1.6 T beginnt die Industrie, die möglichen Einschränkungen steckbarer optischer Module zu erkennen. Bei Verwendung klassischer PCBs ist es unwahrscheinlich, dass SerDes für C2M-Verbindungen auf Einkanal-200G-Raten skaliert werden kann, sodass analoge Elektronik/Chips und optische Geräte näher am Switching-Chip platziert werden müssen. Unabhängig davon, ob sich die Industrie letztendlich für Co-Packaged Optics (CPO) oder On Board Optics (OBO) oder eine aktualisierte Version von Pluggable entscheiden wird, die MSA-Definition von Single-Channel 200G wird 800G sein und 1.6T verbinden die notwendige Basiseinheit, die Bedeutung und Bedeutung von selbstverständlich.

Mehr