Wie wurde das 400G-QSFP-DD-Transceiver-Modul getestet?

Das 400G-QSFP-DD-Transceivermodul ist die Mainstream-Paketspezifikation für 400G-Kundenschnittstellen. Im folgenden Artikel werden die Schlüsselfaktoren für erfolgreiche Tests, Fehlerbehebung und Verifizierung von QSFP-DD-Modulen für Designer optischer Netzwerke, Hersteller von Netzwerkkomponenten und Endbenutzer erläutert.

Die Geschwindigkeiten der Kundenschnittstellen nehmen stetig zu, wobei sich die typischen Raten alle zehn Jahre mindestens verzehnfachen. 100GE wurde über die QSFP28-Schnittstelle weit verbreitet, und wir befinden uns in den frühen Stadien der 400G-Bereitstellung. IEEE1 entwickelte den 400G-Ethernet-Client-Schnittstellenstandard als Teil von 802.3.bs, das war offDezember 2017 offiziell standardisiert. Early Adopters verwenden die CFP-8-Paketspezifikation, aber der breitere Markt konzentriert sich auf QSFP-DD, das ein gewisses Maß an Abwärtskompatibilität mit dem weit verbreiteten QSFP28 ermöglicht.

Da Ethernet eine breite Palette von Anwendungen hat und mit einer Reihe von PMD (abhängig vom physischen Medium) verfügbar ist, ermöglicht es einem einzelnen „QSFP-DD“-Steckplatz, eine große Anzahl von Anwendungen zu unterstützen, die von mehreren Metern passiver Kupferkabel-DAC reichen Kabel zu 80 km kohärenter ZR. Es gibt auch einige Unternehmen, die sich auf OSFP-Verpackungsspezifikationen konzentrieren. Obwohl es nicht so umfangreich und abwärtskompatibel ist, tut es dies offer einige Vorteile in Bezug auf die elektrische Signalintegrität und das thermische Management. Das meiste, was im Folgenden über QSFP-DD folgt, gilt für OSFP und die VIAVI ONT-Familie, die viele auf OSFP basierende Anwendungen unterstützt.

400G stützt sich sowohl für die elektrische Modul-zu-Host-Schnittstelle als auch für die elektrische oder optische PMD auf eine Modulation höherer Ordnung (PAM-4). Die PAM-4-Modulation wird verwendet, um die Datenkapazität für eine bestimmte Bandbreite zu maximieren, stellt jedoch erhebliche Herausforderungen in Bezug auf Komplexität und Leistung dar, was auch bedeutet, dass die Verbindung eine Codierung mit Vorwärtsfehlerkorrektur (FEC) erfordert, um eine zuverlässige Datenübertragung zu implementieren.

Warum QSFP-DD wählen?

100G-Ethernet wurde 2008 mit frühen Designs bereitgestellt, die auf steckbaren CFP-Modulen basierten. Die zweite Generation von Systemen migrierte zu CFP2 (oder CPAK von einem großen Gerätehersteller) und entschied sich dann für QSFP28, was zu einer weit verbreiteten und kostengünstigen Masseneinführung führte. CFP4 war eine frühere Herausforderung für QSFP28, aber QSFP28 führte aufgrund vieler Faktoren zu einem erheblichen 100G-Wachstum. Die Industrie ist sich der Bedeutung von Verpackungsspezifikationen bewusst und möchte die zusätzliche Komplexität und die Kostenherausforderungen minimieren, die mit der mehrstufigen Entwicklung von 400G-Verpackungsspezifikationen verbunden sind. CFP8 ermöglicht Einsteigern die Entwicklung und Validierung von 400G. Es erfüllte jedoch nicht die Anforderungen an Dichte, Leistung, Kosten und „Kompatibilität“, sodass die Industrie schnell QSFP-DD als Ziel annahm. Und jemand hat sich eine Alternative ausgedacht, OSFP, die hervorragende technische Lösungen bietet, aber den dringenden Bedarf an Schnittstellenunterstützung traditioneller Legacy-Transceiver nicht erfüllt. Im Prinzip könnte der optische QSFP-DD-Port das traditionelle optische QSFP-28-Modul unterstützen – dies würde Switch-Herstellern ermöglichen, 400G-Geräte zu liefern, die zusammen mit 100G-Modulen geliefert werden könnten, und das Upgrade vor Ort wäre ein einfacher Modulaustausch.

Am vorhandenen QSFP28 wurden einige Verbesserungen vorgenommen, um die höheren Bandbreiten-, Leistungs- und Kühlungsanforderungen der Umstellung auf 400G zu erfüllen. Diese Verbesserungen umfassen eine Verdopplung des elektrischen Hochgeschwindigkeits-Portkanals (von einer 4-Kanal-NRZ-Erweiterung mit 25 Gbit/s auf eine 8-Kanal-PAM-56 mit 4 Gbit/s) und eine Erweiterung des „Frontends“ des Moduls, um mehr interne Daten bereitzustellen Volumen und verbesserte Wärmeleistung. Darüber hinaus wurden weitere Arbeiten durchgeführt, um die Modulsteuerungsschnittstelle zu verbessern, die zum CMIS 4.05-Standard führte.

400G DR4-Modul

Das 400 G QSFP-DD DR4 ist eine der am häufigsten eingesetzten optischen 400G-Schnittstellen für Kunden im Jahr 2020. Sie überträgt 400G in Form von vier 100G-Signalen über separate Singlemode-Fasern. Es hat ein breites Anwendungsspektrum in Unternehmen. Es unterstützt eine Reichweite von 500 m und kann eine Verbindung zu einem separaten 100G-Ethernet-Link herstellen, was es als 100G-Lösung mit hoher Dichte attraktiv macht, die die Anzahl der Ports vervierfachen kann.

400G FR4-Modul

Das 400G QSFP-DD FR4 Interface wird auch eine breite Palette von Anwendungen haben, einschließlich der Telekommunikation. Es bietet ein um 2 km längeres Verbindungsbudget über eine Singlemode-Glasfaser. Das 400G wird von vier 100G-Signalen getragen, jedes mit einer etwas anderen Wellenlänge.

Das 400G wird auf vier 100G-Signalen übertragen, jedes eingeschaltet

400G-PMD-Module (abhängig vom physischen Medium)

PMDReichweiteAnwendungTechnologie
DAC2 bis 3 mIntra-Rack & ServerPassives Kupferkabel, 50G PAM-4 elektrisch
SR8100 mUnternehmenParalleler Multimode, 50G/λ – PAM-4
DR4500 mRechenzentrum und UnternehmenParalleler Singlemode, 100G/λ – PAM-4
FR42 kmGroßes RechenzentrumSinglemode, 100 G/λ, PAM-4
LR810 kmTelekom ReichweiteSinglemode, 100 G/λ, PAM-4
ZR80 kmU-Bahn und DCISinglemode/kohärent, PAM-4

Standards und Themen of QSFP-DD

Viele Normen und MSA sind anwendbar. Es ist auch wichtig, die kritischen Tests für jede Phase des Entwicklungszyklus zu verstehen, von der grundlegenden IC-Evaluierung über die Modulhardwareintegration, Software und Firmware bis hin zur Anbieterauswahl und -akzeptanz. Die Produktion hat auch ihre eigenen kritischen Testanforderungen.

Ein solides Verständnis wichtiger Dokumente wie IEEE, CMIS, QSFP-DD, MSA und OIF ist erforderlich, um steckbare optische Module und Geräte erfolgreich zu entwerfen, zu testen, zu verifizieren, herzustellen und bereitzustellen. QSFP-DD ist die perfekte Kombination aus Elektronik, Optik, Mechanik, Wärmemanagement und Firmware-Integration. Alle Komponenten müssen zusammenarbeiten, bevor das Modul erfolgreich bereitgestellt werden kann.

Flexible Kommunikation

Der große Vorteil des Ethernet-Kundenschnittstellen-Ökosystems besteht darin, dass wir über eine starke und klare Reihe von Standards verfügen, die von IEEE und anderen Standards angetrieben werden, die es Ökosystemen mehrerer Anbieter ermöglichen, ohne Rückgriff auf „konstruierte“ Verbindungen zusammenzuarbeiten.

Sowohl die Modul-zu-Host-Schnittstelle als auch die Modul-zu-Glasfaser-Schnittstelle sind der Schlüssel zu dieser Interoperabilität. Bei der Host-zu-Modul-Schnittstelle konzentrieren wir uns auf drei Hauptbereiche:

  • Hochgeschwindigkeits-Datenpfade (AUI), die vom Chip zum Modul (C2M) gebaut werden, stehen vor mehreren Herausforderungen, einschließlich Signalintegrität und Signalausgleich. Während ein Teil des FEC-Budgets diesem Teil der Verbindung zugewiesen wird, können alle Probleme mit dieser Schnittstelle erhebliche Probleme mit der Verbindung verursachen. Schlecht „abgestimmte“ Verbindungen (in Bezug auf Equalizer und Kanäle) können zu hartnäckigen Problemen führen, wie z. B. zufällige Bursts oder im schlimmsten Fall versehentliches Bit-Slippage.
  • Modulverwaltung – Diese auf I²C-Schnittstelle basierende Schnittstelle hat sich von der grundlegenden Speicherzuordnungsverwaltung von SFF-8636 über das 100G QSFP28 bis hin zum komplexen State Complete CMIS 4.0 entwickelt. Diese Entwicklung stellt das Ökosystem vor große Herausforderungen, und solide Kenntnisse der CMIS 4.0-Dokumentation sind der Schlüssel zu einem robusten und stabilen Modulmanagement.
  • Modulleistung – Für steckbare kohärente (QSFP-DD ZR)-Module für DCI-Anwendungen sind die Leistungsanforderungen der Module von wenigen Watt bei 100 G auf möglicherweise fast 20 W gestiegen. Dies stellt hohe Anforderungen an die Robustheit und Stabilität der Stromversorgung. Außerdem muss es in der Lage sein, dynamische und transiente Eigenschaften des Leistungsbedarfs bereitzustellen, wenn das Modul aufgeweckt wird.

Diese Bereiche sind alle eng miteinander verflochten und müssen als Ganzes behandelt werden (insbesondere im Kontext des CMIS 4.0-Modulmanagements), um sicherzustellen, dass die Module fehlerfrei arbeiten.

PAM-4

Sowohl elektrische (Modul-zu-Host-Schnittstelle) als auch optische (elektrische) Verbindungen sind PAM-4-moduliert. Dieses Modulationsschema höherer Ordnung ermöglicht es, die Anzahl der pro Zeiteinheit gesendeten Bits zu verdoppeln. Während die NRZ-Technologie weit verbreitet und für hohe Geschwindigkeiten ausgereift ist, ist SERDES PAM-4 eine relativ neue Technologie, die komplexer und herausfordernder ist. Wir haben umfangreiche Erfahrung in der Bitfehleranalyse von NRZ-Links. Aber wir sehen immer noch Probleme mit dem 10G-zu-25G-NRZ-Kanal, der bei 100GE verwendet wird. Daher wird die Umstellung auf PAM-4 voraussichtlich eine große Herausforderung für die gesamte Branche darstellen. Dies wird weiter verkompliziert durch die Verwendung von FEC-basierten Verbindungen, die immer eine Hintergrund-BER und eine viel komplexere Kanalentzerrung haben. Um fair zu sein, PAM-4 ist um eine Größenordnung komplexer als das weit verbreitete 25G NRZ.

NRZ-Modulation

PAM4 Modulation nicht grau

PAM4 Modulation Gray-Codierung

FEC

Da es schwierig war, eine Komponente zu entwickeln, die fehlerfreie PAM-4-Übertragungen ermöglichen konnte, verwendeten die Entwickler einen FEC, der sowohl die elektrische Modulschnittstelle als auch die optische Modul-zu-Modul-Schnittstelle schützen konnte. Wir haben viel Mühe in ein sorgfältiges Verständnis des Bitfehlermechanismus im Übertragungskanal und der Komponenten investiert und wie die „Kosten“ der FEC-Logik (Codierung und Empfang) ausgeglichen sind. Die „Kosten“ von FEC umfassen zusätzliche Schaltungen, die Strom verbrauchen und die Verzögerung jeder Verbindung erhöhen können.

DSP und Equalizer

Bei 400G wurde entschieden, das Konzept eines „leistungsfähigen“ elektrischen Empfangs-Equalizers zu verwenden, um der „Worst-Case“-Sender- und „Worst-Case“-Kanalleistung zu begegnen. Dies kann zum Schließen des PAM-4-Augenmusters am Eingang des PAM-4-Empfängers führen, sodass der PAM-4-Empfänger einen leistungsstarken und möglicherweise komplexen Empfänger benötigt, um Sende- und Kanaleffekte auszugleichen, um ein klares Augenmuster wiederherzustellen um eine korrekte Dekodierung eines gegebenen Symbols zu erreichen. Die Komplexität des Equalizers bedeutet, dass in den meisten Fällen DSP-basierte Lösungen implementiert werden müssen, was sich auf Leistung, Verzögerung, Komplexität, Bitfehlerverhalten und Verwaltung oder Steuerung auswirken kann. Während DSP-Equalizer leistungsstark sind, kann die Komplexität ihrer Funktionalität zu Herausforderungen führen, wie z. B. das Finden der besten Einstellungen für Abgriffe. Darüber hinaus ist der Equalizer oft hinter der DSP-Firmware und der Steuerungs-API versteckt, was ihn für den Benutzer sehr abstrakt macht. Die Messung von TDECQ6 stellt zusätzliche Herausforderungen dar – diese Messung ist komplex und möglicherweise nicht konsistent, was die Herausforderung eines frei interoperablen Multi-Vendor-Ökosystems weiter erhöht.

Wichtige Punkte

Es wird immer Bitfehler geben – Links haben jetzt immer Hintergrund-Bitfehlerraten. Entscheidend ist der „Fingerabdruck“ der Bitfehlerstatistik. Echte zufällige BER-Ströme sind normalerweise mit der FEC kompatibel, die zum Schutz der Verbindung verwendet wird. Aber Bursts, Slips und andere deterministische Probleme können die Fehlerkorrekturfähigkeit der FEC stark beeinträchtigen. In einer realen Verbindung kann BER eine komplexe Mischung aus elektrischem und optischem Kanalrauschen, Übersprechen, Signalintegritätsproblemen, Bursts, Bit-Slips und sogar BER-Vermehrung aufgrund falsch eingestellter Equalizer sein.

Was letztendlich zählt, ist, wie sich die FEC verhält, wenn ihr ein bestimmter BER-Fingerabdruck gegeben wird. Was ist die Marge? Wie lange wird es dauern, bis wir verworfene Pakete erhalten? Können wir die langfristige Leistung vorhersagen, um die Verschlechterung der Verbindung zu verstehen? Was sind die Hauptursachen für BER?

Mehrere Tools können verwendet werden, um BER-Eigenschaften zu untersuchen, von der Fehlerverzerrung in einzelnen PAM-4-Codeelementen bis hin zur Bit-Slip-Natur-Burst-Analyse. Das Verständnis des BER-Bias kann durch Tools wie Taktvariation und Versatz weiter verbessert werden.

Die PAM-4-Symbolanalyse kann verwendet werden, um sicherzustellen, dass es keine „Pegel“-Verzerrung in der Bitfehlerverteilung gibt. Die Stabilität von photonischen Schlüsselelementen (wie der photonischen AGC des Empfängers) kann weiter verifiziert werden, indem die Variation in der Zeitleistung der PAM-4-Bit-Fehlerverteilung (über ein Dämpfungsglied) beobachtet wird.

Es ist wichtig, die Bitfehlerbursts vollständig zu untersuchen und zu bestätigen, dass es sich um Bursts und nicht um Bit- (oder Symbol-) Schlupf handelt. Slippage ist normalerweise mit dem DSP (und der zugehörigen Firmware) verbunden und kann nicht durch FEC korrigiert werden. Allgemeine Tests können nicht zwischen Burst-Problemen, die durch klassische Signalintegrität oder Rauschprobleme verursacht werden, und Burst-Problemen im Zusammenhang mit Takt- und Phasenempfindlichkeit unterscheiden. Infolgedessen müssen eine Reihe neuer Tools und Techniken eingesetzt werden, um die Art und Grundursache von QSFP-DD-Bitfehlern zu untersuchen.

Die einfachste Ansicht auf oberster Ebene kann erhalten werden, indem man sich die Anzahl der 10-Bit-Codeelementfehler pro 5440-Bit-FEC-Codewort (KP4 FEC) ansieht. Wir würden normalerweise erwarten, dass eine monoton verteilte Anzahl pro Symbol um etwa 10 abfällt. Das heißt, für jedes zusätzliche falsche Symbol/Codewort erwarten wir, dass die Anzahl der Fehler um 10 abnimmt. Alle langen Schwänze oder isolierten Spitzen weisen auf einige nicht zufällige (systematische) Ursache. Wir erwarten auch, dass die Anzahl der Fehlersymbole in der Messzeit um den Faktor 10 zunimmt. Wenn wir also nach 10 Sekunden eine Zählung von 10 Fehlersymbolen pro Codewort beobachten, erwarten wir, nach etwa 11 Sekunden 100 Fehlersymbolzählungen zu sehen.

Eine solche Faustregel kann verwendet werden, um die Zeit bis zu einem nicht korrigierbaren Fehler (16 oder mehr Fehler pro Codewort) abzuschätzen. Wenn wir beispielsweise nach 100 Stunden Testzeit höchstens 12 Fehlersymbole/Codewörter beobachten, würden wir die folgende Annäherung erwarten:

Fehlerhafte SymboleUhrzeitNotizen
12100 StundenMessung
131000 StundenFragen?
14~ 420 Tage
15~11 ½ Jahre
16 (nicht korrigierbarer Fehler)~ 114 JahreErstes abgeworfenes Paket nach > Jahrhundert

FEC – Fehlersymbol/Codewort

Im folgenden Fall arbeitet ONT mit einer stark gedämpften 400G-Glasfaserverbindung, so dass signifikante Bitfehler innerhalb eines 10-Minuten-Intervalls auftreten. Dies kann von einem konformen Link erwartet werden. Wie Sie sehen können, ist die Verteilung im Allgemeinen monoton. Die Zählung pro Fehlersymbol fällt, zeigt aber einen etwas längeren Schwanz als 12 Fehlersymbole/Codewort. In diesem Fall wird der Link wahrscheinlich das Paket aufgrund eines unkorrigierten Codeworts verwerfen.

Ein ONT wurde mit einer stark gedämpften optischen 400G-Verbindung weiterlaufen gelassen

Der folgende Screenshot zeigt eine Situation, in der ein schwerwiegendes Problem auftritt. Obwohl FEC einen großen Spielraum hat (wir können bis zu vier Fehlersymbole in einem Codewort sehen), ist die Verteilung nicht monoton, was auf eine mögliche Quelle von Bitfehlern in diesem System hindeutet. Beachten Sie, dass dieses 100G-Verbindungsbeispiel von einer speziellen VIAVI ONT-Anwendung generiert wurde, die umfangreiche FEC-Fehlerverteilungen für Belastungstests und die Überprüfung der FEC-Logik und Leistungsintegrität erstellt.

System hat eine zugrunde liegende Fehlerquelle bei der Arbeit

ONT kann nicht nur die Bitfehlerverteilung und den Codetyp der gesamten Sequenz analysieren, sondern auch die Bitfehlereigenschaften auf der Grundlage jedes PAM-4-Symbols verfolgen.

ONT kann sowohl Fehlerverteilungen als auch Muster analysieren

Eine dynamische Skew-Variation ist ein leistungsfähiges Werkzeug für Belastungstests und die Verifizierung der QSFP-DD-Modul. Es kann verwendet werden, um die Einhaltung der IEEE802.3-Standards und die allgemeine Stabilität des DSP und der zugehörigen Firmware zu überprüfen. Dies ist besonders wichtig im DR4-Modul, wo ein Paar einzelner elektrischer und optischer Kanäle in völlig unterschiedlichen Taktdomänen liegen kann!

Die dynamische Skew-Variation ist ein leistungsstarkes Tool zum Stressen und Validieren von QSFP-DD-Modulen

Der obige Screenshot zeigt die dynamische Skew-Anwendung von PAM-4. Es ist in der Lage, das relative Timing des Transportkanals in Bezug auf die Benutzeroberfläche präzise zu steuern und gleichzeitig „unterbrechungsfreie“ Phasenverschiebungen beizubehalten, was der Schlüssel zur Lösung schwieriger Probleme wie Übersprechen und DSP-basierte Firmware-Timing-Probleme ist.

Dynamischer Versatz (oder Versatzvariation) ist ein Schlüsseltest für jedes Parallelkanal-Kommunikationssystem. Es kann zum Testen und Verifizieren der Signalintegrität (Übersprechen) und auch zum Stresstesten und Verifizieren der FIFO- und CDR-Leistung in PAM-4 SERDES verwendet werden.

Unterschiedliche Skew-Grade können auch zur Untersuchung von Signalintegritäts- und Übersprechproblemen verwendet werden, die in Hardware- und SI-Teams ein breites Anwendungsspektrum haben. Das Kanal-Timing kann angepasst werden, um sicherzustellen, dass der Kanalübergang der Interferenzquelle in der Mitte des PAM-4-Augenmusters des gestörten Objektkanals auftritt.

PAM-4-Signale sind (aufgrund der geringen Signalspanne) anfälliger für Übersprechen als klassische NRZ. Im dichten Bereich der QSFP-DD (insbesondere um den Host-Anschluss herum) sind die Hochgeschwindigkeits-PAM-4-Kanäle sehr dicht beieinander verdrahtet, und es muss darauf geachtet werden, dass Signalübersprechprobleme vermieden werden. Normalerweise lässt der BER-Tester parallele Kanäle mit einer festen Phase laufen, sodass eine „Worst-Case-Ausrichtung“ bei SI-Stresstests möglicherweise nicht auftritt. Mit dynamischem Skew kann der Quellkanal in relativer Phase gescannt werden, um vollständig zu verifizieren, dass keine Probleme auftreten, selbst im ungünstigsten Phasenverschiebungsszenario. Der Endbenutzer muss nur beobachten, ob in einer bestimmten Phase ein Fehler auftritt offeingestellt (normalerweise, wenn der Quellkanal einen Pegelübergang in der Mitte des „Augendiagramms“ des gestörten Objekts hat).

Modernes SERDES verwendet eine Reihe von FIFO-Puffern, um das Signal vor der weiteren Verarbeitung innerhalb der IC-Struktur neu zu timen und neu auszurichten. Die Neuausrichtung verwendet eine Reihe von FIFO-Puffern, die den Takt von der Haupttaktquelle (normalerweise dem Hauptkanal durch den CDR) wiederherstellen.

Wenn das System nicht richtig entworfen oder implementiert ist, ist es möglich, dass Phasenvariationen und Änderungen zwischen dem Primärkanal (CDR-Referenzkanal) und anderen Kanälen dazu führen, dass der FIFO nicht ausgerichtet ist oder sogar gleitet. Dies manifestiert sich als Bit-Slip, den die erweiterte ONT-Fehleranalyse als Bit-Slip verfolgen kann, und nicht als Burst-Fehler, wie es bei herkömmlichen Testgeräten der Fall ist. Mit der dynamischen Skew-Anwendung kann ONT die Leistung des CDR/FIFO in SERDES absichtlich einem Stresstest unterziehen und versuchen, einen Fehlermodus durch Skew (Bereich und Rate) zu erzwingen. In Kombination mit der fortschrittlichen BER-Analyse von ONT bietet dies ein sehr leistungsfähiges und vollständiges Testsystem für SERDES-Tests und kann verwendet werden, um sehr anspruchsvolle Probleme in 400GE-Verbindungen, die gelegentlich Bit-Slippage verursachen, schnell zu lösen. ONT PAM-4 dynamische Verzerrungen können die Generierung dieser BERs erzwingen, um bei der Diagnose und Behebung der Grundursache zu helfen.

Allgemeiner 400G QSFP-DD-Steuerungsbildschirm

Die Modulverwaltung hat sich im Laufe der Zeit von dem sehr einfachen registerbasierten System SFF 8636 zu CMIS 4.0 entwickelt, einem umfassenden Verwaltungssystem mit vollständigem Modulstatus, das für die Anforderungen komplexerer Module 400GE und höher entwickelt wurde.

Die enge Interaktion zwischen Modulen durch I²C-Steuerschnittstellen, Strom- und Steuerpins und Datenpfade ist für einen robusten und stabilen Betrieb von Modulen unerlässlich. Die Modulkomplexität ist höher, insbesondere für den Datenpfadausgleich im Modul-DSP, was ein umfassenderes Verständnis des Steuerungsaufbaus und der Ausführung zwischen Host und Modul erfordert. Unter CMIS 4.0 müssen Befehle, Operationen und Timing-Verhalten streng in der richtigen Reihenfolge choreografiert werden. Wenn Sie nicht aufpassen, kann es vorkommen, dass ein Modul in einem Host-Steckplatz einwandfrei läuft, aber ein anderes (mit geringfügigen Unterschieden im Timing bei Befehlen, Stromversorgung und Datenpfaden) kann unregelmäßig laufen. Oder noch schlimmer, die Bitfehlerrate steigt und ein seltenes und hartnäckiges Problem tritt höchstwahrscheinlich durch Bit-Schlupf auf. Tools wie ONT integrieren CMIS-Befehle auf I²C sowie Modulleistungssteuerung und Datenpfadstatus, die nicht nur beim Debuggen und Lösen von Problemen helfen, sondern auch beim Stresstesten und Verifizieren der Robustheit von Modulen in verschiedenen Hosts helfen.

der Speicherauszug der ersten Seite des Speichers

Der obige Bildschirm zeigt einen Speicherauszug der ersten Seite des Speichers. So können Sie schnell prüfen, ob die richtigen Werte im gespeichert sind 400 G QSFP-DD EEPROM. Leere oder zufällige Daten können darauf hinweisen, dass das Gerät nicht initialisiert wurde.

genaue Kontrolle der elektrischen Parameter des Moduls auf klare und eindeutige Weise.

Einige der fortschrittlicheren Anwendungen in der Modulverwaltungsanwendung ermöglichen eine präzise Steuerung der elektrischen Anschlussparameter des Moduls auf klare und eindeutige Weise.

Zusammenfassend

400G QSFP-DD-Module sind ein Wunderwerk der elektronischen, photonischen, mechanischen und thermischen Technik in Kombination mit komplexer Firmware. Ein gesundes Multi-Vendor-QSFP-DD-Ökosystem ist entscheidend für den weit verbreiteten Einsatz von 400G-Netzwerktechnologie. Es stellt eine Evolution und Revolution in der traditionellen 100G-Modultechnologie dar, bringt aber auch neue Herausforderungen mit sich, darunter PAM-4-Signalisierungen (elektrisch und optisch), FEC für Link-BER-Steuerung und die neuen Komplexitäten von CMIS 4.0.

Diese Herausforderungen sind größer, da die Skalierungs- und Bereitstellungsanforderungen von Hyperscale-Benutzern zu Änderungen bei den Preiserwartungen führen. Die Produktion muss die Ertrags- und Durchsatzanforderungen erfüllen, um die Preiserwartungen zu erfüllen, und gleichzeitig über die Abdeckungs- und Analysefähigkeiten verfügen, um die neuen Herausforderungen von PAM-4 zu meistern.

Hinterlasse einen Kommentar

Nach oben scrollen