10G SFP+, 25G SFP28, 40G QSFP+, 100G QSFP28 Special Offer!
Currency: USD
USD - US Dollar
EUR - Euro
GBP - British Pound
CAD - Canadian Dollar
AUD - Australian Dollar
JPY - Japanese Yen
SEK - Swedish Krona
NOK - Norwegian Krone
INR - Indian Rupee
BRL - Brazilian Real
RUB - Russian Ruble
Need Help?
  1. Anglais
  2. RUSSE
  3. Portugais
  4. Espagnol
  5. Français
  6. Deutsch
  7. 한국어
  8. العربية
  9. Japonais
Sélectionnez Devise
USD - Dollar américain
EUR - Euro
GBP - Livre britannique
CAD - Dollar canadien
AUD - Dollar australien
JPY - Yen japonais
SEK - Couronne suédoise
NOK - Couronne norvégienne
INR - Roupie indienne
BRL - Réal brésilien
RUB - Rouble russe
d’aide

Émetteurs-récepteurs OSFP 800G QSFP-DD800

Émetteurs-récepteurs OSFP 800G QSFP-DD800

Trier par :Le plus récent d'abord

Filtre
Filtre
Filtre
Résultats 43

afficher {{page_size}}

Présentation
Émetteur-récepteur optique 800G : SR8 contre DR contre FR contre LR contre FR4 contre LR4 contre FR8
Les sponsors du MSA enfichable 800G sont principalement des entreprises chinoises et japonaises, notamment China Telecom Technology Laboratory, H3C, Huawei, Sumitomo, Tencent et Yamazaki. L'objectif est de définir des modules optiques enfichables à faible coût pour les applications de centre de données avec une transmission 800G à courte portée, y compris les spécifications 8X100G et 4X200G, avec des distances de transmission comprenant 100 m, 500 m et 2 km, comme indiqué dans la figure ci-dessous. 
Il y a actuellement des opinions dans l'industrie selon lesquelles les besoins de transmission 800G émergeront en 2021, et le marché commencera à mûrir d'ici 2023. En conséquence, il existe un groupe de travail sur le module optique QSFP-DD800 MSA dirigé par le géant américain des communications Broadcom et Cisco pour promouvoir la standardisation des modules optiques 800G et des connecteurs associés au format QSFP-DD.

Figure 1. Le champ de recherche du 800G MSA

Le contenu général de cet article :
1. De nouvelles applications (informatique en nuage, applications d'IA) ont entraîné une demande de bande passante d'interconnexion plus élevée, et l'industrie a besoin de modules optiques plus rapides, tels que 800G ;
2. Architecture du centre de données et besoins en bande passante des commutateurs à différents endroits ;
3. Exigences du scénario d'interconnexion SR, analyse technique de la solution 8x100G ;
4. Besoin d'analyse du scénario FR pour interconnecter, la faisabilité de la technologie 4x200G, technologie clé ;
5. Solutions techniques potentielles pour les scénarios DR ;
6. Synthèse et perspectives.

Figure 2. Principales entreprises motrices du 800G MSA

1. Contexte - Le marché 800G arrive
Selon les recherches de Fiber Mall, de nouvelles applications telles que l'AR/VR, l'IA et la 5G généreront de plus en plus de trafic et connaîtront une croissance exponentielle. Cela entraînera le besoin de plus de bande passante et de plus de connexions, comme le montre la figure. La capacité mondiale de bande passante d'interconnexion continuera de croître rapidement au cours des quatre prochaines années, avec un taux de croissance composé de 48 %.

Figure 3. Indice mondial d'interconnexion
Le marché correspondant à la demande reflète également cette tendance. Comme le montre la figure 4, le comptage de la lumière prédit que les modules optiques 400G sur le marché des centres de données connaîtront une croissance rapide au cours des cinq prochaines années, et qu'un marché 2x400G ou 800G apparaîtra vers 2022. Selon Vladimir, Ph.D., PDG de Lightcounting Market Research, les opérateurs de centres de données cloud déploieront des modules optiques 800G QSFP-DD et 800G OSFP en 2023 à 2024 pour faire face à la croissance du trafic réseau. La plupart de ces modules optiques seront enfichables, et il est possible de voir des modules co-packagés.

Figure 4. Prévisions de ventes annuelles du marché des modules optiques pour centres de données
Comme la loi de Moore de doubler la capacité en deux ans n'a pas encore expiré dans les puces ASIC de commutation, l'architecture des centres de données cloud sera remise en question par l'expansion de la capacité. Les commutateurs Ethernet actuellement déployés dans le commerce ont une capacité de 12.8 Tb/s, mais ils devront être remplacés par 25.6 Tb/s en 1 an. Le chemin d'évolution de la capacité des commutateurs est illustré à la figure 5, ce qui exercera une pression énorme sur les interconnexions optiques à haute densité. En effet, tous les dispositifs optoélectroniques ne peuvent pas doubler leur densité d'intégration tous les deux ans comme le font les processus CMOS. Ceci est déterminé par les différences dans les appareils, la conception et les méthodes de fabrication.

Figure 5. Loi d'évolution de la capacité des puces de commutation du centre de données
Au cours des dernières années, les modules optiques à courte portée 100G basés sur le sondage direct NRZ ont fait sensation, transportant la majeure partie du trafic à croissance rapide pour les services cloud. Depuis que l'IEEE a lancé des recherches sur les normes liées au 400GE en mars 2011, elle a inauguré le déploiement de modules optiques QSFP-DD 400G à grande échelle en 2020 et la demande sera encore plus forte l'année prochaine. La figure 4 illustre cette tendance à la croissance. Il convient de noter qu'au stade précoce de l'application, les modules 400G QSFP-DD sont principalement utilisés pour la transmission dans les scénarios DR4 avec des débits 4x100G et des distances jusqu'à 500 m, ainsi que des scénarios FR4 avec des débits 2x200G et des distances jusqu'à 2 km, le 400GE La fonction MAC n'est pas vraiment utilisée. Dans le même temps, il est également noté que l'IEEE pourrait ne pas normaliser les ports optiques 800GE à court terme, au moins au cours des deux dernières années, il n'achèvera pas l'interconnexion haute densité 8x100GE ou 2x400GE de la norme 800GE. Mais d'ici là, la demande réelle de 800G est apparue, de sorte que l'industrie doit développer des spécifications pour réaliser l'interconnexion et l'interopérabilité des produits de modules optiques 800G de différents fabricants.

2. Architecture du centre de données
En général, l'architecture du centre de données et les caractéristiques du trafic peuvent différer selon l'application desservie. Par exemple, le trafic principal dans un centre de données qui fournit des services de type XaaS à des clients externes est plus susceptible d'être nord-sud serveur à client, auquel cas la taille du centre de données peut être plus concentrée géographiquement. En revanche, dans un centre de données axé sur le cloud ou le stockage pour les besoins internes, le trafic est plus susceptible de circuler d'est en ouest de serveur à serveur, ce qui nécessite généralement une concentration des ressources du méga centre de données. Même si les scénarios d'application sont similaires, les opérateurs peuvent toujours choisir des solutions d'interconnexion optique basées sur PSM4 ou CWDM4 en fonction de leurs propres préférences. Cela conduit à une diversité d'architectures et de technologies de centres de données.
Il existe au moins deux architectures de centres de données courantes. La figure ci-dessous montre une architecture typique de centre de données (3 niveaux) et sa feuille de route d'évolution du taux de commutation. Cependant, un centre de données typique aura plus de périphériques que celui de la figure et l'architecture apparaîtra plus grande et plus complexe. Le rapport de convergence d'environ 3:1 est considéré entre chaque couche. Par exemple, un commutateur Spine peut être connecté à trois commutateurs Leaf, et ainsi de suite. Au-dessus de la couche Spine, une solution d'interconnexion optique cohérente de type ZR est nécessaire pour réaliser l'interconnexion avec d'autres centres de données (scénario DCI). Le symbole du taux d'interface 800G est que lorsque le taux entre le serveur et le commutateur TOR atteint 200G, la structure de déploiement PSM4 4x200G entre TOR et Leaf ainsi que la couche Spine doivent être adoptées.

Figure 6. Architectures communes de centre de données de couche 3 et évolution du taux d'interconnexion optique
Les commutateurs TOR, Leaf et Spine correspondent ici en fait à la couche d'accès, à la couche d'agrégation et à la couche centrale. Pour un réseau de centre de données (DCN) typique, 800 G de bande passante de connexion réseau sont nécessaires si 200 G de bande passante de serveur sont déployés. Cependant, certains échangesoffs peuvent être effectués dans la capacité du centre de données à fournir des services (bande passante, distance de transmission et autres ressources) en fonction du budget de construction du centre de données. Comme dans le tableau 1, les exigences de bande passante et de distance de transmission pour les différents niveaux du réseau du centre de données sont indiquées, ainsi que les exigences de taille de module optique recommandées.

Tableau 1. Exigences en matière de bande passante et de distance de transmission pour différentes couches de DCN
Compte tenu des demandes informatiques massives des applications d'IA émergentes récemment, une architecture de commutation à deux couches est généralement adoptée dans certains clusters de supercalculateurs orientés application d'IA ou centres de données d'IA, comme le montre la figure 7. En effet, compte tenu des caractéristiques de l'informatique d'IA , il n'est pas nécessaire d'agréger le trafic entre les couches. Le trafic de chaque serveur étant déjà très important, il correspond directement à une interface de commutation et bénéficie de ressources exclusives en bande passante. On constate que les caractéristiques de trafic de ce réseau de data center IA ou supercalculateur sont différentes de celles des data centers classiques. Ce sont principalement les services de trafic à grosses particules qui n'ont pas besoin d'un échange fréquent.

Figure 7. Architecture de réseau de centre de données AI/HPC et démonstration des tarifs
Ce réseau de centre de données de couche 2 ne nécessite pas d'agrégation de trafic entre les couches. Si des serveurs 400G sont déployés, une bande passante d'interconnexion réseau 800G est requise. Par rapport au réseau traditionnel de centre de données commuté à trois couches, cette architecture à deux couches est plus pratique pour un déploiement rapide et a une latence plus faible, ce qui est très approprié pour le futur AI ou le supercalculateur DCN. Le tableau 2 présente les indicateurs techniques spécifiques de ce DCN.

Tableau 2. Configuration réseau requise pour le centre de données AI ou HPC
Cependant, dans certaines petites entreprises ou petits réseaux de centres de données cloud, le taux de transfert entre Leaf et les serveurs peut ne pas nécessiter autant de bande passante que 400G, ce qui nécessite une conception spécifique qui prend en compte la relation entre les scénarios d'application réels rencontrés et le coût.
Parlons de ce que vous devriez rechercher dans la construction de centres de données. Les deux facteurs les plus importants à prendre en compte dans une solution de centre de données sont l'évolutivité et le coût. Lors de la conception d'un centre de données, le contrôle des coûts et les performances ne peuvent pas être construits selon une norme trop élevée ou trop basse. Si les utilisateurs surconstruisent, des ressources seront gaspillées, bien que ces ressources puissent être utilisées pour développer davantage d'activités. Mais la capacité des ressources inutilisées est coûteuse et cette capacité peut devenir une technologie obsolète lorsqu'elle est réellement nécessaire pour être utilisée. Par exemple, si un utilisateur construit un centre de données avec un cycle de vie prévu de 10 ans et dispose d'une capacité supplémentaire intégrée pour s'adapter à la croissance future, cette capacité peut devenir obsolète en cinq ans. À ce moment-là, les progrès en matière de consommation d'énergie, de performances et d'autres fonctionnalités peuvent désavantager considérablement les opérations et la maintenance du centre de données. 
Les centres de données peuvent également être difficiles s'ils sont construits selon des normes inférieures, et peuvent même être plus chers. Si la capacité de l'utilisateur à concevoir des règles ne répond pas aux exigences prévues, il y aura des dépenses en capital importantes lors de l'expansion et de la mise à niveau du centre de données.
C'est en raison de la construction possible du centre de données ci-dessus sur ou sous le problème, de sorte que l'expansion rapide du centre de données, le fonctionnement pratique et le coût de ces problèmes majeurs sont les priorités de nombreuses entreprises.
Cela est dû à la possible surconstruction ou sous-construction des centres de données susmentionnée. Par conséquent, les principaux problèmes d'expansion rapide des centres de données, de facilité d'exploitation et de coût sont des priorités pour de nombreuses entreprises. Pour la solution la plus flexible, les entreprises choisissent souvent le modèle d'hébergement de centre de données. Les opérateurs d'hébergement de centres de données permettent aux utilisateurs de "payer à la demande, d'évoluer progressivement". Les utilisateurs peuvent agrandir ou réduire l'espace loué selon leurs besoins et ne payer que les frais d'utilisation associés. Cela supprime la capacité inutilisée ou sous-utilisée de l'utilisateur, supprime tous les problèmes liés à l'infrastructure et maximise la valeur de son investissement informatique.
Cependant, ce n'est pas un problème pour certains géants de l'Internet, plus préoccupés par la valeur des données elles-mêmes, ils n'hésiteront donc pas à investir beaucoup d'argent pour construire leurs propres centres de données et fournir leurs propres services cloud, détenant des actifs clés. entre leurs propres mains. Par exemple, Alibaba, Tencent, Baidu, Facebook, Google et même certains d'entre eux ont des départements de recherche dédiés à l'infrastructure réseau, recherchant diverses solutions d'interconnexion optique à faible coût et à haut débit, même le module optique pour développer le leur. L'objectif est de construire un meilleur réseau de centres de données, de fournir des services plus rapides et plus diversifiés et d'attirer plus d'utilisateurs.
Enfin, il convient d'expliquer pourquoi les réseaux de centres de données sont devenus si populaires ces dernières années. Tout commence par la vidéo. Les dernières prévisions de trafic VNI de Cisco, illustrées ci-dessous, montrent que le trafic vidéo est devenu une partie de plus en plus importante du réseau ces dernières années et devrait représenter plus de 80 % de tout le trafic Internet d'ici 2022. Cela ne surprendra pas vous, car nous sommes chaque jour destinataires et producteurs de trafic vidéo. L'essor du service vidéo est le changement de l'architecture du réseau support et de la distribution du trafic. Avec la construction de réseaux de distribution de contenu (CDN) et le naufrage des réseaux de centres de données (DCN), le contenu, tel que les vidéos et les fichiers, est mis en cache plus près de l'utilisateur, offrant une latence plus faible et une mise en mémoire tampon plus rapide. La majeure partie du trafic n'aurait plus besoin de parcourir de longues distances dans le réseau dorsal, mais se retrouverait dans la portée des réseaux métropolitains à courte et moyenne distance ou des réseaux de centres de données. Dès 2017, il y avait un rapport selon lequel le trafic MAN à courte et moyenne distance avait dépassé le trafic dorsal à longue distance. Le centre de données, en particulier l'interconnexion de centres de données cloud (DCI), est l'application la plus typique des réseaux métropolitains. Par conséquent, il n'est pas surprenant que le sujet de celui-ci soit brûlant ces dernières années.

Figure 8. Dernières prévisions de trafic VNI de Cisco

Solution 3.8x100G pour scénario 800G SR
a) Analyse des exigences du scénario d'application de 800G QSFP-DD ou OSFP SR
Pour la transmission de centres de données de 100 m, l'industrie a en fait été en proie à la technologie de transmission VCSEL avec une limite de débit d'environ 100 G par canal, et il semble difficile de continuer à augmenter la vitesse. Le 800G MSA vise à développer des modules optiques 8x100G QSFP-DD ou OSFP à faible coût pour les applications SR, garantissant au moins les applications les plus importantes en SR, prenant en charge des transmissions de 60 à 100 m, comme illustré à la Figure 9.
En outre, le groupe de travail 800G MSA tente de définir une technologie d'émetteur qui permet une réduction linéaire des coûts grâce à une approche hautement intégrée pour permettre une poussée précoce rapide sur le marché de l'interconnexion optique haute densité 800G. Le 800G SR8 à faible coût peut prendre en charge les tendances évolutives actuelles des centres de données en fournissant une connectivité de serveur série 100G à faible coût : augmentation des ports de commutation et diminution du nombre de serveurs par rack. Comme le montre la Figure 9, le groupe de travail 800G MSA définira une spécification de sous-couche dépendante du support physique (PMD) à faible coût pour les interconnexions fibre monomode basées sur la technologie 100G PAM4. De plus, en raison du besoin d'une faible latence dans les applications SR, KP4 FEC sera utilisé pour implémenter la correction d'erreurs dans les modules optiques 800G MSA, et d'autres algorithmes DSP incluent une récupération et une égalisation d'horloge simples. Un connecteur devra également être défini pour le module PSM8 afin de permettre la connexion au 8x100G.

Figure 9. Schéma fonctionnel de l'architecture du module optique 800G SR8/PSM8 et plage de spécifications 800G MSA
Par rapport aux modules SR conventionnels, le 800G SR8 n'utilisera plus une solution multimode basée sur VCSEL, mais une méthode de transmission monomode parallèle, PSM8, avec un format de modulation de PAM4 et incluant une puce DSP.

b) Analyse de faisabilité de la solution 8x100G
Comme analysé ci-dessus, le débit 100G monocanal peut limiter la solution multimode dans 400G QSFP-DD SR8 pour poursuivre l'évolution vers 800G QSFP-DD SR8. Sur la base du modèle théorique de l'IEEE, on peut en déduire que lorsque le débit en bauds atteint la bande 50G, la distance de transmission prise en charge par la fibre MMF multimode ne dépassera pas 50 m, comme indiqué dans le tableau 3.
Les principaux facteurs limitants sont la largeur de bande de modulation du VCSEL et la dispersion intermodale du MMF. Bien que la distance de transmission puisse être étendue à environ 100 m à l'aide du puissant algorithme DSP en optimisant la conception de l'appareil et de la fibre optique, le coût est élevé, avec un retard et une consommation d'énergie importants. Sur cette base, le groupe de travail du module optique MSA Pluggable 800G recommande une technologie de transmission monomode pour l'interconnexion 800G-SR8.

Tableau 3. La relation entre la bande passante MMF et la distance de transmission est prédite sur la base du modèle théorique IEEE
Pour garantir une solution SMF à fibre monomode avec un coût et une consommation d'énergie réduits, des exigences standard PMD raisonnables doivent être définies pour le 800G-SR8. La définition de la couche PMD doit satisfaire au moins trois principes :
1) Autoriser plusieurs technologies de transmission basées sur des solutions, telles que DML, EML et SiPh.
2) Tout le potentiel de l'appareil peut être pleinement utilisé afin d'atteindre les performances de liaison cibles.
3) Les paramètres de la couche PMD sont assouplis autant que possible tant que les performances de la liaison fiable sont satisfaites. Ces trois principes sont expliqués et analysés dans ce qui suit avec les résultats de l'étude expérimentale.
Tout d'abord, en termes de budget de puissance, le 800G-SR8 monomode devrait être très similaire au 400G-SR8, la seule différence étant la nécessité de définir la perte d'insertion pour le connecteur monomode PSM8 nouvellement défini. . Cela signifie que la puce DSP peut répondre aux exigences de budget de puissance du 800G-SR8 en utilisant directement les dispositifs optoélectroniques éprouvés de l'interconnexion 400G-SR8 actuelle. Par conséquent, en plus de définir le connecteur PSM8, le plus grand défi dans la définition de la spécification PMD 800G-SR8 consiste à trouver l'amplitude de modulation optique (OMA), le taux d'extinction (ER), l'émetteur et la fermeture des yeux de dispersion appropriés pour PAM4 (TDECQ) , et la sensibilité du récepteur. Pour trouver ces mesures appropriées, le groupe de travail MSA a testé et évalué les performances BER d'un certain nombre d'émetteurs différents, comme le montre la figure 10.

Figure 10. (a) Résultats EML BER vs. OMA basés sur des ASIC DSP 400G disponibles dans le commerce ; (b) Résultats SiPh BER vs. OMA basés sur des ASIC DSP 400G disponibles dans le commerce, (c) Résultats DML BER vs. OMA basés sur des ASIC DSP 400G disponibles dans le commerce
Les résultats expérimentaux ci-dessus sont des courbes BER vs OMA mesurées en temps réel sur un signal PAM100 4G à une seule longueur d'onde basé sur une puce DSP 400G commerciale. Parmi eux, les résultats 100G d'EML et de SiPh sont peut-être déjà connus car ils ont été discutés ces dernières années, mais la sensibilité basée sur la solution DML est également assez bonne, seule la plate-forme BER est légèrement supérieure, mais tant qu'elle est sous le seuil BER de KP4 FEC. Étant donné que la photonique au silicium, la perte de l'émetteur optique est un peu plus grande, sa puissance de sortie est plus petite que les autres solutions, il doit donc essayer de prendre en compte la relaxation appropriée lors de la définition de l'indice OMA minimum 800G SR8.
Notez que bien que des appareils DML avec une bande passante plus petite que les appareils EML et SiPh soient utilisés dans les résultats DML ci-dessus, l'utilisation de puces DSP commerciales qui sont plus puissantes que le récepteur de référence 400GE défini par l'IEEE peut toujours obtenir une meilleure égalisation et atteindre une sensibilité OMA similaire à celle EML et SiPh pour respecter le budget de puissance 800G SR8. Afin de libérer tout le potentiel du DSP dans les applications 800G SR8, les tests de conformité du récepteur tels que TDECQ doivent être redéfinis pour correspondre à la capacité d'égalisation réelle des puces DSP commerciales, comme plus de prises que les 5 prises actuellement définies.
D'autre part, compte tenu des exigences de sensibilité plus faibles dans les scénarios SR et des contraintes strictes de consommation d'énergie dans les modules optiques 800G, l'utilisation de modes DSP à faible complexité sera également recommandée dans les futurs modules optiques 800G. Le taux d'extinction ER, en tant que métrique directement liée à la consommation d'énergie, est théoriquement plus le ER est faible, mieux c'est tant que la transmission fiable du lien est garantie. Sur la base de l'analyse ci-dessus, le groupe de travail MSA estime qu'une solution à faible coût et à faible consommation d'énergie basée sur SMF peut être utilisée comme une solution prometteuse pour les applications 800G-SR.

4. Solution 4x200G pour scénario 800G FR
a) Analyse des exigences du scénario 800G FR QSFP-DD ou OSFP
La transmission 200G à canal unique basée sur la technologie de modulation PAM4 est la prochaine étape technique majeure pour les systèmes de détection directe de modulation d'intensité (IMDD) et la base pour réaliser des interconnexions optiques 4G à 800 canaux, et même d'autres interconnexions à haut débit 1.6T basées sur celle-ci.
Comme le montre la figure 11, le groupe de travail définira un ensemble complet de spécifications de couche PMD et PMA partielle, y compris une nouvelle solution FEC à faible puissance et à faible latence pour envelopper une couche sur le signal d'entrée électrique 112G afin d'améliorer le gain de codage net du modem.
L'un des objectifs de l'industrie est de développer une nouvelle génération de simulateurs électriques et optiques à large bande pour les composants d'émetteur et de récepteur, y compris les ADC et DAC couramment utilisés. Pour répondre aux exigences d'alimentation des modules optiques 800G enfichables, la prochaine génération de puces DSP PAM200 4G sera fabriquée à l'aide d'un processus CMOS à jonction inférieure, tel que 7 nm/5 nm, et nécessitera également des algorithmes de traitement du signal numérique à faible complexité et faible consommation. pour égaliser le canal.

Figure 11. Schéma fonctionnel de la structure du module optique 800G FR4/PSM4 et plage de spécifications 800G MSA
La solution d'interconnexion 4x200G FR semble avoir deux voies de réalisation, l'une est une solution PSM4 avec 4 paires de fibres monomodes, et l'autre utilise une seule paire de fibres basée sur CWDM4, qui a encore une différence relativement importante de port optique externe la densité, ainsi que le coût et la complexité des modules CWDM4 devraient également être considérablement augmentés.
b) Analyse de faisabilité de la solution 4x200G
Dans LAN-WDM, TEC est requis pour le contrôle de la température, tandis que dans l'application 200G monocanal, le contrôle de la température devrait être évité. Le budget de puissance pour 800G-FR4 sera analysé sur la base de CWDM4. Les principaux facteurs liés au bilan de puissance comprennent la perte d'insertion de liaison, l'interférence de trajets multiples (MPI), le retard de groupe différent (DGD) et la pénalité d'émission et de dispersion (TDP). Selon le modèle publié dans la norme IEEE, la pénalité causée par MPI et DGD est calculée comme indiqué dans le tableau 4. Puisque le baud du canal unique 200G est supérieur à 100G, la pénalité de dispersion doit être plus grande. Le groupe de travail a recommandé une valeur TDP raisonnable de 3.9 dB. En résumé, en tenant compte du vieillissement du récepteur, des pertes de couplage et de la puissance de sortie optique d'un émetteur typique, le groupe de travail a conclu que la sensibilité du récepteur 200G PAM4 doit être d'environ -5dBm.

Tableau 4. Analyse du budget de puissance du 800G-FR4
Par rapport à 100G, le baud de 200G double, entraînant une dégradation du SNR de 3dB. Il peut être nécessaire d'utiliser des codes de correction d'erreur FEC plus forts pour maintenir une sensibilité de -5 dBm et éviter que la plate-forme BER ne dépasse le seuil Pre FEC BER. Par conséquent, comme mentionné précédemment, une couche supplémentaire de FEC à faible latence et à faible complexité doit être enveloppée au-dessus de KP4 FEC lorsque le module optique est implémenté. Le nouveau seuil d'erreur FEC peut être défini en fonction des performances réelles de la liaison optique et des exigences de budget de puissance.
Le groupe de travail a également analysé plus en détail les performances de la liaison 200G à canal unique par le biais de simulations et d'expériences. Les paramètres des appareils utilisés dans la liaison sont présentés dans le tableau 5. Les résultats expérimentaux montrent que lorsque le seuil BER du nouveau FEC est défini sur 2e-3, la sensibilité du récepteur peut atteindre la cible, comme le montre la figure 12(a ). Cependant, l'algorithme d'estimation de séquence de vraisemblance maximale (MLSE) est utilisé dans les expériences pour compenser la forte interférence inter-code ISI dans le canal due au filtrage à bande étroite. 
La ligne pointillée sur la figure 12(a) représente les résultats basés sur la simulation des paramètres du dispositif expérimental. Parallèlement aux résultats expérimentaux, l'étude de simulation montre que le facteur limitant pour les performances du système est la bande passante des dispositifs tels que DA/AD, pilote et modulateur électro-optique. En supposant que des appareils à large bande passante seront introduits sur le marché dans les prochaines années, la simulation est basée sur le même système, mais après avoir défini la bande passante de l'appareil sur une taille plus grande, il s'avère que l'exigence de sensibilité correspondante peut être satisfaite dans le DSP à Pre FEC BER = 2e-3 en utilisant uniquement l'algorithme d'égalisation directe (FFE), et les résultats sont présentés sur la figure 4(b), ce qui est conforme à l'attente théorique.

Tableau 5. Paramètres de l'appareil utilisés dans l'expérience et la simulation


Figure 12. (a) Résultats expérimentaux et de simulation d'un canal unique 200G dans les conditions de la bande passante de l'appareil existant ; (b) Résultats de la simulation d'égalisation FFE d'un canal unique 200G avec des appareils à bande passante améliorée.
Sur la base de l'analyse ci-dessus, il est toujours recommandé de respecter les mesures TDECQ correspondantes dans le test de conformité du scénario 800G-FR4. Seul le nombre de prises FFE des récepteurs de référence utilisés dans les tests TDECQ doit être augmenté à une valeur appropriée, ce qui mérite également une discussion et une étude plus approfondies. Bien sûr, si la capacité (bande passante) des futurs appareils 100Gbd n'est pas à la hauteur de nos attentes, nous devrons toujours envisager d'utiliser des algorithmes plus complexes tels que MLSE dans le scénario FR4, ce qui implique de développer de nouvelles solutions de conformité.

c) Analyse de la solution de conditionnement 4x200G
Afin d'assurer l'intégrité du signal haut débit compte tenu de la gamme de fréquences de Nyquist (c'est-à-dire 56 GHz), la conception du boîtier de l'émetteur 4x200G et du récepteur doit être reconsidérée. Deux implémentations possibles de l'émetteur sont données dans la Figure 13. La méthode A est la solution traditionnelle où le pilote et le modulateur sont placés ensemble. En revanche, la puce Driver conçue à l'envers dans la solution B est co-packagée avec la puce DSP pour optimiser l'intégrité du signal sur la ligne de transmission RF. Ces deux technologies sont actuellement disponibles.
Des études de simulation préliminaires montrent que de meilleurs résultats et des bandes passantes garanties supérieures à 56 GHz peuvent être obtenus en utilisant la solution B. L'ondulation de la courbe de réponse en fréquence S21 de la solution A peut être causée par la réflexion du signal sur l'entrée du pilote, qui peut être optimisée en faisant correspondre le Conception du pilote pour améliorer encore les performances finales de la solution A.

Figure 13. Deux types d'emballage pour l'émetteur. La ligne de transmission RF (ligne rouge), l'alignement et le modulateur sont pris en compte dans la simulation S21, et la bande passante de 3 dB de la puce EML utilisée est supposée être de 60 GHz.
Côté récepteur, la capacité parasite doit être réduite pour obtenir un photodétecteur (PD) à large bande passante, ainsi qu'un amplificateur trans-impédance (TIA) à large bande passante pour assurer la bande passante du récepteur. Il n'y a aucun problème technique pour mettre en oeuvre un tel dispositif en utilisant la technologie actuelle des semi-conducteurs. Certaines entreprises du secteur ont même déjà investi beaucoup d'efforts dans le développement des produits correspondants, qui devraient atteindre la production de masse d'ici un à deux ans. De plus, la connexion entre PD et TIA est également importante et doit être optimisée et analysée car les effets parasites peuvent affecter les performances.

d) Codage de correction d'erreur directe (FEC) en canal unique 200G
Dans l'ensemble, une solution FEC plus forte avec un seuil PreFEC BER de 2e-3 a été mentionnée précédemment pour garantir les exigences de sensibilité du récepteur 200G PAM4. La figure 14 montre les résultats de la comparaison entre les solutions en cascade et de remplacement. Dans la première solution, le KP4 FEC est remplacé par le nouveau FEC plus coûteux au niveau du port optique intermédiaire, qui présente des avantages en termes de surdébit total et de gain de codage net. Dans la deuxième solution, une approche FEC en cascade est adoptée, où KP4 continue d'être retenu comme couche de codage externe et est utilisé conjointement avec le nouveau code interne. Ce code en cascade présente l'avantage d'une latence et d'une consommation d'énergie faibles et convient donc mieux au scénario d'application 800G-FR4.

Figure 15. Solution FEC 800G : Nouveau FEC de remplacement par rapport au FEC KP4 en cascade

Un moyen plus direct d'atteindre le seuil FEC 2E-3 BER consiste à connecter les numéros de génération illustrés à la Figure 16 en série avec KP4, en minimisant la consommation d'énergie et le délai de bout en bout. Les codes de Hamming avec capacité de correction BER simple et les codes BCH avec capacité de correction BER double sont des choix appropriés pour les codes de génération dans ce schéma en cascade. Les deux codes internes ont une surcharge d'environ 6 % et combinés à un simple algorithme de décodage récursif soft-in-hard-out (SIHO) avec 64 modèles de test, les codes Hamming et BCH peuvent atteindre des performances de correction d'erreur supérieures à 2e-3. La distribution de symboles définie dans 400GBASE-R sert essentiellement d'entrelaceur de parité pour le codage en cascade, et le retard de 10k bits est suffisant pour la décorrélation avec le bruit introduit dans la fibre.

Figure 16. Schéma de structure du schéma en cascade pour KP4 et codes linéaires

5. Solutions possibles pour les scénarios 800G DR QSFP-DD ou OSFP
Comme indiqué dans le tableau 6, il existe quatre chemins pour atteindre 800G DR.
Premièrement, la solution SR8 définie dans le MSA 800G peut étendre directement la portée de transmission de 500 m. Étant donné que la solution de fibres parallèles nécessite plus de fibres, le coût des fibres jusqu'à 500 m de long peut être un problème dans cette application.
Deuxièmement, sur la base de la solution FR4 existante, une solution CWDM 2x400G peut être fournie en doublant simplement les dispositifs émetteurs-récepteurs, ce qui semble trouver un bon équilibre entre la consommation de ressources en fibre et la maturité du schéma, mais son coût et sa consommation d'énergie peuvent limiter son application pratique. .
Enfin, la prochaine génération de solutions 200G monocanal (PSM4 ou CWDM4) pourra peut-être couvrir les applications DR. Cette approche ne nécessite que 4 paires de modules émetteurs-récepteurs optiques et semble avoir la consommation d'énergie et le coût les plus faibles. Cependant, en raison de la maturité de l'industrie et de la faisabilité pratique de preuves supplémentaires, il n'est pas clair quand la solution sera disponible dans le commerce.

Tableau 6. Quatre solutions possibles pour 800G DR
En résumé, quatre options possibles pour le 800G DR ont été discutées et le groupe de travail continuera de surveiller le développement de chaque itinéraire technique et de recommander des options à un moment approprié à l'avenir.

6. Résumé et perspectives
Le MSA enfichable 800G prendra la tête de la définition des modules optiques pour les scénarios 800G-SR8 et FR4. Dans le scénario SR8, afin de prendre en compte davantage de technologies et d'introduire des solutions monomodes basées sur SMF, le groupe de travail a envisagé des ajustements appropriés à certains paramètres clés de la couche PMD, permettant éventuellement d'assouplir les exigences OMA et ER pour réduire la consommation d'énergie et les récepteurs de référence pour les tests TDECQ devront être redéfinis.
Le groupe de travail a également démontré la faisabilité technique de la transmission optique 200G monocanal pour les applications FR800 4G. Les résultats expérimentaux et de simulation ont montré qu'il est nécessaire d'ajouter une sous-couche de codage FEC à faible latence et à faible puissance dans le module optique pour atteindre le budget de puissance cible. Les détails techniques de ce nouveau FEC seront présentés dans la spécification standard 800G-FR4 pour faciliter l'interopérabilité multifournisseur. Dans le même temps, l'amélioration de la bande passante des appareils et l'optimisation de la conception des packages de modules sont deux questions qui nécessitent une étude plus approfondie.
Le MSA enfichable 800G a publié la première version de la spécification au quatrième trimestre 4, avec un petit nombre d'appareils déjà en prototype et les premiers modèles optiques 2020G devraient être disponibles en 800. Avec la génération 2021GbE prête à être déployée sur le marché, Les modules optiques enfichables 400G tireront parti du nouvel écosystème pour fournir une densité d'interconnexion plus élevée pour la prochaine génération de commutateurs 800T et 25.6T afin de permettre des interconnexions optiques 51.2G et 100G à canal unique rentables.
Au-delà de 800G à 1.6T, l'industrie commence à voir les limites possibles des modules optiques enfichables. En utilisant des PCB classiques, il est peu probable que les interconnexions SerDes pour C2M évoluent vers des débits 200G à canal unique, ce qui nécessite que les composants électroniques/puces analogiques et les dispositifs optiques soient placés plus près de la puce de commutation. Que l'industrie choisisse éventuellement l'optique co-emballée (CPO), ou l'optique embarquée (OBO), ou une version améliorée du pluggable, la définition MSA du monocanal 200G sera 800G et 1.6T interconnecter l'unité de base nécessaire, le l'importance et la signification de l'évidence.

Plus