- FibreMall
- 21 août 2023
- 7 h 03
Harry Collins
Répondu à 7h03
Oui, mais vous devez utiliser un émetteur-récepteur et un câble à fibre optique spécifiques, ainsi qu'une configuration de partage de ports côté commutateur.
OSFP et QSFP112 sont tous deux des émetteurs-récepteurs à fibre optique prenant en charge des débits de données de 400 G, mais ils ont des tailles et des interfaces différentes. L'émetteur-récepteur OSFP peut diviser un signal 400 Gb/s en quatre signaux de 100 Gb/s ou combiner quatre signaux de 100 Gb/s en un seul signal de 400 Gb/s, tandis que l'émetteur-récepteur QSFP112 peut diviser un signal de 400 Gb/s en deux 200 Gb/s. signaux ou combinez deux signaux 200 Gb/s en un seul signal 400G. L'émetteur-récepteur QSFP112 peut diviser un signal de 400 Gb/s en deux signaux 200G ou combiner deux signaux 200G en un signal de 400 Gb/s.
Par conséquent, pour réaliser la connexion d'OSFP côté serveur et de QSFP112 côté commutateur, vous devez utiliser un câble 1-à-2. Une extrémité du câble a une interface OSFP et l'autre extrémité a deux interfaces QSFP112, de sorte que le signal 400G de l'émetteur-récepteur OSFP puisse être divisé en deux signaux 200 Gb/s, puis connecté aux deux émetteurs-récepteurs QSFP112 respectivement.
Dans le même temps, vous devez effectuer une configuration de répartition des ports côté commutateur pour diviser un port NDR en deux ports NDR200.
De cette manière, la communication de données entre le serveur et le commutateur peut être réalisée.
Les gens demandent aussi
Articles Relatifs
Rapport de test de compatibilité et d'interconnexion des modules émetteurs-récepteurs optiques 800G SR8 et 400G SR4
Version Change Log Writer V0 Exemple de test Cassie Objectif du test Objets de test : 800G OSFP SR8/400G OSFP SR4/400G Q112 SR4. En effectuant les tests correspondants, les paramètres de test répondent aux normes industrielles pertinentes,
Le révolutionnaire Nvidia DGX GH200 : alimenter l’avenir des supercalculateurs IA
Le Nvidia DGX GH200 représente un changement de paradigme dans l’intelligence artificielle (IA) et l’apprentissage automatique, ouvrant la voie à un nouveau chapitre pour les supercalculateurs IA. Il a été conçu comme un système de pointe
Réseaux évolutifs GPU basés sur Ethernet
Le lancement récent du Gaudi-3 d'Intel, qui utilise RoCE pour l'interconnexion Scale-UP, ainsi que les discussions de Jim Keller sur le remplacement de NVLink par Ethernet, ont attiré l'attention sur cette approche innovante. Notamment,
NVIDIA H100 vs A100 : dévoilement du meilleur GPU pour vos besoins
Au sein de l'intelligence artificielle (IA) et du calcul haute performance (HPC), il existe un monde en évolution rapide dans lequel l'unité de traitement graphique (GPU) parfaite peut améliorer ou défaire les performances de votre application gourmande en calcul. Deux de
Libérez la puissance de l'IA avec Nvidia H100 : le GPU ultime pour le Deep Learning
Libérez la puissance de l'IA avec Nvidia H100 : le GPU Ultimate Deep Learning Dans le monde en évolution rapide de l'intelligence artificielle (IA) et du deep learning, il y a eu une augmentation
Comment NVIDIA GB200 utilise le DAC/ACC 800G/1.6T
NVIDIA a lancé les derniers systèmes de calcul de la série GB200, avec des performances considérablement améliorées. Ces systèmes utilisent à la fois des interconnexions en cuivre et optiques, ce qui a donné lieu à de nombreuses discussions sur le marché concernant les
Analyse NVIDIA GB200 : architecture d'interconnexion et évolution future
Analyse de l'architecture d'interconnexion GB200 Calcul de la bande passante NVLink NVIDIA a beaucoup de confusion dans le calcul de la bande passante de transmission NVLink et les concepts de SubLink/Port/Lane. Généralement, la bande passante NVLink de