Que signifient QSFP28, QSFP56 et SFP56 ? Quelle nomenclature faut-il utiliser pour décrire les différents types de ports QSFP et SFP ?

Harper Ross

Harper Ross

Répondu à 7h03

QSFP28, QSFP56 et SFP56 sont des abréviations désignant différents types d'émetteurs-récepteurs ou de câbles optiques qui utilisent le facteur de forme QSFP ou SFP et prennent en charge différents débits de données. Le format général est XG-Y, où X est le débit de données en gigabits par seconde (Gbps) et Y est le nombre de voies ou le schéma de modulation utilisé.

L'émergence de la signalisation PAM-4 a augmenté les types d'interfaces disponibles dans les formats QSFP et SFP. Le tableau ci-dessous résume la façon dont Arista décrit chaque type de média.

QSFPSFP

Les gens demandent aussi

Le révolutionnaire Nvidia DGX GH200 : alimenter l’avenir des supercalculateurs IA

Le Nvidia DGX GH200 représente un changement de paradigme dans l’intelligence artificielle (IA) et l’apprentissage automatique, ouvrant la voie à un nouveau chapitre pour les supercalculateurs IA. Il a été conçu comme un système de pointe capable de gérer des charges de travail d’IA complexes avec une puissance de calcul, une rapidité et une efficacité énergétique inégalées qui répondent à des besoins croissants. Cet article

Réseaux évolutifs GPU basés sur Ethernet

Le lancement récent du Gaudi-3 d'Intel, qui utilise RoCE pour l'interconnexion Scale-UP, ainsi que les discussions de Jim Keller sur le remplacement de NVLink par Ethernet, ont attiré l'attention sur cette approche innovante. Notamment, Tenstorrent, dans lequel Jim Keller est impliqué, a intelligemment implémenté l'interconnexion réseau inter-puces via Ethernet. Il est donc pertinent d'aborder le

NVIDIA H100 vs A100 : dévoilement du meilleur GPU pour vos besoins

Au sein de l'intelligence artificielle (IA) et du calcul haute performance (HPC), il existe un monde en évolution rapide dans lequel l'unité de traitement graphique (GPU) parfaite peut améliorer ou défaire les performances de votre application gourmande en calcul. Deux de ces modèles, les NVIDIA H100 et A100, ont dominé les esprits dans ce domaine ; tous deux ayant été créés par NVIDIA

Comment NVIDIA GB200 utilise le DAC/ACC 800G/1.6T

NVIDIA a lancé les derniers systèmes de calcul de la série GB200, avec des performances considérablement améliorées. Ces systèmes utilisent à la fois des interconnexions en cuivre et en optique, ce qui suscite de nombreuses discussions sur le marché concernant l'évolution des technologies « cuivre » et « optique ». Situation actuelle : La série GB200 (y compris le précédent GH200) est le système « superpuce » de NVIDIA. Par rapport à

Analyse NVIDIA GB200 : architecture d'interconnexion et évolution future

Analyse de l'architecture d'interconnexion GB200 Calcul de la bande passante NVLink NVIDIA a beaucoup de confusion dans le calcul de la bande passante de transmission NVLink et les concepts de SubLink/Port/Lane. En règle générale, la bande passante NVLink d'une seule puce B200 est de 1.8 To/s. Ceci est généralement calculé à l'aide de l'algorithme de bande passante mémoire, l'unité étant les octets.

Articles Relatifs

800 g de SR8 et 400 g de SR4

Rapport de test de compatibilité et d'interconnexion des modules émetteurs-récepteurs optiques 800G SR8 et 400G SR4

Version Change Log Writer V0 Exemple de test Cassie Objectif du test Objets de test : 800G OSFP SR8/400G OSFP SR4/400G Q112 SR4. En effectuant les tests correspondants, les paramètres de test répondent aux normes industrielles pertinentes et les modules de test peuvent être normalement utilisés pour le commutateur Nvidia (Mellanox) MQM9790, la carte réseau Nvidia (Mellanox) ConnectX-7 et Nvidia (Mellanox) BlueField-3, établissant ainsi un fondation pour

Lire la suite
Le révolutionnaire Nvidia DGX GH200 : alimenter l’avenir des supercalculateurs IA

Le révolutionnaire Nvidia DGX GH200 : alimenter l’avenir des supercalculateurs IA

Le Nvidia DGX GH200 représente un changement de paradigme dans l’intelligence artificielle (IA) et l’apprentissage automatique, ouvrant la voie à un nouveau chapitre pour les supercalculateurs IA. Il a été conçu comme un système de pointe capable de gérer des charges de travail d’IA complexes avec une puissance de calcul, une rapidité et une efficacité énergétique inégalées qui répondent à des besoins croissants. Cet article

Lire la suite
Mise en pool de mémoire pour ScaleUP

Réseaux évolutifs GPU basés sur Ethernet

Le lancement récent du Gaudi-3 d'Intel, qui utilise RoCE pour l'interconnexion Scale-UP, ainsi que les discussions de Jim Keller sur le remplacement de NVLink par Ethernet, ont attiré l'attention sur cette approche innovante. Notamment, Tenstorrent, dans lequel Jim Keller est impliqué, a intelligemment implémenté l'interconnexion réseau inter-puces via Ethernet. Il est donc pertinent d'aborder le

Lire la suite
NVIDIA-H100-vs-A100-3

NVIDIA H100 vs A100 : dévoilement du meilleur GPU pour vos besoins

Au sein de l'intelligence artificielle (IA) et du calcul haute performance (HPC), il existe un monde en évolution rapide dans lequel l'unité de traitement graphique (GPU) parfaite peut améliorer ou défaire les performances de votre application gourmande en calcul. Deux de ces modèles, les NVIDIA H100 et A100, ont dominé les esprits dans ce domaine ; tous deux ayant été créés par NVIDIA

Lire la suite
gb200

Comment NVIDIA GB200 utilise le DAC/ACC 800G/1.6T

NVIDIA a lancé les derniers systèmes de calcul de la série GB200, avec des performances considérablement améliorées. Ces systèmes utilisent à la fois des interconnexions en cuivre et en optique, ce qui suscite de nombreuses discussions sur le marché concernant l'évolution des technologies « cuivre » et « optique ». Situation actuelle : La série GB200 (y compris le précédent GH200) est le système « superpuce » de NVIDIA. Par rapport à

Lire la suite
GB200 NVL72

Analyse NVIDIA GB200 : architecture d'interconnexion et évolution future

Analyse de l'architecture d'interconnexion GB200 Calcul de la bande passante NVLink NVIDIA a beaucoup de confusion dans le calcul de la bande passante de transmission NVLink et les concepts de SubLink/Port/Lane. En règle générale, la bande passante NVLink d'une seule puce B200 est de 1.8 To/s. Ceci est généralement calculé à l'aide de l'algorithme de bande passante mémoire, l'unité étant les octets.

Lire la suite

Laisser un commentaire

Remonter en haut