Bande passante, latence, gigue et perte de paquets

Lors de l'évaluation des performances d'un réseau, nous pouvons l'évaluer sous quatre aspects : la bande passante, la latence, la gigue et la perte de paquets.

Mesures de performances du réseau

Mesures de performances du réseau

Bande passante

Concept: La bande passante est définie dans Baidu Baike comme le « débit de données le plus élevé » pouvant passer d'un point à un autre dans un réseau en une unité de temps.

Dans les réseaux informatiques, la bande passante fait référence au débit de données le plus élevé que le réseau peut transmettre, c'est-à-dire le nombre de bits par seconde (généralement mesuré en bps).

Pour faire simple, la bande passante peut être assimilée à une autoroute, indiquant le nombre de véhicules pouvant la traverser dans une unité de temps.

Représentation: La bande passante est généralement exprimée en bps, indiquant le nombre de bits par seconde ;

Bits

Lors de la description de la bande passante, les « bits par seconde » sont souvent omis. Par exemple, une bande passante de 100 M équivaut à 100 Mbps, Mbps signifiant mégabits par seconde.

Cependant, la vitesse à laquelle nous téléchargeons des logiciels se mesure en octets/s (octets par seconde). Cela implique la conversion entre octets et bits. Dans le système de nombres binaires, chaque 0 ou 1 est un bit, qui est la plus petite unité de stockage de données, et 8 bits constituent un octet.

Lors de l'abonnement à des services haut débit, une bande passante de 100 M correspond à 100 Mbps. La vitesse théorique de téléchargement sur le réseau n'est que de 12.5 Mbps, mais en réalité, elle peut être inférieure à 10 Mbps. Cet écart est dû à divers facteurs tels que les performances de l'ordinateur de l'utilisateur, la qualité de l'équipement réseau, l'utilisation des ressources, les heures de pointe du réseau, la capacité des services du site Web, la dégradation de la ligne, l'atténuation du signal, etc. la vitesse ne peut pas atteindre la vitesse théorique.

Latence

En termes simples, la latence est le temps nécessaire à un message pour voyager d'un bout à l'autre du réseau.

Latence

Par exemple, lorsque je cingle l'adresse de Google sur mon ordinateur ;

ping

Le résultat montre une latence de 12 ms. Cette latence fait référence au temps aller-retour dont le message ICMP a besoin pour voyager de mon ordinateur au serveur de Google et inversement.

(Ping fait référence au temps aller-retour nécessaire pour qu'un paquet de données soit envoyé de l'appareil de l'utilisateur à un point de test, puis immédiatement renvoyé à l'appareil de l'utilisateur. Il est communément appelé délai de réseau et se mesure en millisecondes, ms. )

quatre types de retard

La latence du réseau comprend quatre composants principaux : le délai de traitement, le délai de file d’attente, le délai de transmission et le délai de propagation. En pratique, on considère principalement le délai de transmission et le délai de propagation.

retarder le contenu

Retard de traitement: Les périphériques réseau tels que les commutateurs et les routeurs nécessitent un certain temps pour traiter les paquets à leur réception. Cela inclut des tâches telles que la décapsulation, l'analyse d'en-tête, l'extraction de données, la vérification des erreurs et la sélection d'itinéraire.

En règle générale, le délai de traitement des routeurs à haut débit est de l'ordre de quelques microsecondes, voire moins.

Retard de traitement

Délai de file d'attente: Le délai de mise en file d'attente fait référence au temps passé par les paquets dans une file d'attente pendant leur traitement par des périphériques réseau tels que des routeurs ou des commutateurs.

Le délai de mise en file d'attente pour un paquet dépend de la présence ou non d'autres paquets en cours de transmission dans la file d'attente.

Si la file d'attente est vide et qu'aucun autre paquet n'est transmis, le délai de mise en file d'attente pour le paquet est nul. À l’inverse, s’il y a un trafic important et que de nombreux autres paquets sont également en attente de transmission, le délai d’attente peut être important.

Délai de file d'attente

Les délais réels de file d’attente sont généralement de l’ordre de quelques millisecondes à microsecondes.

Délai de transmission: Le délai de transmission est le temps nécessaire aux routeurs et aux commutateurs pour envoyer des données, c'est-à-dire le temps nécessaire à la file d'attente du routeur pour transmettre le paquet à la liaison réseau.

Délai de transmission

Si (L) représente la longueur du paquet en bits et (R) représente le débit de transmission de la liaison du routeur A au routeur B en bits par seconde (bps), alors le délai de transmission est L/R.

Les délais de transmission réels se situent généralement entre millisecondes et microsecondes.

Délai de propagation: Le délai de propagation est le temps nécessaire à un message pour parcourir le lien physique entre deux routeurs.

Le délai de propagation est égal à la distance entre les deux routeurs divisée par la vitesse de propagation du lien, notée (D/S), où (D) est la distance entre les deux routeurs, et (S) est la vitesse de propagation de le lien.

Les délais de propagation réels sont de l’ordre de quelques millisecondes.

Comprendre ces délais est crucial pour optimiser les performances du réseau et garantir une transmission efficace des données.

Jitter

La gigue dans les réseaux fait référence à la variation du délai entre l'arrivée des paquets, causée par la congestion du réseau, la dérive temporelle ou les changements d'itinéraire. Par exemple, si le délai maximum rencontré lors de l'accès à un site Web est de 10 ms et le délai minimum est de 5 ms, alors la gigue du réseau est de 5 ms.

Une gigue est utilisée pour évaluer la stabilité d'un réseau ; plus la gigue est faible, plus le réseau est stable.

Ceci est particulièrement important dans les jeux en ligne, où une grande stabilité du réseau est requise pour garantir une bonne expérience de jeu.

Causes de la gigue du réseau : une gigue du réseau peut se produire en cas de congestion du réseau, entraînant des délais de file d'attente variables qui affectent la latence de bout en bout. Cela peut entraîner une fluctuation du délai entre le routeur A et le routeur B, entraînant une instabilité du réseau.

Perte de paquets

La perte de paquets se produit lorsqu'un ou plusieurs paquets de données ne parviennent pas à atteindre leur destination sur un réseau. Si l'extrémité réceptrice détecte des données manquantes, elle demandera une retransmission des paquets perdus en fonction de leurs numéros de séquence.

Perte de paquets

La perte de paquets peut être causée par plusieurs facteurs, la congestion du réseau étant l'un des plus courants. Lorsque le trafic de données est trop important pour que l’équipement réseau puisse le gérer, certains paquets peuvent inévitablement être perdus.

Taux de perte de paquets : Le taux de perte de paquets est le rapport entre le nombre de paquets de données perdus lors d'un test et le nombre total de paquets envoyés. Par exemple, si 100 paquets sont envoyés et qu’un paquet est perdu, le taux de perte de paquets est de 1 %.

Empilement: L'empilement fait référence à la pratique consistant à connecter plusieurs commutateurs prenant en charge les fonctionnalités d'empilage à l'aide de câbles d'empilage, en les virtualisant logiquement en un seul commutateur qui participe au transfert de données dans son ensemble. L'empilage est une technologie de virtualisation horizontale largement utilisée qui offers avantages tels qu'une fiabilité améliorée, des numéros de ports étendus, une bande passante accrue et une configuration réseau simplifiée.

Pourquoi l'empilage est-il nécessaire ?

Les réseaux de campus traditionnels utilisent la redondance des appareils et des liaisons pour garantir une fiabilité élevée, mais leur utilisation des liaisons est faible et les coûts de maintenance du réseau sont élevés. La technologie d'empilage virtualise plusieurs commutateurs en un seul commutateur pour simplifier le déploiement du réseau et réduire la charge de travail de maintenance du réseau. Le stacking présente de nombreux avantages :

Fiabilité améliorée: L'empilement permet à plusieurs commutateurs de former un système de sauvegarde redondant. Par exemple, si le commutateur A et le commutateur B sont empilés ensemble, ils se sauvegardent mutuellement. Si le commutateur A tombe en panne, le commutateur B peut prendre le relais pour garantir que le système continue de fonctionner normalement. De plus, les systèmes empilés prennent en charge l’agrégation de liens entre appareils, qui fournit également une redondance pour les liens.

Schéma d'empilement

Schéma d'empilement

Numéros de ports étendus : Lorsque le nombre d'utilisateurs dépasse la densité de ports qu'un seul commutateur peut gérer, de nouveaux commutateurs peuvent être ajoutés au commutateur existant pour former un système empilé, augmentant ainsi le nombre de ports disponibles.

Schéma du numéro de port d'extension

Schéma du numéro de port d'extension

Bande passante augmentée : Pour augmenter la bande passante de liaison montante d'un commutateur, de nouveaux commutateurs peuvent être ajoutés pour former un système empilé. Plusieurs liaisons physiques de commutateurs membres peuvent être configurées dans un groupe d'agrégation pour améliorer la bande passante de liaison montante du commutateur.

Bande passante augmentée

Bande passante augmentée

Configuration réseau simplifiée: Dans un réseau empilé, plusieurs périphériques sont virtuellement configurés comme un seul périphérique logique. Cette simplification élimine le besoin de protocoles tels que MSTP pour rompre les boucles, rationalise la configuration du réseau et s'appuie sur l'agrégation de liens entre appareils pour obtenir un basculement rapide en cas de panne d'un seul appareil, améliorant ainsi la fiabilité.

Configuration réseau simplifiée

Configuration réseau simplifiée

Empilage longue distance: Les utilisateurs de chaque étage peuvent accéder au réseau externe via des commutateurs de couloir. En connectant des commutateurs de couloir éloignés les uns des autres pour former une pile, il transforme efficacement chaque bâtiment en un seul dispositif d'accès, simplifiant ainsi la structure du réseau. Chaque bâtiment dispose de plusieurs liens vers le réseau central, ce qui rend le réseau plus robuste et fiable. La configuration de plusieurs commutateurs de couloir est simplifiée par rapport à la configuration du système empilé, réduisant ainsi les coûts de gestion et de maintenance.

Empilage longue distance

Empilage longue distance

Appareils prenant en charge l'empilage

La plupart des commutateurs grand public prennent en charge l’empilage. Par exemple, les commutateurs de campus de la série S de Huawei et les commutateurs de centre de données CloudEngine ont des modèles qui prennent en charge l'empilage. Pour les commutateurs de campus de la série S, seuls les commutateurs de type boîtier prennent en charge l'empilage ; deux commutateurs de type châssis forment ensemble un cluster. Pour les commutateurs de centre de données CloudEngine, les commutateurs de type châssis et de type boîtier ont des modèles qui prennent en charge l'empilement, la différence étant que les commutateurs de type châssis ne prennent en charge que l'empilement de deux appareils.

Concepts d’établissement de pile

Dans un système d'empilement, tous les commutateurs individuels sont appelés commutateurs membres. Selon leurs fonctions, ils peuvent être classés en trois rôles :

Commutateur principal: Le commutateur maître est responsable de la gestion de l’ensemble de la pile. Il n’y a qu’un seul interrupteur principal dans un système empilable.

Commutateur de veille: Le commutateur de secours agit comme un commutateur principal de secours. Il n'y a qu'un seul commutateur de veille dans un système empilable. Il reprend toutes les opérations de l'interrupteur principal d'origine en cas de panne.

Commutateurs esclaves: Les commutateurs esclaves sont utilisés pour le transfert du trafic professionnel. Il peut y avoir plusieurs commutateurs esclaves dans un système empilable. Plus il y a de commutateurs esclaves, plus la bande passante de transfert de la pile est grande.

Tous les commutateurs membres, à l'exception des commutateurs maître et de secours, sont des commutateurs esclaves. Un switch esclave assume le rôle de switch de secours lorsque ce dernier est indisponible.

ID de pile

L'ID de pile est utilisé pour identifier les commutateurs membres au sein de la pile, représentant le numéro d'emplacement du commutateur membre. Chaque commutateur membre possède un ID de pile unique dans le système.

Priorité de la pile

La priorité de pile est un attribut des commutateurs de membres, principalement utilisé lors du processus d'élection de rôle pour déterminer le rôle des commutateurs de membres. Plus la valeur de priorité est élevée, plus la probabilité d'être élu comme commutateur principal est élevée.

Processus d'établissement de la pile

Le processus d'établissement d'une pile comprend les quatre étapes suivantes :

  • En fonction des exigences du réseau, sélectionnez les câbles d'empilage et les méthodes de connexion. Différents produits prennent en charge différentes méthodes de connexion physique. Pour les commutateurs de boîtier de campus de la série S et les commutateurs de boîtier de centre de données CloudEngine, les topologies de connexion en chaîne et en anneau sont prises en charge. Pour les commutateurs de châssis de centre de données CloudEngine, les connexions de port SIP et les connexions de port de service sont prises en charge.
  • Choisissez l'interrupteur principal. Une fois tous les commutateurs membres mis sous tension, le système d'empilage commence l'élection du commutateur principal. Chaque commutateur membre du système d'empilage a un rôle défini, le commutateur principal gérant l'ensemble de la pile.
  • Attribuez des ID de pile et choisissez le commutateur de veille. Une fois l'élection du commutateur principal terminée, il collecte les informations topologiques de tous les commutateurs membres, calcule les entrées de la table de transfert de pile, les distribue à tous les commutateurs membres et attribue des ID de pile. Par la suite, le choix du commutateur de secours a lieu pour servir de secours au commutateur principal. Le commutateur qui termine le démarrage de l'appareil en premier, autre que le commutateur principal, est prioritaire en tant que commutateur de secours.
  • Synchronisez les versions du logiciel et les fichiers de configuration. Une fois l'élection des rôles et la collecte de la topologie terminées, tous les commutateurs membres synchronisent automatiquement la version du logiciel et le fichier de configuration du commutateur principal.
  • Le système d'empilage peut charger automatiquement le logiciel système. Les commutateurs membres formant une pile n’ont pas besoin de la même version logicielle ; ils doivent seulement être compatibles. Si la version logicielle du commutateur de secours ou esclave diffère de celle du commutateur maître, le commutateur de secours ou esclave téléchargera automatiquement le logiciel système à partir du commutateur maître, redémarrera avec le nouveau logiciel système et rejoindra la pile.
  • Le système d'empilement dispose également d'un mécanisme de synchronisation des fichiers de configuration. Le commutateur principal enregistre le fichier de configuration pour l'ensemble de la pile et gère la configuration de l'ensemble du système. Les commutateurs de secours ou esclaves synchronisent le fichier de configuration du commutateur maître vers leur commutateur et l'exécutent. Cela garantit que plusieurs appareils de la pile peuvent fonctionner comme un seul appareil dans le réseau et qu'en cas de panne du commutateur principal, les commutateurs restants peuvent toujours exécuter toutes les fonctions normalement.

Introduction aux modules optiques SFP (SFP+)

Les modules optiques et les commutateurs sont indispensables dans les projets de réseau courants, tels que le déploiement de réseaux d'entreprise et la construction de centres de données. Les modules optiques convertissent principalement les signaux électriques en signaux optiques, tandis que les commutateurs facilitent la transmission de ces signaux optoélectroniques. Parmi les différents modules optiques disponibles, les modules SFP+ sont parmi les plus utilisés aujourd'hui. Différentes méthodes de connexion avec des commutateurs peuvent répondre à diverses exigences du réseau.

Qu'est-ce que le module optique SFP+

Le module optique SFP+ est un type de module fibre 10G au sein de la famille SFP, indépendant des protocoles de communication. Généralement connecté aux commutateurs, aux routeurs fibre et aux cartes réseau fibre, il est utilisé dans les systèmes Ethernet 10 Gbps et Fibre Channel 8.5 Gbps pour répondre aux demandes de débit plus élevées des centres de données et faciliter l'expansion et la conversion du réseau.

Modules SFP+ offIl s'agit d'une densité de carte de ligne élevée et d'une taille compacte, permettant l'interopérabilité avec d'autres types de modules 10G. Cela offre aux centres de données une densité d'installation plus élevée et des économies de coûts, ce qui en fait un module optique enfichable courant sur le marché.

Types de modules optiques SFP+

Généralement, les modules optiques SFP+ sont classés en fonction de leurs applications réelles. Les types courants incluent les modules 10G SFP+, BIDI SFP+, CWDM SFP+ et DWDM SFP+.

Modules SFP+ 10G: Il s'agit de modules SFP+ standard, considérés comme une version améliorée des modules SFP 10G, et constituent une conception courante sur le marché.

Modules BIDI SFP+: Utilisant la technologie de multiplexage par répartition en longueur d'onde, ces modules ont un débit allant jusqu'à 11.1 Gbps et une faible consommation d'énergie. Dotés de deux ports fibre optique, ils sont généralement utilisés par paires, ce qui réduit la quantité de fibre utilisée et les coûts de construction lors de la construction du réseau du centre de données.

Modules CWDM SFP+: Utilisant une technologie de multiplexage par répartition en longueur d'onde grossière, ces modules sont souvent utilisés avec des fibres monomodes, économisant ainsi les ressources de fibre et offoffrant une flexibilité et une fiabilité dans la mise en réseau, avec une faible consommation d'énergie.

Modules DWDM SFP+: Utilisant la technologie de multiplexage par répartition en longueur d'onde dense, ces modules sont souvent utilisés pour la transmission de données longue distance, avec une distance maximale allant jusqu'à 80 km. Ils présentent des tarifs élevés, une grande capacité et une forte évolutivité.

module sfp

Comment coupler des modules optiques SFP+ avec des commutateurs

Différents types de modules optiques peuvent être connectés aux commutateurs pour diverses solutions de mise en réseau. Vous trouverez ci-dessous plusieurs scénarios d'application pratiques pour coupler des modules optiques SFP+ avec des commutateurs.

Solution 1 : connexion entre les modules optiques 10G SFP+ et les commutateurs

Insérez quatre modules optiques SFP+ 10G dans les ports SFP+ 10 Gbit/s d'un commutateur, puis insérez un module optique QSFP+ 40 Gbit/s dans le port QSFP+ 40 Gbit/s d'un autre commutateur. Enfin, connectez-les au milieu avec un cavalier à fibre optique. Cette méthode de connexion permet principalement d'étendre le réseau de 10G à 40G, ce qui peut répondre rapidement et facilement aux besoins de mise à niveau du réseau des centres de données.

SFP-QSFP

Solution 2 : connexion entre les modules optiques BIDI SFP+ et les commutateurs

Insérez les modules optiques dans les ports SFP+ de deux commutateurs, puis utilisez les cavaliers à fibre optique LC correspondant aux ports du module pour connecter les modules optiques sur les deux commutateurs. Cette méthode de connexion permet d'obtenir efficacement la connexion de données la plus simple et la plus économique, applicable aux connexions Ethernet dans les centres de données, au câblage d'entreprise et à la transmission des opérateurs de télécommunications.

SFP 10GBX

Scénario 3 : Connexion entre les modules optiques CWDM SFP+ et les commutateurs

Cette méthode de connexion utilise un répéteur, des émetteurs-récepteurs à fibre optique et CWDM pour connecter les modules optiques aux commutateurs, convertissant les ports électriques RJ45 des commutateurs Ethernet 10G aux longueurs d'onde CWDM requises par les multiplexeurs CWDM.

CWDM SFP+

Scénario 4 : Connexion entre les modules optiques DWDM SFP+ et les commutateurs

Insérez les modules optiques dans les ports SFP+ des commutateurs, puis utilisez des cavaliers à fibre optique blindés pour les connecter au DWDM. Cette méthode de connexion protège les signaux optiques pendant la transmission longue distance, réduisant considérablement la perte d'onde optique et convient à la transmission de signaux optiques longue distance.

SFP+ DWDM

Précautions pour la connexion de modules optiques SFP+ avec des commutateurs

  1. Assurez-vous que la longueur d'onde et la distance de transmission des modules optiques utilisés par les deux commutateurs sont les mêmes, ainsi que s'ils sont monofibres ou bifibres, monomodes ou multimodes. En cas de disparité, utilisez le convertisseur correspondant.
  2. Lorsque vous utilisez des modules optiques, essayez d'éviter l'électricité statique et les chocs. Si un choc se produit, il n'est pas recommandé de continuer à utiliser le module.
  3. Faites attention à l'orientation de l'insertion du module optique ; l'anneau de traction et l'étiquette doivent être orientés vers le haut.
  4. Lorsque vous insérez le module optique dans le commutateur, poussez-le fermement vers le bas. Il y aura généralement une légère vibration. Après insertion, tirez légèrement sur le module pour vérifier s'il est correctement installé.
  5. Lors du démontage du module optique, tirez d'abord l'anneau dans une position à 90 degrés par rapport au port, puis retirez le module.

Laisser un commentaire

Remonter en haut