Quelles sont les différences entre le commutateur principal et le commutateur normal ?

Un commutateur central n'est pas un type de commutateur, mais un commutateur placé au niveau de la couche centrale (l'épine dorsale du réseau).

En règle générale, les réseaux d'entreprise à grande échelle et les cybercafés doivent acheter des commutateurs centraux pour obtenir de solides capacités d'expansion du réseau afin de protéger l'investissement initial. Lorsque le nombre d'ordinateurs atteint 50, ces emplacements peuvent utiliser des commutateurs centraux. Un routeur suffit quand les ordinateurs sont moins de 50. Le soi-disant commutateur central est pour l'architecture du réseau. S'il s'agit d'un petit réseau local avec plusieurs ordinateurs, un petit commutateur à 8 ports peut être appelé commutateur principal.

La différences entre le commutateur principal et le commutateur ordinaire

  • La différence entre les ports

Le nombre de ports de commutation standard est généralement de 24 à 48, et la plupart des ports réseau sont des ports Gigabit Ethernet ou Fast Ethernet. La fonction principale est d'accéder aux données utilisateur ou d'agréger certaines données de commutation au niveau de la couche d'accès. Ce type de commutateur peut configurer un protocole de routage simple Vlan et certaines fonctions SNMP simples, avec une bande passante de fond de panier relativement petite.

  • La différences entre la connexion ou l'accès au réseau

La partie du réseau qui traite directement de la connexion ou de l'accès au réseau des utilisateurs est généralement appelée couche d'accès, et la partie située entre la couche d'accès et la couche centrale est appelée couche de distribution ou couche d'agrégation. Le but de la couche d'accès est de permettre aux utilisateurs finaux de se connecter au réseau, de sorte que le commutateur de couche d'accès présente les caractéristiques d'un faible coût et d'une densité de ports élevée.

Le commutateur de couche d'agrégation est le point d'agrégation de plusieurs commutateurs de couche d'accès, et il doit être capable de gérer tout le trafic provenant des périphériques de la couche d'accès et de fournir des liaisons montantes vers la couche centrale. Par conséquent, les commutateurs de couche d'agrégation ont des performances plus élevées, moins d'interfaces et des taux de commutation plus élevés.

La partie principale du réseau est appelée la couche centrale. L'objectif principal de la couche centrale est de fournir une structure de transmission dorsale optimisée et fiable grâce à un transfert de communication à grande vitesse. Par conséquent, l'application de commutation de couche centrale présente une fiabilité, des performances et un débit supérieurs.

différentes couches du réseau

Différentes couches du réseau

Avantages des commutateurs principaux

Par rapport aux commutateurs ordinaires, les commutateurs de centre de données doivent présenter les caractéristiques suivantes : grand cache, haute capacité, virtualisation, FCoE, technologie TRILL de couche 2, évolutivité et redondance des modules.

  • Technologie de grand cache

Le commutateur de centre de données a modifié la méthode de mise en cache des ports sortants du commutateur traditionnel. Il adopte une architecture de cache distribué, et le cache est beaucoup plus grand que celui du commutateur ordinaire. La capacité du cache peut atteindre plus de 1G, tandis que le commutateur général ne peut atteindre que 2-4m. Pour chaque port, la capacité du cache de trafic en rafale peut atteindre 200 ms sous la condition d'une vitesse de ligne complète de 10 Gigabit, de sorte qu'en cas de trafic en rafale, le grand cache peut toujours garantir une perte de paquets nulle dans le transfert réseau, ce qui convient juste pour un grand nombre de serveurs dans le centre de données et le trafic en rafale.

  • Des équipements de grande capacité

Le trafic réseau dans le centre de données présente les caractéristiques d'une planification d'applications à haute densité et d'une mise en mémoire tampon des surtensions. Cependant, les commutateurs ordinaires ne peuvent pas réaliser une identification et un contrôle précis des services dans le but de l'interconnexion. Ils ne peuvent pas non plus obtenir une réponse rapide et aucune perte de paquets, de sorte que la continuité des activités ne peut être garantie. La fiabilité du système dépend principalement de la fiabilité de l'équipement.

Par conséquent, les commutateurs ordinaires ne peuvent pas répondre aux besoins des centres de données. Commutateurs de centres de données doivent avoir des caractéristiques de transfert haute capacité et prendre en charge des cartes 10 Gigabit haute densité, c'est-à-dire des cartes 48 Gigabit à 10 ports. Pour le transfert, les commutateurs de centre de données ne peuvent utiliser que l'architecture de commutation distribuée CLOS.

De plus, avec la popularité des réseaux 40G et 100G, les cartes 40G prenant en charge 8 ports et les cartes 100G prenant en charge 4 ports deviennent progressivement disponibles dans le commerce. En outre, les cartes 40G et 100G pour les commutateurs de centres de données sont déjà entrées sur le marché, répondant ainsi à la demande d'applications haute densité dans les centres de données.

  • Technologie virtuelle

L'équipement réseau du centre de données doit avoir les caractéristiques d'une gestion élevée, d'une sécurité et d'une fiabilité élevées. Par conséquent, les commutateurs du centre de données doivent également prendre en charge la virtualisation. La virtualisation consiste à transformer des ressources physiques en ressources logiquement gérables pour briser les barrières de la structure physique.

Grâce à la technologie de virtualisation, plusieurs périphériques réseau peuvent être gérés de manière unifiée. Les services sur un seul appareil peuvent être complètement isolés, ce qui peut réduire les coûts de gestion du centre de données de 40 % et augmenter l'utilisation informatique d'environ 25 %.

technologie virtuelle

technologie virtuelle

  • Technologie TRILL

En termes de construction d'un réseau de couche deux dans le centre de données, la norme d'origine est le protocole FTP. Mais il a les défauts suivants :

- STP fonctionne par blocage de port et toutes les liaisons redondantes ne transfèrent pas les données, ce qui entraîne un gaspillage des ressources haut débit.

- Le réseau n'a qu'un seul arbre couvrant et les paquets de données doivent passer par le pont racine, ce qui affecte l'efficacité de la transmission de l'ensemble du réseau.

Par conséquent, STP ne sera plus adapté à l'expansion des centres de données de très grande taille. TRILL est né pour pallier ces défauts de STP. Le protocole TRILL combine efficacement la configuration et la flexibilité de la couche 2 avec la convergence et l'échelle de la couche 3. L'ensemble du réseau peut être transmis sans boucles sans nécessiter de configuration au niveau de la deuxième couche. La technologie TRILL est une fonctionnalité de base de la couche 2 des commutateurs de centre de données, qui n'est pas disponible dans les commutateurs ordinaires.

  • Technologie FCoE

Les centres de données traditionnels disposent souvent d'un réseau de données et d'un réseau de stockage. L'émergence de la technologie FCOE rend possible la convergence des réseaux. FCoE est une technologie qui encapsule les trames de données d'un réseau de stockage dans des trames Ethernet pour le transfert. La réalisation de cette technologie de fusion doit avoir lieu sur les commutateurs du centre de données, et les commutateurs ordinaires n'ont généralement pas ces fonctions.

Des fonctions telles que l'agrégation de liens, la redondance, l'empilement et la sauvegarde à chaud sont également très importantes, car elles déterminent les performances, l'efficacité et la stabilité des commutateurs principaux dans les applications pratiques.

Agrégation de liens

L'agrégation de liens est la combinaison de deux ou plusieurs canaux de données en un seul canal qui apparaît comme une liaison logique à bande passante plus élevée. L'agrégation de liens est généralement utilisée pour connecter un ou plusieurs appareils ayant des besoins élevés en bande passante, tels que des serveurs ou des fermes de serveurs connectés à un réseau fédérateur. Il peut être utilisé pour étendre la bande passante de la liaison et fournir une plus grande fiabilité de connexion.

Par exemple, l'entreprise a deux étages, qui gèrent des activités différentes. Les réseaux sur les deux étages étaient séparés à l'origine, mais il est inévitable que la même entreprise ait une interaction. À ce moment, nous pouvons ouvrir le réseau entre les deux étages, afin que les départements ayant une connexion mutuelle puissent communiquer entre eux à grande vitesse. Comme indiqué ci-dessous:

Figure1 : une interface Eth-Trunk pour connecter le commutateur A et le commutateur B

Une interface Eth-Trunk pour connecter le switch A et le switch B

Comme le montre la figure ci-dessus, SwitchA et SwitchB sont connectés aux réseaux VLAN10 et VLAN20 respectivement via des liaisons Ethernet, et il y a une grande quantité de trafic de données entre SwitchA et SwitchB.

L'utilisateur s'attend à ce qu'une plus grande bande passante de liaison puisse être fournie entre SwitchA et SwitchB afin que les mêmes VLAN puissent communiquer entre eux. Parallèlement, les utilisateurs espèrent également assurer un certain degré de redondance pour assurer la fiabilité des transmissions de données et des liaisons.

Créez une interface Eth-Trunk et ajoutez des interfaces membres pour augmenter la bande passante du lien. Deux commutateurs sont configurés avec Eth-Trunk1, puis les ports des trois lignes qui doivent communiquer sont ajoutés à Eth-Trunk1, et le port trunk est configuré pour permettre le passage du VLAN correspondant. De cette manière, le réseau des deux étages peut communiquer normalement.

Redondance des liens

Afin de maintenir la stabilité du réseau, dans un environnement réseau composé de plusieurs commutateurs, certaines connexions de secours sont utilisées pour améliorer l'efficacité et la stabilité du réseau. Les connexions de sauvegarde sont ici également appelées liens de sauvegarde ou liens redondants.

Empilement d'interrupteurs

Connectés via des câbles d'empilage propriétaires, plusieurs commutateurs peuvent être empilés en un seul commutateur logique. Tous les commutateurs de ce commutateur logique partagent les mêmes informations de configuration et de routage. Les performances d'un commutateur logique ne seront pas affectées lorsqu'un commutateur individuel est ajouté et supprimé.

Les types de ports optiques de commutateur incluent SFP, 10G SFP+, 25G SFP28, 40G QSFP+, 100G QSFP28, etc. Nous devons sélectionner le bon module optique à insérer dans le commutateur pour une utilisation normale. Par exemple, les ports SFP peuvent être insérés dans les modules optiques SFP, et les ports 10G SFP+ sont destinés aux modules optiques 10G. 100G QSFP28 Le port doit être inséré dans les modules optiques 100G QSFP28.

Si nous voulons interconnecter un commutateur avec un port électrique et un commutateur avec un port optique, nous pouvons utiliser SFP en cuivre. Il sert à convertir le port optique en port électrique afin que nous puissions utiliser un câble réseau pour connecter les deux commutateurs.

Les commutateurs empilés sont connectés par deux boucles. Le matériel du commutateur est responsable de l'équilibrage de charge des paquets de données sur les doubles boucles. La boucle agit comme le fond de panier de ce grand commutateur logique. Lorsque les deux boucles fonctionnent normalement, le débit de transmission des paquets de données sur ce commutateur logique est de 32 Gbps.

Lorsqu'une trame de données doit être transmise, le logiciel du commutateur calcule quelle boucle est la plus disponible, puis la trame de données est envoyée à cette boucle. Si un câble d'empilage tombe en panne, les commutateurs aux deux extrémités du câble défaillant détectent la panne et déconnectent la boucle affectée, tandis que le commutateur logique peut toujours fonctionner dans un état de boucle unique avec un débit de paquets de 16 Gbit/s. Les commutateurs sont empilés en guirlande. Reportez-vous à la figure suivante pour la méthode de connexion.

Figure 2 : Les commutateurs sont empilés en guirlande

 Les commutateurs sont empilés en guirlande

L'empilement augmente la stabilité des ports du commutateur et de la bande passante.

Sauvegarde à chaud (HSRP)

Le commutateur principal est le noyau et le cœur de l'ensemble du réseau. Si une défaillance fatale du commutateur central se produit, le réseau local sera paralysé, ce qui entraînera une perte inestimable. Par conséquent, lorsque nous choisissons des commutateurs centraux, nous voyons souvent que certains commutateurs principaux sont équipés de fonctions telles que l'empilement ou la sauvegarde à chaud.

L'utilisation de la sauvegarde à chaud pour les commutateurs principaux est un choix inévitable pour améliorer la fiabilité du réseau. Lorsqu'un commutateur principal ne peut pas fonctionner du tout, toutes ses fonctions sont prises en charge par un autre routeur de secours du système jusqu'à ce que le routeur en question revienne à la normale. Il s'agit du protocole HSRP (Hot Standby Router Protocol).

La condition pour réaliser HSRP est qu'il existe plusieurs commutateurs principaux dans le système, et qu'ils forment un "groupe de sauvegarde à chaud", qui forme un routeur virtuel. À tout moment, un seul routeur d'un groupe est actif et il transfère les paquets de données. Si le routeur actif tombe en panne, un routeur de secours sera sélectionné pour remplacer le routeur actif, mais l'hôte du réseau considère le routeur comme non modifié. Par conséquent, l'hôte reste connecté et n'est pas affecté par la panne, ce qui résout mieux le problème de commutation du commutateur principal.

Pour réduire le trafic de données réseau, une fois le commutateur central actif et le commutateur central de secours définis, ils envoient régulièrement des paquets HSRP. En cas de défaillance du commutateur principal actif, le commutateur principal de secours prend le relais en tant que commutateur principal actif. Si le commutateur principal de secours tombe en panne ou devient le commutateur principal actif, un autre commutateur principal sera sélectionné comme commutateur principal de secours.

Lorsque la ligne entre un commutateur de couche d'accès et le commutateur central principal tombe en panne, elle bascule vers la machine de secours.

 

Premier scénario d'échec de la liaison de données

 Premier scénario d'échec de la liaison de données

Lorsque la liaison de données du commutateur de couche d'accès 1 connecté au commutateur central A échoue, la liaison de données du commutateur de couche d'accès 1 est commutée vers le commutateur central B, mais pendant la période de commutation, le commutateur de couche d'accès 1 perd six paquets de données , comme indiqué ci-dessus.

 

Deuxième scénario d'échec de la liaison de données

Deuxième scénario d'échec de la liaison de données

Lorsque la liaison principale entre le serveur et le commutateur principal A tombe en panne (ligne, carte réseau, etc.) et lorsque la carte réseau principale du serveur est commutée sur la carte réseau de secours, six paquets de données seront perdus. Mais lorsque le lien principal est rétabli, le serveur basculera automatiquement de la carte réseau de secours vers la carte réseau principale, et les paquets de données ne seront pas perdus lors de ce basculement.

Laisser un commentaire

Remonter en haut