Was ist ein Ethernet-Switch?

Ein Ethernet-Switch ist ein Netzwerkgerät, mit dem mehrere Computer und andere Netzwerkgeräte in einem lokalen Netzwerk (LAN) verbunden werden. Es fungiert wie ein Transportknotenpunkt und transportiert Datenpakete von einem Gerät zum anderen.

Ethernet-Switches verbinden Computer, Server, Drucker und andere Geräte über physische Ports und leiten Datenpakete basierend auf der Ziel-MAC-Adresse (Media Access Control) des Datenpakets vom Quellgerät an das Zielgerät weiter. Dieser Weiterleitungsprozess basiert auf der Weiterleitungstabelle im Switch.

Wenn ein Paket am Switch ankommt, überprüft der Switch die Ziel-MAC-Adresse im Paket und gleicht diese Adresse seiner internen Weiterleitungstabelle zu. Wenn die Ziel-MAC-Adresse in der Weiterleitungstabelle vorhanden ist, leitet der Switch das Datenpaket direkt an den Port weiter, der mit dem Zielgerät verbunden ist; Wenn die Ziel-MAC-Adresse nicht in der Weiterleitungstabelle enthalten ist, sendet der Switch das Paket an alle anderen Ports, um das Zielgerät zu finden.

Kurz gesagt ist ein Ethernet-Switch ein wichtiges Netzwerkgerät, das für eine schnelle und zuverlässige Datenübertragung im LAN sowie für die Bereitstellung flexibler Netzwerkverwaltungs- und Sicherheitsfunktionen verwendet wird. Es ist eine der unverzichtbaren Infrastrukturen in modernen Netzwerken.

Definition und Klassifizierung von Switch

In Bezug auf die Hardwarestruktur besteht der Switch aus einem Gehäuse, einem Netzteil, einem Lüfter, einer Rückwandplatine, einer Management-Engine, einem Systemcontroller, einem Switching-Modul und einer Linecard. Das Gehäuse ist das Gehäuse des Schalters und dient zum Schutz der internen elektronischen Komponenten. Einige Schalter verwenden ein Metallgehäuse, um zu verhindern, dass Magnetfelder den Schalter stören. Der Lüfter dient zur Ableitung der Wärme vom Schalter, um sicherzustellen, dass die Innentemperatur des Schalters im normalen Bereich liegt und einen langfristig stabilen Betrieb des Schalters gewährleistet. Das Netzteil umfasst ein externes Netzteil und ein eingebautes Netzteil. Das externe Netzteil ermöglicht eine flexible Leistungskonfiguration. Die Backplane in einem Chassis-Switch ist eine Leiterplatte, die zum Anschluss der Management-Engine, Switch-Modulen, Linecards und anderen Teilen verwendet wird.

  • Management-Engine: Es gibt einen Konfigurationsanschluss an der Management-Engine, bei dem es sich um eine serielle Schnittstelle handelt, die über ein serielles Kabel mit einem Computer verbunden werden kann, um den Switch zu verwalten und zu konfigurieren.
  • Systemcontroller: Verantwortlich für die Steuerung der Stromversorgung und der Lüfter.
  • Linienkarte: Es kann verwendet werden, um die Ethernet-Schnittstelle zu konfigurieren und über die Ethernet-Schnittstelle eine Verbindung zum Computer oder anderen Hardwaregeräten zur Datenübertragung herzustellen.
  • Schaltmodul: Verantwortlich für die Datenweiterleitung und den Wechsel zwischen verschiedenen Schnittstellen. Die Schalteinheit verwendet leistungsstarke ASIC-Chips.
Aussehen von Kasten- und Chassisschaltern

Aussehen von Kasten- und Chassisschaltern

Switch-Architektur

Drei gängige Architekturen in der Branche: Full-MESH-Architektur; CROSSBAR-Architektur; CLOS-Architektur. Die meisten aktuellen Mainstream-High-End-Core-Switches verwenden die CLOS-Architektur.

Design der Switching-Netzwerkplatine basierend auf der CLOS-Architektur:

  • Nicht orthogonale Struktur/parallele Struktur: Die Linecard und das Schaltmodul sind parallel geschaltet und beide sind über die Verkabelung auf der Rückwandplatine verbunden. Die Switches von Huawei verwenden ein nicht orthogonales Design. Nachteile: Das Schreiben der PCB-Rückwandplatine führt zu Signalstörungen, und das Backplane-Design schränkt Breitband-Upgrades und Wärmeableitung ein.
  • Orthogonale Struktur: Die Linecard und das Switching-Modul sind vertikal angeordnet und direkt über die Rückwandplatine verbunden. Dieses Design reduziert die durch die Backplane-Verkabelung verursachte Signaldämpfung, begrenzt jedoch die Bandbreitenerweiterung. Cisco verwendet die orthogonale Struktur.
  • Architektur ohne Rückwandplatine: Die Linecards und Switching-Module sind vertikal verbunden, was die Backplane-Einschränkungen bei Breitband-Upgrades beseitigt und die Wärmeableitung erleichtert.

Der Arbeitsmechanismus des Schaltmoduls: Der Datenübertragungspfad von Linecard A zu Linecard B ist Linecard A → Backplane → Switching-Modul → Switching-Chip.

Entwurf der Schaltmodularchitektur

Design der Schaltmodularchitektur

Leistungsmetrik für Switches:

Annahme: Anzahl der Ports =Anzahl der Lanes; Backplane-Bandbreite = die Anzahl der pro Zeiteinheit auf der Straße vorbeifahrenden Autos; Austauschkapazität = die Anzahl der Fahrzeuge, die der Kreuzungskommandant anweisen kann, die Kreuzung in einer Zeiteinheit sicher und ohne Behinderung zu passieren.

Wenn pro Zeiteinheit maximal 1,000 Autos auf der Straße fahren können und die Befehlsfähigkeit des Kreuzungskommandanten stark genug ist, können maximal 1,000 Autos auf der Straße an einer Kreuzung fahren, was dem Erreichen der Liniengeschwindigkeit durch den Schalter entspricht Indikator.

Wenn jedoch die Befehlsfähigkeit des Kreuzungskommandanten nicht ausreicht und er nur 500 Fahrzeuge pro Zeiteinheit anweisen kann, reibungslos vorbeizufahren, können höchstens 500 Fahrzeuge reibungslos auf der Straße mit der Kreuzung fahren, was bedeutet, dass die Liniengeschwindigkeitsanzeige nicht erreicht wird. Das heißt, um einen nicht blockierenden Datenaustausch zu erreichen, muss die Datenübertragungsgeschwindigkeit den Anforderungen eines Vollduplex-Ports entsprechen: Backplane-Bandbreite ≥Anzahl der Ports ×Portgeschwindigkeit ×2; und gleichzeitig Switching-Kapazität ≥Portnummer X Portgeschwindigkeit.

Derzeit können Switches, die Switching-Matrizen verwenden, im Allgemeinen Leitungsgeschwindigkeitsanzeigen erreichen. Cisco verwendet beispielsweise Schaltmatrixmodule. Im Allgemeinen ist die Backplane-Bandbreite von geringer Bedeutung, während die Switch-Kapazität und die Paketweiterleitungsrate Schlüsselindikatoren sind, die die Switch-Leistung widerspiegeln.

Portrate

Portrate

Anwendungsszenarien wechseln:

Eingeteilt nach den Anwendungsszenarien der Schalter: Gewerbeschalter und Industrieschalter. Kommerzielle Switches werden nach Anwendungsszenarien klassifiziert: Unternehmensnetzwerk-Switches (SMB-Switches), Campus-Switches und Rechenzentrums-Switches.

Die Netzwerkschicht des Campus-Netzwerks übernimmt die ausgereifte dreischichtige Architektur der Branche:

Zugangsschalter: Access-Layer-Switches werden im Allgemeinen in Netzwerkschränken in Fluren eingesetzt, um auf Campus-Netzwerkbenutzer (PCs oder Server) zuzugreifen. Sie bieten Layer-2-Switch-Funktionen und unterstützen auch Layer-3-Zugriffsfunktionen (Zugriffs-Switches sind Layer-3-Switches). Da Access-Layer-Switches direkt mit Campus-Netzwerkbenutzern verbunden sind, bestehen höhere Anforderungen an die Dichte der GE/FE-Schnittstellen an Access-Switches, basierend auf der Anzahl und Art (GE/FE) der Benutzerzugriffsinformationspunkte. Darüber hinaus werden Zugangsschalter in Korridor-Netzwerkschränken eingesetzt, die in großer Zahl vorhanden sind und hohe Anforderungen an Kosten, Stromverbrauch sowie Verwaltung und Wartung stellen.

Aggregationsschalter: Campus-Aggregation-Layer-Switches werden im Allgemeinen in unabhängigen Netzwerk-Aggregationsschränken in Gebäuden eingesetzt, um den Datenverkehr von Campus-Zugangs-Switches zu bündeln. Sie bieten im Allgemeinen Layer-3-Switch-Funktionen. Aggregation-Layer-Switches terminieren als Gateway des Campus-Netzwerks den Layer-2-Verkehr der Campus-Netzwerkbenutzer und führen die Layer-3-Weiterleitung durch. Bei Bedarf können Mehrwertdienstplatinen (z. B. Firewalls, Load Balancer und WLAN-AC-Controller) in die Aggregations-Switches integriert oder unabhängige Mehrwertdienstgeräte angeschlossen werden, um Mehrwertdienste für Campus-Netzwerkbenutzer bereitzustellen.

Kernschalter: Der Core-Layer-Switch des Campus wird im Kerncomputerraum des Campus bereitgestellt. Es bündelt den Benutzerverkehr zwischen Gebäuden und Bereichen und bietet Layer-3-Switch-Funktionen. „Vertikaler Verkehr“, der das externe Netzwerk des Campus mit internen Benutzern verbindet, und „horizontaler Verkehr“ zwischen Benutzern in verschiedenen Aggregationsbereichen erfordern eine hohe Dichte 10GE und hohe Weiterleitungsleistung.

Netzwerktopologie im Rechenzentrums-Switch:

Traditionelle dreischichtige Netzwerkarchitektur: einschließlich der Kern-Switching-Schicht, die das Rechenzentrum und externe Betreiber verbindet, der Zugriffsschicht und der Aggregationsschicht, die beide verbindet, um eine Datenaggregation zu erreichen. Das heutige Rechenzentrumsnetzwerk ist hauptsächlich in eine dreischichtige Topologie unterteilt.

  • Der Zugriffsschalter stellt eine physische Verbindung zum Server her.
  • Der Aggregation-Switch verbindet die Access-Switches unter demselben Layer-2-Netzwerk (VLAN) und stellt weitere Dienste wie Firewall und SSL bereit offLast, Einbruchserkennung, Netzwerkanalyse usw. Es kann sich um einen Layer-2-Switch oder einen Layer-3-Switch handeln.
  • Core-Switches ermöglichen die Hochgeschwindigkeitsweiterleitung von Paketen innerhalb und außerhalb des Rechenzentrums und sorgen für Konnektivität zu mehreren Layer-2-LANs (VLANs). Sie stellen typischerweise ein belastbares Layer-3-Netzwerk für das gesamte Netzwerk bereit.
Traditionelle dreischichtige Struktur des Rechenzentrums

Traditionelle dreischichtige Struktur des Rechenzentrums

Rechenzentrums-Switches – Leaf-Spine-Architektur

Leaf-Spine-Architektur: wird auch als verteiltes Kernnetzwerk bezeichnet. Da diese Netzwerkarchitektur von der Switch Fabric im Switch abgeleitet ist, wird sie auch Fabric-Netzwerkarchitektur genannt und gehört zum CLOS-Netzwerkmodell. Die Spine-Leaf-Netzwerkarchitektur bietet nachweislich nicht blockierende Server-zu-Server-Verbindungen mit hoher Bandbreite und geringer Latenz.

Die Netzwerktopologie des Rechenzentrums besteht aus zwei Switching-SchichtenWirbelsäule und Blatt.

Die Blattschicht besteht aus Zugriffsschaltern, die den Datenverkehr von Servern bündeln und eine direkte Verbindung zum Spine oder Netzwerkkern herstellen.

Spine-Switches verbinden alle Leaf-Switches in einer Full-Mesh-Topologie. In der Abbildung oben stehen grüne Knoten für Switches und graue Knoten für Server. Unter den grünen Knoten ist der oberste der Spine-Knoten und der untere der Leaf-Knoten.

Die Spine-Leaf-Architektur ist für die Anforderungen moderner Anwendungen geeignet

  • Flaches Design: Das flache Design verkürzt die Kommunikationswege zwischen Servern, reduziert dadurch die Latenz und kann die Anwendungs- und Dienstleistung erheblich verbessern.
  • Einfach zu erweitern: Wenn die Bandbreite des Spine-Switches nicht ausreicht, müssen wir nur die Anzahl der Spine-Knoten erhöhen oder einen Lastausgleich auf dem Pfad bereitstellen; Wenn nicht genügend Zugangsverbindungen vorhanden sind, erhöhen Sie einfach die Anzahl der Leaf-Knoten.
  • Niedriges Konvergenzverhältnis: Es ist einfach, ein Konvergenzverhältnis von 1:X oder sogar ein nicht blockierendes 1:1 zu erreichen, und das Link-Konvergenzverhältnis kann auch durch Erhöhen der Link-Bandbreite zwischen Spine- und Leaf-Geräten reduziert werden. Vereinfachte Verwaltung: Die Leaf-Spine-Struktur kann jedes Glied im vollständigen Mesh für den Lastausgleich in einer schleifenfreien Umgebung nutzen. Dieses Multipath-Design mit gleichen Kosten kommt am besten zur Geltung, wenn eine zentralisierte Netzwerkverwaltungsplattform wie SDN verwendet wird.
  • Verarbeitung des Edge-Verkehrs: Mit der Verbreitung von Diensten wie dem Internet der Dinge (Internet of Things, loT) ist der Druck auf die Zugriffsebene dramatisch gestiegen. Am Rande des Netzwerks können Tausende von Sensoren und Geräten angeschlossen sein, die eine große Menge an Datenverkehr erzeugen. Leaf kann Verbindungen auf der Zugriffsebene verarbeiten, und Spine gewährleistet eine nicht blockierende Leistung mit sehr geringer Latenz zwischen zwei beliebigen Ports innerhalb eines Knotens und ermöglicht so agile Dienste vom Zugriff auf die Cloud-Plattform.
  • Multi-Cloud-Management: Rechenzentren oder Clouds können durch die Leaf Spine-Architektur hohe Leistung, hohe Fehlertoleranz und andere Vorteile erzielen, und Multi-Cloud-Management-Strategien sind für Unternehmen nach und nach zu einem Muss geworden.

Blatt-Wirbelstruktur des Rechenzentrums

Hinterlasse einen Kommentar

Nach oben scrollen