Bandbreite, Latenz, Jitter und Paketverlust

Bei der Beurteilung der Leistung eines Netzwerks können wir diese anhand von vier Aspekten bewerten: Bandbreite, Latenz, Jitter und Paketverlust.

Netzwerkleistungsmetriken

Netzwerkleistungsmetriken

Bandbreite

Konzept: Bandbreite wird in Baidu Baike als die „höchste Datenrate“ definiert, die innerhalb einer Zeiteinheit von einem Punkt zum anderen in einem Netzwerk übertragen werden kann.

In Computernetzwerken bezieht sich die Bandbreite auf die höchste Datenrate, die das Netzwerk übertragen kann, d. h. auf die Anzahl der Bits pro Sekunde (üblicherweise in Bit/s gemessen).

Vereinfacht ausgedrückt kann die Bandbreite mit einer Autobahn verglichen werden und gibt die Anzahl der Fahrzeuge an, die in einer Zeiteinheit passieren können.

Vertretung: Die Bandbreite wird normalerweise in bps ausgedrückt und gibt an, wie viele Bits pro Sekunde vorhanden sind.

Bit

Bei der Beschreibung der Bandbreite wird „Bits pro Sekunde“ oft weggelassen. Beispielsweise entspricht eine Bandbreite von 100 M 100 Mbit/s, wobei Mbps für Megabit pro Sekunde steht.

Die Geschwindigkeit, mit der wir Software herunterladen, wird jedoch in Byte/s (Bytes pro Sekunde) gemessen. Dabei handelt es sich um die Konvertierung zwischen Bytes und Bits. Im binären Zahlensystem ist jede 0 oder 1 ein Bit, die kleinste Datenspeichereinheit, und 8 Bits bilden ein Byte.

Beim Abonnieren von Breitbanddiensten bezieht sich eine Bandbreite von 100 M auf 100 Mbit/s. Die theoretische Netzwerk-Download-Geschwindigkeit beträgt nur 12.5 Mbit/s, in Wirklichkeit kann sie jedoch weniger als 10 Mbit/s betragen. Diese Diskrepanz ist auf verschiedene Faktoren zurückzuführen, wie z. B. die Leistung des Computers des Benutzers, die Qualität der Netzwerkausrüstung, die Ressourcennutzung, Spitzenzeiten des Netzwerks, die Leistungsfähigkeit von Website-Diensten, Leitungsverschlechterung, Signaldämpfung usw. Das Ergebnis ist das eigentliche Netzwerk Geschwindigkeit kann die theoretische Geschwindigkeit nicht erreichen.

Latency

Vereinfacht ausgedrückt ist die Latenz die Zeit, die eine Nachricht benötigt, um von einem Ende des Netzwerks zum anderen zu gelangen.

Latency

Wenn ich beispielsweise die Adresse von Google auf meinem Computer anpinge;

Klingeln

Das Ergebnis zeigt eine Latenz von 12ms. Diese Latenz bezieht sich auf die Hin- und Rücklaufzeit, die die ICMP-Nachricht benötigt, um von meinem Computer zum Server von Google und zurück zu gelangen.

(Ping bezieht sich auf die Hin- und Rücklaufzeit, die ein Datenpaket benötigt, um vom Gerät des Benutzers zu einem Testpunkt und dann sofort zurück zum Gerät des Benutzers gesendet zu werden. Dies wird allgemein als Netzwerkverzögerung bezeichnet und wird in Millisekunden, ms, gemessen. )

vier Arten von Verzögerungen

Netzwerklatenz umfasst vier Hauptkomponenten: Verarbeitungsverzögerung, Warteschlangenverzögerung, Übertragungsverzögerung und Ausbreitungsverzögerung. In der Praxis berücksichtigen wir hauptsächlich Übertragungsverzögerung und Ausbreitungsverzögerung.

Inhalte verzögern

Verarbeitungsverzögerung: Netzwerkgeräte wie Switches und Router benötigen eine gewisse Zeit, um Pakete nach dem Empfang zu verarbeiten. Dazu gehören Aufgaben wie Entkapselung, Header-Analyse, Datenextraktion, Fehlerprüfung und Routenauswahl.

Typischerweise liegt die Verarbeitungsverzögerung bei Hochgeschwindigkeitsroutern in der Größenordnung von Mikrosekunden oder sogar weniger.

Verarbeitungsverzögerung

Warteschlangenverzögerung: Die Warteschlangenverzögerung bezieht sich auf die Zeit, die Pakete in einer Warteschlange verbringen, während sie von Netzwerkgeräten wie Routern oder Switches verarbeitet werden.

Die Warteschlangenverzögerung für ein Paket hängt davon ab, ob sich derzeit andere Pakete in der Warteschlange befinden, die übertragen werden.

Wenn die Warteschlange leer ist und keine anderen Pakete übertragen werden, ist die Warteschlangenverzögerung für das Paket Null. Wenn hingegen starker Datenverkehr herrscht und viele andere Pakete ebenfalls auf die Übertragung warten, kann die Warteschlangenverzögerung erheblich sein.

Warteschlangenverzögerung

Tatsächliche Warteschlangenverzögerungen liegen normalerweise im Bereich von Millisekunden bis Mikrosekunden.

Übertragungsverzögerung: Die Übertragungsverzögerung ist die Zeit, die Router und Switches zum Senden von Daten benötigen. Dies ist die Zeit, die die Warteschlange des Routers benötigt, um das Paket an die Netzwerkverbindung zu übermitteln.

Übertragungsverzögerung

Wenn (L) die Länge des Pakets in Bits darstellt und (R) die Verbindungsübertragungsrate von Router A zu Router B in Bits pro Sekunde (bps) darstellt, beträgt die Übertragungsverzögerung L/R.

Tatsächliche Übertragungsverzögerungen liegen typischerweise im Bereich von Millisekunden bis Mikrosekunden.

Ausbreitungsverzögerung: Die Ausbreitungsverzögerung ist die Zeit, die eine Nachricht benötigt, um die physische Verbindung zwischen zwei Routern zu durchlaufen.

Die Ausbreitungsverzögerung ist gleich dem Abstand zwischen den beiden Routern dividiert durch die Ausbreitungsgeschwindigkeit der Verbindung, bezeichnet als (D/S), wobei (D) der Abstand zwischen den beiden Routern und (S) die Ausbreitungsgeschwindigkeit von ist der Link.

Tatsächliche Ausbreitungsverzögerungen liegen in der Größenordnung von Millisekunden.

Das Verständnis dieser Verzögerungen ist entscheidend für die Optimierung der Netzwerkleistung und die Gewährleistung einer effizienten Datenübertragung.

Jitter

Unter Jitter im Netzwerk versteht man die Schwankung der Zeitverzögerung zwischen ankommenden Paketen, die durch Netzwerküberlastung, Zeitabweichung oder Routenänderungen verursacht wird. Wenn beispielsweise die maximale Verzögerung beim Zugriff auf eine Website 10 ms und die minimale Verzögerung 5 ms beträgt, beträgt der Netzwerk-Jitter 5 ms.

Ein Jitter wird verwendet, um die Stabilität eines Netzwerks zu bewerten; Je kleiner der Jitter, desto stabiler ist das Netzwerk.

Dies ist besonders wichtig beim Online-Gaming, wo eine hohe Netzwerkstabilität erforderlich ist, um ein gutes Spielerlebnis zu gewährleisten.

Ursachen für Netzwerk-Jitter: Netzwerk-Jitter kann auftreten, wenn das Netzwerk überlastet ist und zu variablen Warteschlangenverzögerungen führt, die sich auf die End-to-End-Latenz auswirken. Dies kann dazu führen, dass die Verzögerung zwischen Router A und Router B schwankt, was zu Netzwerk-Jitter führt.

Paketverlust

Ein Paketverlust tritt auf, wenn ein oder mehrere Datenpakete ihr Ziel im Netzwerk nicht erreichen. Wenn der Empfänger fehlende Daten erkennt, fordert er eine erneute Übertragung der verlorenen Pakete basierend auf ihren Sequenznummern an.

Paketverlust

Paketverluste können durch mehrere Faktoren verursacht werden, wobei eine Überlastung des Netzwerks eine der häufigsten Ursachen ist. Wenn der Datenverkehr für die Netzwerkausrüstung zu stark ist, können zwangsläufig einige Pakete verloren gehen.

Paketverlustrate: Die Paketverlustrate ist das Verhältnis der Anzahl der während eines Tests verlorenen Datenpakete zur Gesamtzahl der gesendeten Pakete. Wenn beispielsweise 100 Pakete gesendet werden und ein Paket verloren geht, beträgt die Paketverlustrate 1 %.

Stacking: Stacking bezieht sich auf die Praxis, mehrere Switches, die Stacking-Funktionen unterstützen, mithilfe von Stacking-Kabeln zu verbinden und sie logisch zu einem einzigen Switch-Gerät zu virtualisieren, das als Ganzes an der Datenweiterleitung beteiligt ist. Stacking ist eine weit verbreitete horizontale Virtualisierungstechnologie offVorteile wie verbesserte Zuverlässigkeit, erweiterte Portnummern, erhöhte Bandbreite und vereinfachte Netzwerkkonfiguration.

Warum ist Stapeln erforderlich?

Herkömmliche Campusnetzwerke nutzen Geräte- und Verbindungsredundanz, um eine hohe Zuverlässigkeit zu gewährleisten. Ihre Verbindungsauslastung ist jedoch gering und die Netzwerkwartungskosten sind hoch. Die Stacking-Technologie virtualisiert mehrere Switches zu einem einzigen Switch, um die Netzwerkbereitstellung zu vereinfachen und den Arbeitsaufwand für die Netzwerkwartung zu reduzieren. Stapeln hat viele Vorteile:

Verbesserte Zuverlässigkeit: Durch Stapeln können mehrere Switches ein redundantes Backup-System bilden. Wenn beispielsweise Switch A und Switch B übereinander gestapelt sind, sichern sie sich gegenseitig. Wenn Schalter A ausfällt, kann Schalter B übernehmen, um sicherzustellen, dass das System weiterhin normal funktioniert. Darüber hinaus unterstützen gestapelte Systeme die geräteübergreifende Link-Aggregation, was ebenfalls für Redundanz der Links sorgt.

Stapelschema

Stapelschema

Erweiterte Portnummern: Wenn die Anzahl der Benutzer die Portdichte überschreitet, die ein einzelner Switch verarbeiten kann, können neue Switches zum vorhandenen hinzugefügt werden, um ein gestapeltes System zu bilden und so die Anzahl der verfügbaren Ports zu erhöhen.

Schematische Darstellung der Erweiterungsport-Nummern

Schematische Darstellung der Erweiterungsport-Nummern

Erhöhte Bandbreite: Um die Uplink-Bandbreite eines Switches zu erhöhen, können neue Switches hinzugefügt werden, um ein gestapeltes System zu bilden. Mehrere physische Verbindungen von Mitglieds-Switches können in einer Aggregationsgruppe konfiguriert werden, um die Uplink-Bandbreite des Switches zu verbessern.

Erhöhte Bandbreite

Erhöhte Bandbreite

Vereinfachte Netzwerkkonfiguration: In einem gestapelten Netzwerk werden mehrere Geräte virtuell als ein einziges logisches Gerät konfiguriert. Diese Vereinfachung macht Protokolle wie MSTP überflüssig, um Schleifen zu unterbrechen, rationalisiert die Netzwerkkonfiguration und basiert auf geräteübergreifender Link-Aggregation, um bei Ausfall eines einzelnen Geräts ein schnelles Failover zu erreichen und so die Zuverlässigkeit zu verbessern.

Vereinfachte Netzwerkkonfiguration

Vereinfachte Netzwerkkonfiguration

Stapeln über große Entfernungen: Benutzer auf jeder Etage können über Flurschalter auf das externe Netzwerk zugreifen. Durch die Verbindung weit voneinander entfernter Korridor-Switches zu einem Stapel wird jedes Gebäude effektiv zu einem einzigen Zugangsgerät und vereinfacht so die Netzwerkstruktur. Jedes Gebäude verfügt über mehrere Verbindungen zum Kernnetzwerk, wodurch das Netzwerk robuster und zuverlässiger wird. Die Konfiguration mehrerer Korridorschalter wird gegenüber der Konfiguration des gestapelten Systems vereinfacht, wodurch die Verwaltungs- und Wartungskosten gesenkt werden.

Stapeln über große Entfernungen

Stapeln über große Entfernungen

Geräte, die Stacking unterstützen

Die meisten Mainstream-Switches unterstützen Stacking. Beispielsweise verfügen die Campus-Switches der S-Serie und die CloudEngine-Rechenzentrums-Switches von Huawei über Modelle, die Stacking unterstützen. Bei den Campus-Switches der S-Serie unterstützen nur kastenförmige Switches das Stapeln; Zwei Chassis-Switches bilden zusammen einen Cluster. Bei CloudEngine-Switches für Rechenzentren gibt es sowohl Gehäuse- als auch Box-Switches, die das Stapeln unterstützen. Der Unterschied besteht darin, dass Gehäuse-Switches nur das Stapeln von zwei Geräten unterstützen.

Stack-Etablierungskonzepte

In einem Stacking-System werden alle einzelnen Switches als Member-Switches bezeichnet. Basierend auf ihren Funktionen können sie in drei Rollen eingeteilt werden:

Hauptschalter: Der Master-Switch ist für die Verwaltung des gesamten Stacks verantwortlich. In einem Stapelsystem gibt es nur einen Hauptschalter.

Standby-Schalter: Der Standby-Switch fungiert als Backup für den Master-Switch. In einem Stapelsystem gibt es nur einen Standby-Schalter. Im Fehlerfall übernimmt er alle Funktionen des Original-Hauptschalters.

Slave-Schalter: Slave-Switches werden für die Weiterleitung des geschäftlichen Datenverkehrs verwendet. In einem Stacking-System können mehrere Slave-Switches vorhanden sein. Je mehr Slave-Switches vorhanden sind, desto größer ist die Weiterleitungsbandbreite des Stacks.

Alle Mitglieds-Switches, mit Ausnahme der Master- und Standby-Switches, sind Slave-Switches. Ein Slave-Switch übernimmt die Rolle eines Standby-Switches, wenn dieser nicht verfügbar ist.

Stapel-ID

Die Stack-ID wird zur Identifizierung von Mitglieds-Switches innerhalb des Stacks verwendet und stellt die Steckplatznummer des Mitglieds-Switches dar. Jeder Mitglieds-Switch verfügt über eine eindeutige Stack-ID im System.

Stapelpriorität

Die Stapelpriorität ist ein Attribut von Mitgliedsschaltern, das hauptsächlich während des Rollenwahlprozesses verwendet wird, um die Rolle von Mitgliedsschaltern zu bestimmen. Je höher der Prioritätswert, desto höher ist die Wahrscheinlichkeit, zum Hauptschalter gewählt zu werden.

Stack-Einrichtungsprozess

Der Prozess der Stapelerstellung umfasst die folgenden vier Phasen:

  • Wählen Sie basierend auf den Netzwerkanforderungen die Stapelkabel und Verbindungsmethoden aus. Verschiedene Produkte unterstützen unterschiedliche physikalische Verbindungsmethoden. Für Campus-Box-Switches der S-Serie und CloudEngine-Rechenzentrum-Box-Switches werden Ketten- und Ringverbindungstopologien unterstützt. Für CloudEngine-Rechenzentrums-Chassis-Switches werden SIP-Port-Verbindungen und Service-Port-Verbindungen unterstützt.
  • Wählen Sie den Hauptschalter. Nachdem alle Mitglieds-Switches eingeschaltet sind, beginnt das Stapelsystem mit der Auswahl des Haupt-Switches. Jeder Mitglieds-Switch im Stacking-System hat eine definierte Rolle, wobei der Master-Switch den gesamten Stack verwaltet.
  • Weisen Sie Stack-IDs zu und wählen Sie den Standby-Switch. Nachdem die Wahl des Master-Switches abgeschlossen ist, sammelt er Topologieinformationen von allen Mitglieds-Switches, berechnet die Einträge in der Stack-Weiterleitungstabelle, verteilt sie an alle Mitglieds-Switches und weist Stack-IDs zu. Anschließend erfolgt die Wahl des Standby-Switches als Backup für den Master-Switch. Der Switch, der den Gerätestart zuerst abschließt, außer dem Master-Switch, wird als Standby-Switch priorisiert.
  • Synchronisieren Sie Softwareversionen und Konfigurationsdateien. Nachdem die Rollenauswahl und die Topologieerfassung abgeschlossen sind, synchronisieren alle Mitglieds-Switches automatisch die Softwareversion und die Konfigurationsdatei des Master-Switches.
  • Das Stapelsystem kann Systemsoftware automatisch laden. Mitglieds-Switches, die einen Stack bilden, benötigen nicht dieselbe Softwareversion; Sie müssen nur kompatibel sein. Wenn die Softwareversion des Standby- oder Slave-Switches von der des Master-Switches abweicht, lädt der Standby- oder Slave-Switch automatisch die Systemsoftware vom Master-Switch herunter, startet mit der neuen Systemsoftware neu und fügt sich wieder dem Stapel hinzu.
  • Das Stapelsystem verfügt außerdem über einen Mechanismus zur Synchronisierung von Konfigurationsdateien. Der Master-Switch speichert die Konfigurationsdatei für den gesamten Stack und verwaltet die Konfiguration des gesamten Systems. Die Standby- oder Slave-Switches synchronisieren die Konfigurationsdatei vom Master-Switch auf ihren Switch und führen sie aus. Dadurch wird sichergestellt, dass mehrere Geräte im Stack wie ein einziges Gerät im Netzwerk arbeiten können und im Falle eines Master-Switch-Ausfalls die verbleibenden Switches weiterhin alle Funktionen normal ausführen können.

Einführung in optische SFP (SFP+)-Module

Optische Module und Switches sind in gängigen Netzwerkprojekten wie der Bereitstellung von Unternehmensnetzwerken und dem Bau von Rechenzentren unverzichtbar. Optische Module wandeln hauptsächlich elektrische Signale in optische Signale um, während Schalter die Weiterleitung dieser optoelektronischen Signale ermöglichen. Unter den verschiedenen verfügbaren optischen Modulen sind SFP+-Module heute eines der am weitesten verbreiteten. Verschiedene Verbindungsmethoden mit Switches können unterschiedliche Netzwerkanforderungen erfüllen.

Was ist das optische SFP+-Modul?

Das optische SFP+-Modul ist eine Art 10G-Glasfasermodul innerhalb der SFP-Familie, unabhängig von Kommunikationsprotokollen. Normalerweise wird es an Switches, Glasfaser-Router und Glasfaser-Netzwerkkarten angeschlossen und in 10-Gbit/s-Ethernet- und 8.5-Gbit/s-Fibre-Channel-Systemen verwendet, um den höheren Übertragungsratenanforderungen von Rechenzentren gerecht zu werden und die Netzwerkerweiterung und -konvertierung zu erleichtern.

SFP+-Module offEr zeichnet sich durch eine hohe Kartendichte und eine kompakte Größe aus und ermöglicht die Interoperabilität mit anderen Arten von 10G-Modulen. Dies bietet Rechenzentren eine höhere Installationsdichte und Kosteneinsparungen und macht sie zu einem gängigen steckbaren optischen Modul auf dem Markt.

Arten von optischen SFP+-Modulen

Im Allgemeinen werden optische SFP+-Module basierend auf ihren tatsächlichen Anwendungen kategorisiert. Zu den gängigen Typen gehören 10G SFP+-, BIDI SFP+-, CWDM SFP+- und DWDM SFP+-Module.

10G SFP+-Module: Dies sind Standard-SFP+-Module, die als aktualisierte Version von 10G-SFP-Modulen gelten und ein gängiges Design auf dem Markt sind.

BIDI SFP+-Module: Diese Module nutzen die Wellenlängenmultiplex-Technologie und erreichen eine Geschwindigkeit von bis zu 11.1 Gbit/s sowie einen geringen Stromverbrauch. Bei zwei Glasfaseranschlüssen werden sie normalerweise paarweise verwendet, wodurch die Menge der verwendeten Glasfasern und die Baukosten beim Aufbau von Rechenzentrumsnetzwerken reduziert werden.

CWDM SFP+-Module: Diese Module nutzen die Multiplexing-Technologie mit grober Wellenlängenteilung und werden häufig mit Singlemode-Fasern verwendet, wodurch Faserressourcen gespart werden offEr bietet Flexibilität und Zuverlässigkeit bei der Vernetzung bei geringem Stromverbrauch.

DWDM SFP+-Module: Diese Module nutzen die Dense-Wellenlängen-Multiplex-Technologie und werden häufig für die Datenübertragung über große Entfernungen mit einer maximalen Entfernung von bis zu 80 km verwendet. Sie zeichnen sich durch hohe Raten, große Kapazität und starke Skalierbarkeit aus.

SFP-Modul

So koppeln Sie optische SFP+-Module mit Switches

Für verschiedene Netzwerklösungen können verschiedene Arten von optischen Modulen an Switches angeschlossen werden. Nachfolgend finden Sie einige praktische Anwendungsszenarien für die Kopplung optischer SFP+-Module mit Switches.

Lösung 1: Verbindung zwischen optischen 10G-SFP+-Modulen und Switches

Stecken Sie vier optische 10G-SFP+-Module in die 10-Gbit/s-SFP+-Ports eines Switches und dann ein optisches 40G-QSFP+-Modul in den 40-Gbit/s-QSFP+-Port eines anderen Switches. Zum Schluss verbinden Sie sie in der Mitte mit einem Breakout-Glasfaser-Jumper. Mit dieser Verbindungsmethode wird hauptsächlich eine Netzwerkerweiterung von 10G auf 40G erreicht, wodurch die Netzwerk-Upgrade-Anforderungen von Rechenzentren schnell und bequem erfüllt werden können.

SFP-QSFP

Lösung 2: Verbindung zwischen optischen BIDI SFP+-Modulen und Switches

Stecken Sie die optischen Module in die SFP+-Ports von zwei Switches und verwenden Sie dann LC-Glasfaser-Jumper, die den Modulports entsprechen, um die optischen Module an beiden Switches zu verbinden. Mit dieser Verbindungsmethode wird effektiv die einfachste und wirtschaftlichste Datenverbindung erreicht, die für Ethernet-Verbindungen in Rechenzentren, Unternehmensverkabelungen und die Übertragung durch Telekommunikationsbetreiber anwendbar ist.

SFP 10G BX

Szenario 3: Verbindung zwischen optischen CWDM SFP+-Modulen und Switches

Bei dieser Verbindungsmethode werden Repeater, Glasfaser-Transceiver und CWDM verwendet, um die optischen Module mit den Switches zu verbinden und die elektrischen RJ45-Ports der 10G-Ethernet-Switches in die von den CWDM-Multiplexern benötigten CWDM-Wellenlängen umzuwandeln.

CWDM SFP+

Szenario 4: Verbindung zwischen optischen DWDM SFP+-Modulen und Switches

Stecken Sie die optischen Module in die SFP+-Ports der Switches und verbinden Sie sie dann über gepanzerte Glasfaser-Jumper mit dem DWDM. Diese Verbindungsmethode schützt die optischen Signale bei der Übertragung über große Entfernungen, reduziert den optischen Wellenverlust erheblich und ist für die Übertragung optischer Signale über große Entfernungen geeignet.

DWDM SFP+

Vorsichtsmaßnahmen für die Verbindung optischer SFP+-Module mit Switches

  1. Stellen Sie sicher, dass die Wellenlänge und die Übertragungsentfernung der von beiden Switches verwendeten optischen Module gleich sind und ob es sich um Einzelfaser- oder Doppelfaser-, Singlemode- oder Multimode-Module handelt. Bei Nichtübereinstimmung verwenden Sie den entsprechenden Konverter.
  2. Vermeiden Sie beim Einsatz optischer Module statische Elektrizität und Stöße. Wenn eine Beule auftritt, ist es nicht empfehlenswert, das Modul weiter zu verwenden.
  3. Achten Sie auf die Ausrichtung des optischen Moduleinsatzes; Der Zugring und das Etikett sollten nach oben zeigen.
  4. Wenn Sie das optische Modul in den Schalter einsetzen, drücken Sie es fest nach unten. Im Allgemeinen treten leichte Vibrationen auf. Ziehen Sie nach dem Einsetzen leicht am Modul, um zu prüfen, ob es richtig installiert ist.
  5. Ziehen Sie beim Zerlegen des optischen Moduls zunächst den Ring in eine Position im 90-Grad-Winkel zum Anschluss und entfernen Sie dann das Modul.

Hinterlasse einen Kommentar

Nach oben scrollen