Was ist der Unterschied zwischen Ethernet-Karte und InfiniBand-Adapter?

NIC ist Network Interface Controller, auch bekannt als Netzwerkadapter oder Netzwerkschnittstellenkarte, die auf Computern und Servern verwendet wird. Es kann über Netzwerkverbindungskabel (Twisted-Pair-Kabel, Glasfaser usw.) mit Switches, Speichergeräten, Servern und Workstations kommunizieren. Mit zunehmender Marktbekanntheit und technischer Leistungsfähigkeit gibt es auch verschiedene Arten von Netzwerkkarten, wie beispielsweise Ethernet-Karten und InfiniBand-Karten. Dieser Artikel konzentriert sich auch auf die Unterschiede zwischen einer Ethernet-Karte und einem InfiniBand-Adapter und hofft, Ihnen bei der Auswahl der am besten geeigneten Netzwerkkarte behilflich zu sein.

Was ist eine Ethernet-Karte?

Eine Ethernet-Karte ist ein Netzwerkadapter, der in einen Motherboard-Steckplatz eingesteckt wird und den Ethernet-Protokollstandard unterstützt. Jeder Netzwerkadapter hat eine weltweit eindeutige physische Adresse, die als MAC-Adresse bezeichnet wird. Daten können basierend auf der MAC-Adresse des Netzwerkadapters genau an den Zielcomputer gesendet werden. Es gibt viele Arten von Ethernet-Karten und verschiedene Klassifizierungsmethoden. Sie können nach Bandbreite, Netzwerkschnittstelle und Busschnittstelle unterteilt werden. Eine Ethernet-Karte mit optischer Schnittstelle wird als Glasfaser-Ethernet-Karte (Glasfaser-Ethernet-Adapter) bezeichnet. Es folgt dem Glasfaser-Ethernet-Kommunikationsprotokoll und wird normalerweise über ein Glasfaserkabel mit einem Glasfaser-Ethernet-Switch verbunden. Es ist die am weitesten verbreitete Art von Netzwerkkarte. Gegenwärtig können Fiber-Ethernet-Adapter nach Busschnittstelle und Bandbreite klassifiziert werden.

Klassifizierung der Busschnittstelle

Ethernet-Kartenbus-Schnittstellentypen können als PCI, PCI-Express (abgekürzt als PCI-E), USB und ISA klassifiziert werden. ISA/PCI ist die frühere Busschnittstelle und wird mit zunehmender Reife der Technologie schrittweise eingestellt. PCIe ist derzeit die am häufigsten verwendete Busschnittstelle und ist in industriellen Anwendungen und Servercomputern weit verbreitet.

1. Wie funktioniert die PCIe-Karte?

PCIe ist ein serieller Anschluss, der eher wie ein Netzwerk als wie ein Bus funktioniert. Der offensichtlichste Unterschied zu anderen Busschnittstellen, die Daten aus unterschiedlichen Quellen verarbeiten, besteht darin, dass PCIe den Datenfluss durch einen Switch für eine Punkt-zu-Punkt-Verbindung steuert. Die PCle-Karte wird in den Steckplatz eingesetzt und erzeugt eine logische Verbindung (Verbindung oder Link), um miteinander zu kommunizieren. Es unterstützt im Allgemeinen Punkt-zu-Punkt-Kommunikationskanäle zwischen den beiden PCle-Ports und kann die Aktionen zum Senden und Empfangen normaler PCI-Anforderungen oder Interrupts ausführen.

2. Was sind die Kategorien von PCIe-Karten?

Spezifikationen: Normalerweise bestimmt die Anzahl der Kanäle im PCle-Steckplatz eine Spezifikation für die PCle-Karte. Gängige PCle-Karten haben die folgenden physikalischen Spezifikationen: x1, x4, x8, x16 und x32. Beispielsweise bedeutet eine PClex8-Karte, dass die Karte acht Kanäle hat.

Version: PCIe ersetzt die alten PCI- und PCI-X-Busstandards und wird ständig modifiziert, um der wachsenden Nachfrage nach hoher Bandbreite gerecht zu werden. Die früheste Version von PCIe 1.0 (2.5 GT/s) wurde 2002 veröffentlicht, später PCIe 2.0 (5 GT/s), PCIe 3.0 (8 GT/s), PCIe 4.0 (16 GT/s), PCIe 5.0 (32 GT/s), PCIe 6.0 (64 GT/s) und PCIe7.0 (128 GT/s) erschienen. Alle PCIe-Versionen unterstützen Abwärtskompatibilität.

 

Klassifizierung von Bund Breite

Da der Internetverkehr von Tag zu Tag wächst, stehen Netzwerkgeräte unter dem Druck der großen ISPs, ständig mit höheren Leistungsanforderungen zu iterieren und zu aktualisieren, um 10G-, 25G-, 40G- oder bis zu 100G-Datenübertragungen zu erreichen. Einige grundlegende Informationen über sie werden in den folgenden Abschnitten detailliert beschrieben.

1. 10G-Faser Aufsatz(Ethernet-Server Aufsatz)

10G-Glasfaser-Netzwerkadapter Nimmt eine 32/64-Bit-PCI-Bus-Netzwerkschnittstellenkarte an, unterstützt 10G-Singlemode- oder Multimode-Glasfaser und eignet sich für den Aufbau von Backbone-Netzwerken in Unternehmen und auf dem Campus. Gleichzeitig kann 10G-Ethernet bis zu 100 Kilometer übertragen, was die Übertragungsanforderungen im Ballungsraum erfüllen kann. Die Bereitstellung eines 10G-Netzwerks auf der Backbone-Schicht des MAN kann die Netzwerkstruktur erheblich vereinfachen, Kosten senken und die Wartung erleichtern. End-to-End-Ethernet wird verwendet, um einen MAN mit niedrigen Kosten, hoher Leistung und umfassenden Service-Support-Funktionen aufzubauen.

2. 25G-Faser Aufsatz

25G-Glasfaseradapter Gleichen Sie die geringe Bandbreite von 10G-Ethernet und die hohen Kosten von 40G-Ethernet aus, indem Sie die 25-Gbit/s-Einzelkanal-Physical-Layer-Technologie verwenden, um eine 100-Gbit/s-Übertragung basierend auf vier 25-Gbit/s-Glasfaserkanälen zu erreichen. Da das SFP28-Paket auf dem SFP+-Paket basiert und beide die gleiche Größe haben, kann der 25G-Glasfaseradapterport sowohl 25G- als auch 10G-Raten unterstützen. Im Vergleich zu 10G-Netzwerkadaptern wird die größere Bandbreite von 25G-Glasfaser-NICs zur Erfüllung der Netzwerkanforderungen von Hochleistungs-Computing-Clustern bei 100G- oder noch schnelleren Netzwerk-Upgrades 25G-Glasfaseradapter eine der unverzichtbaren Infrastrukturen sein.

3. 40G-Faser Aufsatz

Der 40G-Glasfaseradapter verfügt über eine 40G-QSFP+-Schnittstelle, die eine Übertragungsbandbreite von 40 Gbit/s unterstützt. Es unterstützt auch den PCI-e x8-Standardsteckplatz, um einen effizienten und stabilen Betrieb zu gewährleisten. In der Regel als Single- und Dual-Port erhältlich, 40G-Glasfaser-NICs sind die leistungsstärkste Verbindungslösung für Rechenzentren von Unternehmen, Cloud Computing, Hochleistungs-Computing und eingebettete Umgebungen.

4. 100GFaser Aufsatz

Derzeit sind die gängigsten 100G-Glasfaser-Netzwerkadapter auf dem Markt Single-Port und Dual-Port. Jeder Port kann bis zu 100 Gbit/s Ethernet bereitstellen, wodurch das adaptive Routing für eine zuverlässige Übertragung sichergestellt und die Entladefähigkeit von vSwitch/vRouter verbessert wird. 100G-Glasfaser-Netzwerkkarten bieten eine leistungsstarke und flexible Lösung, offering eine Reihe von innovativen offLasten und Beschleuniger in der Hardware, um die Effizienz von Rechenzentrumsnetzwerken und Speicherverbindungen zu verbessern.

Die Verbindung zwischen dem Server und dem Switch wird auf eine höhere Bandbreite erhöht. Die 25G-Ethernet-Karte ist als Zwischengerät zwischen dem 25G-Server und dem 100G-Switch zum Mainstream geworden. Und da das Rechenzentrum mit beispielloser Geschwindigkeit auf 400G wächst, wird die Verbindung zwischen Servern und Switches auf 100G wachsen, 100G-Netzwerkkarten spielen auch im Rechenzentrum eine unverzichtbare Rolle.

Auch im Rechenzentrum spielen 100G-Netzwerkkarten eine unverzichtbare Rolle.

Was ist der InfiniBand Adapter?

InfiniBand-Netzwerk

Als Kommunikationsstandard für Computernetzwerke wird InfiniBand aufgrund seiner Vorteile einer hohen Durchsatzbandbreite und einer extrem niedrigen Netzwerkübertragungsverzögerung häufig im Hochleistungsrechnen (HPC) eingesetzt. Das InfiniBand-Netzwerk kann horizontal durch Switch-Netzwerke erweitert werden, um es an Netzwerkanforderungen verschiedener Größenordnungen anzupassen. Ab 2014 verwenden die meisten TOP500-Supercomputer die InfiniBand-Netzwerktechnologie. In den letzten Jahren haben KI/Big Data-bezogene Anwendungen auch InfiniBand-Netzwerke eingeführt, um eine leistungsstarke Cluster-Bereitstellung zu erreichen.

Als geschichtetes Protokoll definiert InfiniBand einen geschichteten Protokollstapel ähnlich dem siebenschichtigen Protokollmodell von OSI. IB-Switches erstellen einen privaten und geschützten direkten Kanal auf dem Serverknoten. In diesem Kanal erfordert die Übertragung von Daten und Nachrichten keine CPU-Verarbeitung mehr, sondern wird direkt über RDMA implementiert. Auf diese Weise sind die Empfangs- und Sendefunktionen offzur Verarbeitung in den InfiniBand-Adapter geladen. Physisch verbinden sich InfiniBand-Adapter mit dem CPU-Speicher basierend auf PCIe-Schnittstellen und bieten eine höhere Bandbreite, geringere Latenz und größere Skalierbarkeit als andere Kommunikationsprotokolle.

nfiniband wird häufig im Hochleistungsrechnen eingesetzt

InfiniBand-Adapter

Die InfiniBand-Architektur definiert eine Reihe von Hardwarekomponenten, die zum Bereitstellen der Architektur erforderlich sind, und die InfiniBand-Netzwerkkarte ist eine davon. Der InfiniBand-Adapter wird auch als HCA – Host Channel Adapter bezeichnet. Der HCA ist der Punkt, an dem ein InfiniBand-Endknoten (z. B. ein Server oder ein Speichergerät) eine Verbindung zum InfiniBand-Netzwerk herstellt. InfiniBand-Architekten verbrachten viel Zeit damit, sicherzustellen, dass die Architektur mehr als eine bestimmte HCA-Funktion implementieren kann, die in einem einzigen Stück Hardware, Firmware oder Software erforderlich ist, damit die endgültige Sammlung von Hardware, Software und Firmware, die die HCA-Funktion darstellt, Zugriff bietet um Ressourcen für eine Anwendung zu vernetzen. Tatsächlich erscheint die Warteschlangenstruktur, die von der Anwendung für den Zugriff auf die InfiniBand-Hardware verwendet wird, direkt in der virtuellen Adresse der Anwendung. Derselbe Adressübersetzungsmechanismus ist ein Mittel für HCAs, um im Namen von Anwendungen auf Benutzerebene auf Speicher zuzugreifen. Häufig beziehen sich Anwendungen auf virtuelle Adressen; HCAs haben die Fähigkeit, diese Adressen für die Informationsübertragung in physische Adressen umzuwandeln.

Vorteile von InfiniBand Aufsatz

  1. InfiniBand-Netzwerkkarten bieten die leistungsfähigste und am besten skalierbare Verbindungslösung für Server und Speichersysteme. Insbesondere in den Bereichen HPC, Web 2.0, Cloud Computing, Big Data, Finanzdienstleistungen, virtualisierte Rechenzentren und Speicheranwendungen werden erhebliche Leistungsverbesserungen zu verzeichnen sein, was zu kürzeren Fertigstellungszeiten und niedrigeren Gesamtprozesskosten führt.
  2. InfiniBand-Adapter sind die ideale Lösung für HPC-Cluster, die eine hohe Bandbreite, hohe Nachrichtenraten und niedrige Latenzzeiten benötigen, um eine hohe Servereffizienz und Anwendungsproduktivität zu erreichen.
  3. Die InfiniBand-Karte offlädt die Protokollverarbeitung und Datenbewegung der CPU von der CPU zur Verbindung, maximiert die Effizienz der CPU und führt eine ultraschnelle Verarbeitung hochauflösender Simulationen, großer Datensätze und hochgradig parallelisierter Algorithmen durch.

So wählen Sie ein InfiniBand aus Netzwerk Karte

  1. Netzwerkbandbreite: 100G, 200G, 400G
  2. Anzahl der Adapter in einer einzelnen Maschine
  3. Portrate: 100 Gb/s (HDR100/EDR), 200 Gb/s (HDR)
  4. Anzahl der Anschlüsse: 1/2
  5. Typ der Hostschnittstelle: PCIe3/4 x8/x16, OCP2.0/3.0
  6. Ob die Socket-Direct- oder Multi-Host-Funktion benötigt wird

InfiniBand vs. Ethernet

  • Bandbreite: Da die beiden Anwendungen unterschiedlich sind, sind auch die Bandbreitenanforderungen unterschiedlich. Ethernet ist eher eine Endgeräteverbindung, es besteht kein hoher Bandbreitenbedarf. InfiniBand wird verwendet, um Server im Hochleistungsrechnen miteinander zu verbinden. Es berücksichtigt nicht nur die Verbindung, sondern auch, wie die CPU-Last während der Hochgeschwindigkeits-Netzwerkübertragung reduziert werden kann. Profitieren Sie von der RDMA-Technologie, InfiniBand-Netzwerk kann eine CPU-Entlastung bei Hochgeschwindigkeitsübertragung erreichen und die Netzwerkauslastung verbessern. Daher wird eine große Erhöhung der CPU-Geschwindigkeit nicht mehr Ressourcen für die Netzwerkverarbeitung opfern und die Entwicklung der HPC-Leistung verlangsamen.
  • Latency: Zum Vergleich hauptsächlich in Switch und Netzwerkadapter unterteilt. Für Switches: Als zweite Technologieschicht im Netzwerkübertragungsmodell haben Ethernet-Switches einen langen Verarbeitungsprozess, der im Allgemeinen mehrere Sekunden dauert (mehr als 200 ns unterstützen Cut-Through), während InfiniBand-Switches eine sehr einfache Layer-2-Verarbeitung haben. Die Cut-Through-Technologie kann die Weiterleitungsverzögerung erheblich auf weniger als 100 ns verkürzen, was viel schneller ist als bei Ethernet-Switches. Für Netzwerkadapter: Mithilfe der RDMA-Technologie können InfiniBand-Netzwerkkarten Pakete weiterleiten, ohne die CPU zu durchlaufen, was die Paketkapselungs- und Entkapselungsverzögerung erheblich beschleunigt (normalerweise beträgt die Empfangs- und Sendeverzögerung 600 ns). Die Sende- und Sendeverzögerung von TCP- und UDP-Anwendungen, die auf Ethernet basieren, beträgt jedoch etwa 10 us, mit einer Differenz von mehr als dem Zehnfachen.
  • Zuverlässigkeit: Im Bereich des Hochleistungsrechnens hat die Neuübertragung von Paketverlusten einen großen Einfluss auf die Gesamtleistung. Daher wird ein hochzuverlässiges Netzwerkprotokoll benötigt, um die verlustfreien Eigenschaften des Netzwerks auf der Mechanismusebene sicherzustellen, um seine hochzuverlässigen Eigenschaften zu erreichen. InfiniBand ist ein vollständiges Netzwerkprotokoll mit eigenen Layer-1- bis Layer-4-Formaten. Pakete werden im Netzwerk basierend auf einer End-to-End-Flusskontrolle gesendet und empfangen. Es gibt keine Cache-Akkumulation bei der Übertragung über das InfiniBand-Netzwerk, sodass der Verzögerungs-Jitter auf ein Minimum reduziert wird, wodurch ein ideales reines Netzwerk entsteht. Das durch Ethernet aufgebaute Netzwerk hat keinen Planungs-Flusssteuerungsmechanismus, was nicht nur hohe Kosten, sondern auch einen größeren Energieverbrauch verursacht. Da es keinen End-to-End-Flusssteuerungsmechanismus gibt, tritt das Netzwerk außerdem in leicht extremen Fällen auf, was zu Cache-Überlastung und Paketverlust führt, wodurch die Datenweiterleitungsleistung stark schwankt.
  • Networking: Bei Ethernet-Netzwerken muss jeder Server im Netzwerk regelmäßig Pakete senden, um die Aktualisierung der Einträge in Echtzeit sicherzustellen. Wenn die Anzahl der Knoten im Netzwerk auf ein bestimmtes Niveau ansteigt, werden Broadcast-Stürme erzeugt, was zu einer ernsthaften Verschwendung von Netzwerkbandbreite führt. Gleichzeitig führt das Fehlen des Lernmechanismus für Tabelleneinträge des Ethernet-Netzwerks zu einem Loop-Netzwerk, und Ethernet hat kein spezielles SDN, sodass das Paketformat oder der Weiterleitungsmechanismus geändert werden muss, um die Anforderungen von SDN während des Netzwerks zu erfüllen Bereitstellung, wodurch die Komplexität der Netzwerkkonfiguration erhöht wird. InfiniBand wird mit dem Konzept von SDN geboren. Jedes Layer-2-InfiniBand-Netzwerk verfügt über einen Subnetz-Manager, um die Knoten-ID (LocalID) im Netzwerk zu konfigurieren. Dann werden die Weiterleitungspfadinformationen einheitlich durch die Steuerebene berechnet und an den InfiniBand-Switch geliefert. Auf diese Weise kann ein Layer-2-InfiniBand-Netzwerk ohne Konfiguration konfiguriert werden, Flooding wird vermieden und VLANs und Ringnetzwerkunterbrechungen werden vermieden. Daher kann ein großes Layer-2-Netzwerk mit Zehntausenden von Servern problemlos bereitgestellt werden.

Empfehlungen für Netzwerkkarten

ConnectX-5 Ethernet-Karte (MCX512A-ACAT)

Die Ethernet-Netzwerkschnittstellenkarte ConnectX-5 verfügt über bis zu zwei 10/25-GbE-Verbindungsports, 750 ns Latenz, bis zu 200 Millionen Pakete pro Sekunde (Mpps) und Data Plane Development Kits (DPDK). Für Speicher-Workloads ist ConnectX-5 offbietet eine Reihe innovativer Beschleunigungen, wie z. B. Signatur-Switching in Hardware (T10-DIF), eingebettete PCIe-Switches und NVMe-over-Fabric-Target offWird geladen. ConnectX-5-Adapterkarten bringen auch fortschrittliches Open vSwitch offLaden von Daten in Telekommunikations- und Cloud-Rechenzentren, um extrem hohe Paketraten und Durchsatz zu erzielen und gleichzeitig den CPU-Ressourcenverbrauch zu reduzieren, wodurch die Effizienz der Rechenzentrumsinfrastruktur gesteigert wird.

ConnectX-5 Ethernet-Karte (MCX512A-ACAT)

ConnectX-6 Ethernet-Karte (MCX623106AN-CDAT)

ConnectX-6 Dx SmartNIC unterstützt Übertragungsraten von 1/10/25/40/50/100 GbE, flexibel programmierbare Pipes für neue Netzwerkflüsse, Multi-Homing mit erweitertem QoS, IPsec und TLS Inline-Verschlüsselungsbeschleunigungsunterstützung und Verschlüsselungsbeschleunigung zum Blockieren statischer Daten Daten. Es ist die sicherste und fortschrittlichste Cloud-Netzwerkschnittstellenkarte der Branche zur Beschleunigung geschäftskritischer Rechenzentrumsanwendungen wie Sicherheit, Virtualisierung, SDN/NFV, Big Data, maschinelles Lernen und Speicherung.

ConnectX-6 Ethernet-Karte (MCX623106AN-CDAT)

ConnectX-6 VPI IB-Netzwerkkarte (MCX653105A-ECAT-SP)

Die ConnectX-6 VPI-Karte bietet einen einzelnen Port, eine Latenz von unter 600 ns und 215 Millionen Nachrichten pro Sekunde für HDR100 EDR InfiniBand und 100 GbE Ethernet-Konnektivität. PCIe 3.0- und PCIe 4.0-Unterstützung; Erweiterte Speicherfunktionen, einschließlich Verschlüsselung auf Blockebene und Prüfsumme offBelastung; für die leistungsstärkste und flexibelste Lösung, die entwickelt wurde, um die wachsenden Anforderungen von Rechenzentrumsanwendungen zu erfüllen.

ConnectX-6 VPI IB-Netzwerkkarte (MCX653105A-ECAT-SP)

ConnectX-5 VPI IB-Netzwerkkarte (MCX556A-ECAT)

ConnectX-5 InfiniBand-Adapterkarten offEr ist eine leistungsstarke und flexible Lösung mit Dual-Port-100-Gb/s-InfiniBand- und Ethernet-Konnektivitätsports, geringer Latenz und hohen Nachrichtenraten sowie eingebetteten PCIe-Switches und NVMe over Fabrics. offBelastung. Diese intelligenten RDMA-fähigen Adapter (Remote Direct Memory Access) bieten erweiterte Anwendungen offLadefunktionen für High-Performance Computing (HPC), Cloud Hyperscale und Speicherplattformen.

ConnectX-5 VPI IB-Netzwerkkarte (MCX556A-ECAT)

An den oben erwähnten InfiniBand-Adaptern und Ethernet-Karten ist leicht zu erkennen, dass sie beide ihre eigenen Eigenschaften und entsprechenden Anwendungsbereiche haben. Welcher Kartentyp eingesetzt werden soll, hängt nicht nur von den von der Karte unterstützten Protokollen ab, sondern auch von Ihrer Netzwerkumgebung und Ihrem Budget.

Hinterlasse einen Kommentar

Nach oben scrollen