Quelle est la différence entre la carte Ethernet et l'adaptateur InfiniBand ?

NIC est Network Interface Controller, également connu sous le nom d'adaptateur réseau ou de carte d'interface réseau, qui est utilisé sur les ordinateurs et les serveurs. Il peut communiquer avec des commutateurs, des périphériques de stockage, des serveurs et des postes de travail via des câbles de connexion réseau (câbles à paire torsadée, fibres optiques, etc.). Avec l'augmentation de la popularité du marché et des capacités techniques, il existe également différents types de cartes réseau, telles que les cartes Ethernet et les cartes InfiniBand. Cet article se concentre également sur les différences entre une carte Ethernet et un adaptateur InfiniBand, dans l'espoir de vous aider à choisir la carte réseau la plus appropriée.

Qu'est-ce qu'une carte Ethernet ?

Une carte Ethernet est un adaptateur réseau branché dans un emplacement de carte mère et prend en charge la norme de protocole Ethernet. Chaque carte réseau possède une adresse physique unique au monde, appelée adresse MAC. Les données peuvent être envoyées avec précision à l'ordinateur de destination en fonction de l'adresse MAC de la carte réseau. Il existe de nombreux types de cartes Ethernet et diverses méthodes de classification. Ils peuvent être divisés en fonction de la bande passante, de l'interface réseau et de l'interface de bus. Une carte Ethernet à interface optique est appelée carte Ethernet fibre (adaptateur Fibre-Ethernet). Il suit le protocole de communication Ethernet à fibre optique et est généralement connecté à un commutateur Ethernet à fibre optique via un câble à fibre optique. C'est le type de carte réseau le plus utilisé. À l'heure actuelle, les adaptateurs Fibre-Ethernet peuvent être classés par interface de bus et bande passante.

Classement des interfaces de bus

Les types d'interface de bus de carte Ethernet peuvent être classés comme PCI, PCI-Express (en abrégé PCI-E), USB et ISA. ISA/PCI est l'interface de bus la plus ancienne et est progressivement supprimée au fur et à mesure que la technologie gagne en maturité. PCIe est actuellement l'interface de bus la plus utilisée et est très courante dans les applications industrielles et les ordinateurs serveurs.

1. Comment fonctionne la carte PCIe ?

PCIe est une connexion série qui fonctionne plus comme un réseau que comme un bus. La différence la plus évidente par rapport aux autres interfaces de bus qui gèrent des données provenant de différentes sources est que PCIe contrôle le flux de données via un commutateur pour une connexion point à point. La carte PCle s'insère dans le slot et génère une connexion logique (interconnexion ou liaison) pour communiquer entre elles. Il prend généralement en charge les canaux de communication point à point entre les deux ports PCle et peut effectuer les actions d'envoi et de réception de requêtes ou d'interruptions PCI normales.

2. Quelles sont les catégories de cartes PCIe ?

Spécifications : Généralement, le nombre de canaux dans l'emplacement PCle détermine une spécification pour la carte PCle. Les cartes PCle courantes ont les spécifications physiques suivantes : x1, x4, x8, x16 et x32. Par exemple, une carte PClex8 signifie que la carte a huit canaux.

Version : PCIe remplace les anciennes normes de bus PCI et PCI-X et est constamment modifié pour répondre à la demande croissante de bande passante élevée. La première version PCIe 1.0 (2.5GT/s) a été publiée en 2002, Plus tard, PCIe 2.0 (5GT/s), PCIe 3.0 (8GT/s), PCIe 4.0 (16GT/s), PCIe 5.0 (32GT/s), PCIe 6.0 (64GT/s) et PCIe7.0 (128GT/s) sont apparus. Toutes les versions PCIe prennent en charge la rétrocompatibilité.

 

Classification des Betlargeur

Alors que le trafic Internet augmente de jour en jour, les équipements réseau sont sous la pression des principaux FAI pour itérer et mettre à jour en permanence avec des exigences de performances plus élevées pour atteindre un transfert de données de 10G, 25G, 40G ou jusqu'à 100G. Certaines informations de base à leur sujet seront détaillées dans les sections suivantes.

1. Fibre 10G adaptateur(Serveur Ethernet adaptateur)

Adaptateur réseau fibre 10G adopte une carte d'interface réseau bus PCI 32/64 bits, prend en charge la fibre monomode ou multimode 10G et convient à la construction de réseaux fédérateurs d'entreprise et de campus. Dans le même temps, l'Ethernet 10G peut transmettre jusqu'à 100 kilomètres, ce qui peut répondre aux exigences de transmission dans la zone métropolitaine. Le déploiement d'un réseau 10G au niveau de la couche dorsale du MAN peut grandement simplifier la structure du réseau, réduire les coûts et faciliter la maintenance. L'Ethernet de bout en bout est utilisé pour construire un MAN avec des capacités de support de service à faible coût, hautes performances et riches.

2. Fibre 25G adaptateur

Adaptateurs fibre 25G compenser la faible bande passante de l'Ethernet 10G et le coût élevé de l'Ethernet 40G en utilisant la technologie de couche physique à canal unique 25 Gbit/s pour obtenir une transmission 100 G basée sur quatre canaux fibre optique 25 Gbit/s. Étant donné que le package SFP28 est basé sur le package SFP+ et que les deux ont la même taille, le port de l'adaptateur fibre 25G peut prendre en charge les débits 25G ainsi que 10G. Par rapport à l'adaptateur réseau 10G, la plus grande bande passante de la carte réseau fibre 25G pour répondre aux besoins réseau des clusters informatiques hautes performances, dans les mises à niveau de réseau 100G ou même plus rapides, l'adaptateur fibre 25G sera l'une des infrastructures indispensables.

3. Fibre 40G adaptateur

L'adaptateur fibre 40G possède une interface QSFP+ 40G qui prend en charge une bande passante de transmission de 40 Gbit/s. Il prend également en charge l'emplacement standard PCI-e x8 pour assurer un fonctionnement efficace et stable. Généralement disponible en ports simples et doubles, Cartes réseau fibre 40G sont la solution d'interconnexion la plus performante pour les centres de données d'entreprise, le cloud computing, le calcul haute performance et les environnements embarqués.

4. 100G Fibres adaptateur

Actuellement, les adaptateurs de réseau fibre 100G les plus courants sur le marché sont à port unique et à double port. Chaque port peut fournir jusqu'à 100 Gbit/s Ethernet, assurant le routage adaptatif d'une transmission fiable et améliorant la capacité de déchargement de vSwitch/vRouter. Cartes réseau Fibre 100G apporter une solution performante et flexible, offproposant une gamme de produits innovants offcharges et accélérateurs dans le matériel pour améliorer l'efficacité des réseaux de centres de données et des connexions de stockage.

La connexion entre le serveur et le commutateur augmente vers une bande passante plus élevée. La carte Ethernet 25G est devenue le courant dominant en tant que périphérique intermédiaire entre le serveur 25G et le commutateur 100G. Et comme le centre de données passe à 400G à une vitesse sans précédent, la connexion entre les serveurs et les commutateurs passera à 100G, les cartes réseau 100G jouent également un rôle indispensable dans le centre de données.

Les cartes réseau 100G jouent également un rôle indispensable dans le centre de données.

WQu'est-ce que l'adaptateur InfiniBand ?

Réseau InfiniBand

En tant que norme de communication de réseau informatique, InfiniBand est largement utilisé dans le calcul haute performance (HPC) en raison de ses avantages de bande passante à haut débit et de délai de transmission réseau ultra-faible. Le réseau InfiniBand peut être étendu horizontalement via des réseaux de commutation pour s'adapter aux exigences de mise en réseau de différentes échelles. Depuis 2014, la plupart des supercalculateurs TOP500 utilisent la technologie de réseau InfiniBand. Ces dernières années, les applications liées à l'IA/aux mégadonnées ont également adopté les réseaux InfiniBand pour réaliser un déploiement de cluster hautes performances.

En tant que protocole en couches, InfiniBand définit une pile de protocoles en couches similaire au modèle de protocole à sept couches OSI. Les commutateurs IB créent un canal direct privé et protégé sur le nœud serveur. Dans ce canal, la transmission des données et des messages ne nécessitera plus de traitement CPU mais sera mise en œuvre directement via RDMA. De cette façon, les fonctions de réception et d'envoi sont offchargé sur l'adaptateur InfiniBand pour traitement. Physiquement, les adaptateurs InfiniBand se connectent à la mémoire du processeur sur la base d'interfaces PCIe, offrant une bande passante plus élevée, une latence plus faible et une plus grande évolutivité que les autres protocoles de communication.

nfiniband est largement utilisé dans le calcul haute performance

Adaptateur InfiniBand

L'architecture InfiniBand définit un ensemble de composants matériels nécessaires au déploiement de l'architecture, et la carte réseau InfiniBand en fait partie. L'adaptateur InfiniBand est également appelé HCA - Host Channel Adapter. Le HCA est le point auquel un nœud d'extrémité InfiniBand (tel qu'un serveur ou un périphérique de stockage) se connecte au réseau InfiniBand. Les architectes d'InfiniBand ont passé beaucoup de temps à s'assurer que l'architecture pouvait implémenter plus qu'une fonction HCA spécifique requise dans un seul élément matériel, micrologiciel ou logiciel afin que la collection finale de matériel, logiciel et micrologiciel représentant la fonction HCA donne accès aux ressources réseau d'une application. En effet, la structure de file d'attente utilisée par l'application pour accéder au matériel InfiniBand apparaîtra directement dans l'adresse virtuelle de l'application. Le même mécanisme de traduction d'adresse est un moyen pour les HCA d'accéder à la mémoire au nom des applications de niveau utilisateur. Souvent, les applications font référence à des adresses virtuelles ; Les HCA ont la capacité de convertir ces adresses en adresses physiques pour le transfert d'informations.

Avantages de InfiniBand adaptateur

  1. Les cartes réseau InfiniBand offrent la solution d'interconnexion la plus performante et la plus évolutive pour les serveurs et les systèmes de stockage. En particulier dans le HPC, le Web 2.0, le cloud computing, le big data, les services financiers, les centres de données virtualisés et les applications de stockage verront des améliorations de performances significatives, ce qui se traduira par des délais d'exécution plus courts et des coûts de processus globaux inférieurs.
  2. Les adaptateurs InfiniBand sont la solution idéale pour les clusters HPC qui nécessitent une bande passante élevée, des débits de messages élevés et une faible latence pour atteindre une efficacité de serveur et une productivité des applications élevées.
  3. La carte InfiniBand offcharge le traitement du protocole et le mouvement des données de la CPU de la CPU à l'interconnexion, maximisant l'efficacité de la CPU et effectuant un traitement ultra-rapide de simulation haute résolution, de grands ensembles de données et d'algorithmes hautement parallélisés.

Comment sélectionner un InfiniBand Réseau Card

  1. Bande passante réseau : 100G, 200G, 400G
  2. Nombre d'adaptateurs dans une seule machine
  3. Débit de port : 100 Gb/s (HDR100/EDR), 200 Gb/s (HDR)
  4. Nombre de ports : 1/2
  5. Type d'interface hôte : PCIe3/4 x8/x16, OCP2.0/3.0
  6. Si la fonction Socket-Direct ou Multi-host est requise

InfiniBand contre Ethernet

  • Bande passante : Étant donné que les deux applications sont différentes, les besoins en bande passante sont également différents. Ethernet est plus une interconnexion de terminaux, il n'y a pas de forte demande de bande passante. InfiniBand est utilisé pour interconnecter des serveurs dans le calcul haute performance. Il prend en compte non seulement l'interconnexion, mais également la manière de réduire la charge du processeur lors de la transmission réseau à haut débit. Bénéficiant de la technologie RDMA, Réseau InfiniBand peut réaliser le déchargement du processeur dans la transmission à grande vitesse et améliorer l'utilisation du réseau. Par conséquent, une forte augmentation de la vitesse du processeur ne sacrifiera pas davantage de ressources pour le traitement du réseau et ne ralentira pas le développement des performances HPC.
  • Latence: Principalement divisé en commutateur et adaptateur réseau à des fins de comparaison. Pour le commutateur : en tant que deuxième couche de technologie dans le modèle de transmission réseau, les commutateurs Ethernet ont un long processus de traitement, qui est généralement de plusieurs us (plus de 200ns prenant en charge la coupure), tandis que les commutateurs InfiniBand ont un traitement de couche 2 très simple. La technologie Cut-Through peut réduire considérablement le délai de transfert à moins de 100ns, ce qui est beaucoup plus rapide que les commutateurs Ethernet. Pour les adaptateurs réseau : grâce à la technologie RDMA, les cartes réseau InfiniBand peuvent transférer des paquets sans passer par le processeur, ce qui accélère considérablement le délai d'encapsulation et de désencapsulation des paquets (le délai de réception et d'envoi est généralement de 600 ns). Cependant, le délai de transmission et d'envoi des applications TCP et UDP basées sur Ethernet est d'environ 10us, avec une différence de plus de dix fois.
  • Fiabilité: Dans le domaine du calcul haute performance, la retransmission des pertes de paquets a un impact important sur les performances globales. Par conséquent, un protocole de réseau hautement fiable est nécessaire pour garantir les caractéristiques sans perte du réseau à partir du niveau du mécanisme, afin d'atteindre ses caractéristiques de haute fiabilité. InfiniBand est un protocole réseau complet avec ses propres formats de couche 1 à couche 4. Les paquets sont envoyés et reçus sur le réseau sur la base d'un contrôle de flux de bout en bout. Il n'y a pas d'accumulation de cache dans la transmission sur le réseau InfiniBand, de sorte que la gigue de retard est contrôlée au minimum, créant ainsi un réseau pur idéal. Le réseau construit par Ethernet ne dispose pas d'un mécanisme de contrôle de flux de planification, ce qui est non seulement un coût élevé, mais également une consommation d'énergie plus importante. De plus, comme il n'y a pas de mécanisme de contrôle de flux de bout en bout, le réseau apparaîtra dans des cas légèrement extrêmes, entraînant une congestion du cache et une perte de paquets, ce qui fait fluctuer considérablement les performances de transfert des données.
  • Réseautage: La mise en réseau Ethernet nécessite que chaque serveur du réseau envoie périodiquement des paquets pour assurer la mise à jour en temps réel des entrées. Lorsque le nombre de nœuds dans le réseau augmente jusqu'à un certain niveau, des tempêtes de diffusion sont générées, entraînant un grave gaspillage de la bande passante du réseau. Dans le même temps, l'absence de mécanisme d'apprentissage d'entrée de table du réseau Ethernet conduira à un réseau en boucle, et Ethernet n'a pas de SDN spécial, de sorte que le format de paquet ou le mécanisme de transfert doit être modifié pour répondre aux exigences du SDN pendant le réseau. déploiement, augmentant ainsi la complexité de la configuration du réseau. InfiniBand est né avec le concept de SDN. Chaque réseau InfiniBand de couche 2 dispose d'un gestionnaire de sous-réseau pour configurer l'ID de nœud (LocalID) dans le réseau. Ensuite, les informations sur le chemin de transfert sont calculées de manière uniforme via le plan de contrôle et transmises au commutateur InfiniBand. De cette manière, un réseau InfiniBand de couche 2 peut être configuré sans aucune configuration, l'inondation est évitée et les VLAN et les interruptions de réseau en anneau sont évités. Par conséquent, un grand réseau de couche 2 avec des dizaines de milliers de serveurs peut être facilement déployé.

Recommandations de carte réseau

Carte Ethernet ConnectX-5 (MCX512A-ACAT)

La carte d'interface réseau Ethernet ConnectX-5 comprend jusqu'à deux ports de connexion 10/25 GbE, une latence de 750 ns, jusqu'à 200 millions de paquets par seconde (Mpps) et des kits de développement de plans de données (DPDK). Pour les charges de travail de stockage, ConnectX-5 offoffre une gamme d'accélérations innovantes, telles que la commutation de signature dans le matériel (T10-DIF), les commutateurs PCIe intégrés et la cible NVMe over Fabric offChargement en cours. Les cartes adaptateurs ConnectX-5 apportent également des fonctionnalités Open vSwitch avancées offchargement vers les centres de données de télécommunications et de cloud pour générer des débits et des débits de paquets extrêmement élevés tout en réduisant la consommation de ressources CPU, augmentant ainsi l'efficacité de l'infrastructure du centre de données.

Carte Ethernet ConnectX-5 (MCX512A-ACAT)

Carte Ethernet ConnectX-6 (MCX623106AN-CDAT)

ConnectX-6 Dx SmartNIC prend en charge des taux de transfert de 1/10/25/40/50/100 GbE, des canaux programmables flexibles pour les nouveaux flux réseau, le multi-homing avec QoS avancé, IPsec et prise en charge de l'accélération du chiffrement en ligne TLS et l'accélération du chiffrement pour bloquer l'électricité statique données. Il s'agit de la carte d'interface réseau cloud la plus sécurisée et la plus avancée du secteur pour accélérer les applications critiques des centres de données telles que la sécurité, la virtualisation, le SDN/NFV, le Big Data, l'apprentissage automatique et le stockage.

Carte Ethernet ConnectX-6 (MCX623106AN-CDAT)

Carte réseau ConnectX-6 VPI IB (MCX653105A-ECAT-SP)

La carte ConnectX-6 VPI fournit un seul port, une latence inférieure à 600ns et 215 millions de messages par seconde pour la connectivité HDR100 EDR InfiniBand et Ethernet 100GbE. Prise en charge de PCIe 3.0 et PCIe 4.0 ; fonctionnalités de stockage avancées, y compris le chiffrement au niveau des blocs et la somme de contrôle offcharger; pour la solution la plus performante et la plus flexible conçue pour répondre aux besoins croissants des applications de centre de données.

Carte réseau ConnectX-6 VPI IB (MCX653105A-ECAT-SP)

Carte réseau ConnectX-5 VPI IB (MCX556A-ECAT)

Cartes adaptateurs ConnectX-5 InfiniBand offIl s'agit d'une solution hautes performances et flexible avec des ports de connectivité double port 100 Gb/s InfiniBand et Ethernet, une faible latence et des débits de messages élevés, ainsi que des commutateurs PCIe intégrés et NVMe over Fabrics, offcharger. Ces adaptateurs intelligents compatibles avec l'accès direct à la mémoire à distance (RDMA) fournissent des applications avancées offcapacités de chargement pour le calcul haute performance (HPC), le cloud hyperscale et les plates-formes de stockage.

Carte réseau ConnectX-5 VPI IB (MCX556A-ECAT)

À partir des adaptateurs InfiniBand et des cartes Ethernet mentionnés ci-dessus, il est facile de voir qu'ils ont tous deux leurs propres caractéristiques et leurs domaines d'application correspondants. Le type de carte à déployer dépend non seulement des protocoles pris en charge par la carte, mais également de votre environnement réseau et de votre budget.

Laisser un commentaire

Remonter en haut