Rapport d'étude approfondie sur le marché mondial des commutateurs Ethernet 400G et leur architecture technique : Restructuration des réseaux et évolution de l'écosystème pilotées par l'IA 

Table des Matières

Préface

Portée par la croissance exponentielle de l'économie numérique et des technologies d'intelligence artificielle (IA), l'infrastructure mondiale des réseaux de centres de données se trouve à un tournant historique crucial, passant de 100G à 400G/800G. Alors que les paramètres des modèles de langage à grande échelle (LLM) dépassent le seuil du billion et que les besoins en calcul haute performance (HPC) et en stockage distribué explosent, le réseau n'est plus un simple canal de transmission de données, mais un goulot d'étranglement essentiel qui détermine l'efficacité des clusters de calcul. Pierre angulaire des réseaux de centres de données de nouvelle génération, la technologie des commutateurs Ethernet 400G dépasse la simple augmentation de la bande passante. Elle repose désormais sur l'hétérogénéité des architectures de puces sous-jacentes, l'intelligence des algorithmes de contrôle de congestion et l'innovation des interconnexions optoélectroniques.

Ce rapport vise à analyser en détail l'écosystème technique et le paysage concurrentiel du marché actuel des commutateurs 400G. Les recherches montrent qu'entre 2024 et 2025, le marché mondial des commutateurs Ethernet a enregistré une croissance à deux chiffres significative, fortement tirée par la demande des réseaux dorsaux basés sur l'IA. Malgré une croissance rapide des livraisons de ports 800G, la technologie 400G demeure la principale plateforme de transport pour les centres de données, actuellement et pour les trois prochaines années, grâce à sa chaîne d'approvisionnement mature, son excellent rapport coût-performance et sa large compatibilité avec les systèmes existants.

Sur le plan technique, Ethernet lance une offensive féroce contre les réseaux traditionnels. InfiniBand Grâce à la technologie RoCEv2 (RDMA sur Ethernet convergé), et afin de résoudre la contradiction entre la nature « au mieux » de l'Ethernet et l'exigence d'un réseau sans perte pour l'entraînement de l'IA, des géants des semi-conducteurs comme Broadcom, NVIDIA et Cisco ont lancé des puces ASIC dotées de capacités de télémétrie poussées et de contrôle de flux avancé (par exemple, Tomahawk 5, Spectrum-4, Silicon One G100). Parallèlement, des fournisseurs de systèmes comme Huawei, H3C et Ruijie ont développé des barrières à l'entrée différenciées grâce à des innovations algorithmiques intégrant logiciel et matériel, telles que iLossless, SeerNetwork et RALB. Ce rapport analysera ces détails techniques et les combinera à des données de marché afin de fournir des références stratégiques prospectives aux entreprises, aux investisseurs et aux décideurs techniques.

Contexte macroéconomique et facteurs techniques : du cloud computing aux usines d'IA

Changement fondamental dans les modèles de trafic 

Au cours de la dernière décennie, les réseaux des centres de données étaient principalement conçus pour le cloud computing et les applications web, avec un trafic dominé par les flux « Nord-Sud » (client-serveur), tout en prenant en compte le trafic « Est-Ouest » (machine virtuelle-machine virtuelle) induit par la virtualisation. Cependant, l'essor de l'IA générative a complètement bouleversé ce paradigme. Dans les clusters d'entraînement d'IA, des milliers de GPU doivent effectuer la synchronisation des paramètres (All-Reduce), ce qui entraîne un trafic réseau extrêmement élevé. Éclat et Plusieurs vers un (Incast) caractéristiques.

Cette évolution des modèles de trafic rend obsolètes les architectures réseau à sursouscription traditionnelles. Dans les usines à IA, le réseau doit garantir un débit élevé, une absence totale de perte de paquets et une latence faible et constante. Les recherches indiquent qu'une légère augmentation de la latence réseau (par exemple, de 10 à 100 microsecondes) peut entraîner l'inactivité de ressources de calcul GPU coûteuses, augmentant considérablement le temps et la consommation énergétique de l'entraînement des modèles. Par conséquent, le déploiement de commutateurs 400G ne se limite pas à une simple mise à niveau des ports, mais constitue un effort pour construire une infrastructure réseau haute performance capable de supporter une évolutivité linéaire de la puissance de calcul.

pulvérisation de haschisch vs pulvérisation de paquets

Principales avancées techniques de l'Ethernet 400G 

La mise en œuvre de la norme Ethernet 400G (IEEE 802.3bs) a introduit plusieurs technologies de rupture, permettant un bond qualitatif en matière d'efficacité de transmission de la couche physique :

Introduction de la technologie de modulation PAM4 : Pour transmettre davantage de données avec une bande passante limitée, la norme 400G a abandonné le codage NRZ (Non-Return-to-Zero) traditionnel au profit du PAM4 (Pulse Amplitude Modulation 4-level). Le PAM4 transmet 2 bits (4 niveaux) par cycle d'horloge, doublant ainsi l'efficacité par rapport au NRZ. Cependant, le PAM4 impose des exigences plus strictes en matière de rapport signal/bruit (SNR), ce qui entraîne une conception plus complexe de la couche physique (PHY) et une dépendance accrue aux puces de traitement numérique du signal (DSP).

Nécessité de la correction d'erreur directe (FEC) : Les signaux PAM4 étant plus sensibles aux interférences, le taux d'erreur binaire (TEB) augmente considérablement. Par conséquent, les liaisons 400G doivent impérativement activer les fonctions de correction d'erreurs sans voie de retour (FEC), telles que RS-FEC 544 et 514. Si la FEC garantit la fiabilité de la transmission, elle introduit une latence de traitement supplémentaire (généralement de l'ordre de 100 à 250 ns), un facteur à prendre en compte pour les réseaux d'IA visant une latence ultra-faible.

Évolution des formes des modules optiques : Les modules QSFP-DD (Double Density) et OSFP (Octal Small Form-factor Pluggable) sont devenus les standards d'encapsulation dominants à l'ère du 400G. Le QSFP-DD prédomine dans les centres de données classiques grâce à sa rétrocompatibilité avec le QSFP28 ; l'OSFP est privilégié pour le calcul haute performance et les futures évolutions vers le 800G grâce à une meilleure dissipation thermique (supportant une consommation électrique de 15 à 20 W, voire plus).

Analyse économique de l'efficacité énergétique et de la densité 

Dans les centres de données hyperscale, l'efficacité énergétique est un critère essentiel. Les commutateurs 400G présentent des avantages économiques considérables par rapport aux architectures 100G. Selon une analyse des données du secteur, une architecture réseau 400G permet de réduire la consommation d'énergie par Gbit/s d'environ 43 % (de ~1.2 W/Gbit/s à ~0.7 W/Gbit/s) et l'espace occupé dans les racks de 48 % par rapport à un réseau 100G de bande passante équivalente.

Tableau 2.1 : Comparaison économique de l’efficacité énergétique et de la densité : architectures 400G vs 100G 

Mesure cléArchitecture réseau 100G (de base)Architecture de réseau 400GAmélioration/Avantage
Bande passante du port100 Gbps400 GbpsAugmentation de 4x
Puissance par Gbps~35 mW / 1.2 W (Niveau système)~20 mW / 0.7 W (Niveau système)~43% d'économies d'énergie
Espace rack (par Tbit/s)2.5 RU1.3 RU48% d'économies
Nombre de câbles (bande passante égale)100 % (référence)25% - 50%Réduction de 50 % à 75 %, opérations simplifiées
Capacité de la puce de commutation3.2 Tbit/s – 6.4 Tbit/s12.8 Tbit/s – 25.6 Tbit/sAugmentation de 4 à 8 fois, couches réseau aplaties
TCO (3 ans)Ligne de base (X $)0.65X $35% de réduction

Cette amélioration de l'efficacité énergétique est principalement due aux progrès réalisés dans les procédés de fabrication des puces de commutation (passage de 16 nm/12 nm à 7 nm/5 nm) et à l'augmentation des débits SerDes (de 25 Gbit/s à 56 Gbit/s/112 Gbit/s). Les centres de données peuvent ainsi prendre en charge la croissance exponentielle de la demande en bande passante induite par l'intelligence artificielle sans augmenter leur surface physique.

Exploration approfondie des architectures de puces ASIC et des écoles technologiques

La puce de commutation (ASIC) est l'élément central qui détermine les performances maximales d'un commutateur 400G. Le marché actuel présente un paysage tripartite : Broadcom domine le marché commercial grâce à des volumes d'expédition massifs et un écosystème standardisé ; NVIDIA se concentre sur l'optimisation de bout en bout en tirant parti de sa solide expérience en HPC ; Cisco L'objectif est de décloisonner le routage et la commutation grâce à une architecture unifiée. Par ailleurs, des fournisseurs comme Marvell restent compétitifs sur des créneaux spécifiques.

Gamme Broadcom Tomahawk : le roi du débit et de l’écosystème 

La série StrataXGS Tomahawk de Broadcom est la « norme de facto » sur le marché mondial des commutateurs de centres de données commerciaux.

Tomahawk 4 (TH4) : Première puce 25.6 Tbit/s largement adoptée par l'industrie, la TH4 utilise un procédé de gravure en 7 nm et une seule puce prend en charge 64 ports 400G. Son architecture privilégie un débit extrême et une efficacité énergétique optimale, grâce à l'utilisation d'une technologie de pointe. Architecture de mémoire découpéeBien que cette architecture puisse rencontrer des difficultés pour gérer un trafic extrêmement irrégulier (Incast), sa maturité et ses avantages en termes de coûts en font le choix privilégié des hyperscalers construisant des réseaux Spine-Leaf.

Tomahawk 5 (TH5) : Grâce à l'adoption d'un procédé de gravure en 5 nm, la bande passante double pour atteindre 51.2 Tbit/s. La puce TH5 ne se contente pas d'améliorer la bande passante ; elle introduit également des fonctionnalités avancées pour les charges de travail d'IA, telles que l'équilibrage de charge dynamique (DLB) matériel et une télémétrie plus précise. Une seule puce TH5 prend en charge 64 ports 800G ou 128 ports 400G, simplifiant considérablement la topologie du réseau et réduisant le nombre de sauts.

Tomahawk Ultra : Une nouvelle architecture a été lancée pour les réseaux à grande échelle dédiés à l'IA. Bien que la marque conserve l'appellation Tomahawk, le noyau a été entièrement repensé. Broadcom affirme qu'elle prend en charge la retransmission au niveau de la couche liaison (LLR) et le contrôle de flux basé sur les crédits (CBFC), visant à reproduire les performances sans perte d'InfiniBand sur Ethernet avec une latence réduite à 250 ns, ciblant principalement la solution Spectrum-X de NVIDIA.

Plateforme NVIDIA Spectrum : une architecture de bout en bout conçue pour l’IA 

Les puces de commutation de la série Spectrum de NVIDIA (anciennement Mellanox) ont été conçues dès le départ non seulement pour « commuter des données », mais aussi pour « accélérer le calcul ».

Tampon entièrement partagé : Contrairement à l'architecture segmentée de Broadcom, la gamme Spectrum (Spectrum-3 et Spectrum-4, par exemple) utilise une architecture de mémoire tampon partagée dynamique. Ainsi, tous les ports partagent la même mémoire embarquée. En cas de congestion d'un port (par exemple, lors de micro-rafales), celui-ci peut utiliser dynamiquement l'ensemble des ressources de cache inactives de la puce. Cette conception réduit considérablement la probabilité de perte de paquets et offre des performances plus prévisibles dans le cadre des modèles de trafic « plusieurs à un » fréquents lors de l'entraînement de l'IA.

Spectre-4 : Utilisant le procédé TSMC 4N, ce système offre une bande passante de 51.2 Tbit/s. Outre cette bande passante élevée, ses atouts majeurs résident dans la précision de synchronisation d'horloge à la nanoseconde (améliorée de 5 à 6 ordres de grandeur) et la télémétrie « What Just Happened » (WJH). WJH capture et transmet des contextes de défaillance détaillés (par exemple, les causes spécifiques des interruptions, les caractéristiques du flux affecté) plutôt que de simples statistiques agrégées, ce qui est crucial pour le dépannage des défaillances complexes d'entraînement d'IA distribuées.

Cisco Silicon One : L’ambition d’une architecture unifiée

L'architecture Silicon One de Cisco vise à briser l'opposition binaire qui existe dans les réseaux traditionnels entre les « puces de routage » (tampon profond, faible bande passante, fonctions complexes) et les « puces de commutation » (tampon peu profond, bande passante élevée, fonctions simples).

Architecture Q100/G100 : Le G100 est la puce phare de Cisco pour le marché de la commutation à grande échelle, basée sur un procédé de gravure en 7 nm et offrant une bande passante de 25.6 Tbit/s. Son innovation majeure réside dans le pipeline de traitement « Run-to-Completion » et le cache partagé unifié intégré. Cisco affirme que le G100 est le premier produit du secteur à proposer une mise en mémoire tampon des paquets entièrement partagée sur une puce de commutation à large bande passante, combinée à une programmabilité P4. Il convient ainsi aussi bien à une utilisation comme commutateur ToR haute performance qu'à une utilisation comme nœud Spine nécessitant des fonctions de routage complexes.

Capacité multirôle : Silicon One peut basculer entre le « mode de routage » et le « mode de commutation » via une configuration de microcode, permettant aux clients de couvrir tous les scénarios, de la périphérie DCI au cœur du centre de données, avec une seule architecture matérielle, simplifiant considérablement la gestion des pièces de rechange et la complexité opérationnelle.

Tableau 3.1 : Comparaison des architectures de puces de commutation 400G/800G courantes 

Fonctionnalité/métriqueBroadcom Tomahawk 4NVIDIA Spectre-3NVIDIA Spectre-4Cisco Silicon One G100Broadcom Tomahawk 5
Processus7nm16nm4N (TSMC)7nm5nm
Capacité maximale25.6 Tbps12.8 Tbps51.2 Tbps25.6 Tbps51.2 Tbps
Densité 400GPorts 64Ports 32Ports 128Ports 64Ports 128
Arche tamponDistribué/DécoupéEntièrement partagéEntièrement partagéEntièrement partagéDistribué/Découpé
IA/HPC Opt.RoCE de baseOpt. RoCE, WJHSpectrum-X, Nano ClockProgramme P4, Contrôle de flux avancéRoutage cognitif, DLB
Tapez. Latence~500 ns<400ns~500 ns~600 ns~500 ns
Les scénariosÉpine/feuille de nuageHPC, stockage IA, financeGrands clusters d'IA, supercalculateursRoutage cloud, architecture convergéeClusters d'IA de nouvelle génération, réseau dorsal 800G
NVIDIA contre Broadcom

Transformation de l'architecture réseau à l'ère de l'IA : du mieux-être au zéro perte de paquets

La prolifération des commutateurs 400G ne se limite pas à une simple mise à niveau matérielle ; elle implique une refonte de la pile de protocoles et de la topologie du réseau. L’objectif principal est d’atteindre des performances équivalentes à celles d’InfiniBand sur Ethernet, c’est-à-dire… « Réseau sans perte. » 

Le jeu RoCEv2 et les algorithmes de contrôle de congestion 

RoCEv2 (RDMA sur Ethernet convergé version 2) permet aux applications d'accéder directement à la mémoire distante, en contournant le noyau du processeur, ce qui garantit une latence et une utilisation du processeur extrêmement faibles. Cependant, RoCEv2 repose sur une transmission sans perte sur le réseau sous-jacent. En cas de perte de paquets, le mécanisme de retransmission de RDMA (Go-back-N) entraîne une chute drastique du débit.

Le contrôle de flux basé sur la priorité (PFC) traditionnel empêche la perte de paquets grâce à des « trames de pause » rudimentaires, mais cela déclenche facilement un blocage en tête de file et une propagation de la congestion, pouvant entraîner des blocages. C'est pourquoi les algorithmes de contrôle de congestion intelligents basés sur la notification explicite de congestion (ECN) sont devenus un enjeu majeur de la concurrence entre les principaux fournisseurs.

TCP/IP vs. RoCEv2 (Contournement du processeur)

4.1.1 DCQCN (Notification de congestion quantifiée du centre de données) : L'algorithme de contrôle de congestion RoCEv2 le plus basique est actuellement utilisé. Il combine ECN et PFC : lorsqu'un commutateur détecte une file d'attente dépassant un seuil, il la marque avec ECN. La carte réseau réceptrice envoie alors un paquet de notification de congestion (CNP) à l'émetteur, qui réduit ensuite son débit. Limitation: Les paramètres DCQCN traditionnels (Kmin, Kmax, Pmax) sont configurés de manière statique. Dans les scénarios d'entraînement d'IA présentant des fluctuations de trafic importantes, les seuils statiques réagissent soit trop lentement (provoquant des pertes de paquets), soit de manière excessive (provoquant une baisse du débit).

4.1.2 Huawei iLossless (Intelligent Lossless) : Huawei a intégré des puces d'IA dans ses commutateurs de la série CloudEngine, implémentant un ajustement dynamique du seuil ECN via l'algorithme iLossless. Mécanisme: Le commutateur analyse les modèles de trafic en temps réel (identification des flux importants/faibles, degré d'incrustation) et ajuste dynamiquement les seuils de déclenchement ECN. Huawei affirme que cet algorithme garantit l'absence de perte de paquets tout en optimisant le débit jusqu'à 100 % et en réduisant considérablement la latence de longue durée.

4.1.3 Ruijie RALB (Rail-aware Adaptive Load Balancing) et NFIM : Ruijie a développé la technologie RALB spécifiquement pour les caractéristiques multi-rails des clusters d'IA. Mécanisme: Le routage ECMP (Equal-Cost Multi-Path) traditionnel repose sur la sélection par hachage, ce qui entraîne des collisions de hachage (certaines liaisons sont congestionnées tandis que d'autres sont inactives). RALB détecte la qualité des liaisons en temps réel (niveaux de congestion) et effectue un équilibrage de charge dynamique. Par paquet En distribuant les paquets sur les liaisons les plus inactives, on augmente ainsi l'utilisation de la bande passante à plus de 97.6 %. Associé au module de contrôle intelligent des flux nanosecondes (NFIM), il permet une planification prédictive avant même l'apparition de congestion.

4.1.4 Architecture H3C SeerNetwork et DDC : H3C a lancé une solution basée sur le DDC (Distributed Disaggregated Chassis) pour résoudre définitivement les problèmes de congestion. Mécanisme: L'architecture DDC sépare physiquement les cartes de ligne et la matrice de commutation d'un commutateur châssis, en les interconnectant par des fibres optiques. Lors du transfert de données, elle utilise Lien de pulvérisation une technologie permettant de découper les paquets et de les répartir uniformément sur toutes les liaisons montantes, éliminant physiquement les collisions de hachage et atteignant théoriquement des performances non bloquantes à 100 %.

Topologie de réseau : Clos vs. Multi-rail 

Clos traditionnel (feuille épineuse) : Adapté à l'informatique générale. Les serveurs se connectent via une seule carte réseau, et le trafic est agrégé au niveau de la couche Spine.

IA multirail : Les serveurs d'IA modernes (par exemple, NVIDIA HGX H100) sont généralement équipés de 8 GPU et de 8 cartes réseau. Dans une architecture multi-rails, 8 plans de réseau physiques indépendants (rails) sont établis. Le GPU 0 de chaque serveur est connecté au réseau du rail 0, le GPU 1 au rail 1, et ainsi de suite. Cette conception permet aux communications GPU-à-GPU (en particulier pour l'opération All-Reduce) de s'effectuer entièrement au sein du même rail, en passant par un seul niveau de commutateur ToR, ce qui réduit considérablement la latence et le risque de collision. Les commutateurs 400G servent généralement de nœuds Leaf haute densité dans cette architecture.

Topologie de réseau

Analyse de la compétitivité des principaux fournisseurs mondiaux de commutateurs 400G

NVIDIA (Mellanox) : le créateur des réseaux d'IA

Produits de base: SN4000 (Spectrum-3), SN5600 (Spectrum-4).

Position sur le marché: Domination absolue sur le marché des réseaux back-end d'IA (combinant InfiniBand et Ethernet).

Avantages concurrentiels:

  • Écosystème Full Stack : Le seul fournisseur proposant GPU + DPU + NIC + Switch + NOS (Cumulus/SONiC) + Logiciel de gestion (UFM/NetQ).
  • Spectre-X : Utilise le DPU BlueField-3 comme « Super NIC » combiné à des commutateurs Spectrum-4 pour atteindre des performances bien supérieures à celles de l'Ethernet standard grâce à une mesure précise du RTT (temps aller-retour) et à un accès direct à la mémoire.
  • Télémétrie: WJH (What Just Happened) offre une visibilité des pannes au niveau de la puce, une aubaine pour l'exploitation de clusters d'IA massifs.
  • Inconvénients :  Relativement cher ; l'écosystème est relativement fermé (bien que basé sur Ethernet, les performances optimales dépendent de l'utilisation de l'ensemble de leur pile technologique).

Arista Networks : le choix numéro un des géants du cloud 

Produits de base: 7060X5 (TH5 Leaf), 7800R3 (Jericho 2 Spine/DCI).

Position sur le marché: Part de marché extrêmement élevée dans les réseaux frontaux et les hyperscalers ; pénétration active dans les réseaux dorsaux d'IA.

Avantages concurrentiels:

  • Système d'exploitation EOS : Reconnu comme le système d'exploitation réseau le plus stable et le plus ouvert du secteur. Une seule image s'adapte à tout le matériel, réduisant considérablement la complexité opérationnelle.
  • Architecture de tampon profond : La série 7800R utilise des puces de mémoire tampon profonde basées sur Broadcom DNX avec une mise en cache VOQ (Virtual Output Queue) de niveau Go, idéale pour l'interconnexion de centres de données (DCI) et les scénarios avec un trafic extrêmement irrégulier.
  • DLB et Etherlink : Dans la série 7700R4, Arista a introduit la technologie Etherlink distribuée pour optimiser l'efficacité d'interconnexion des clusters à grande échelle.

Cisco Systems : La transformation du géant

Produits de base: Nexus 9300-GX2 (Leaf), Nexus 9800 (Modular Spine).

Avantages concurrentiels:

Puce Silicon One interne : Libérés de la dépendance exclusive à Broadcom, ils bénéficient d'une différenciation architecturale et d'une maîtrise des coûts. La large bande passante et la programmabilité des puces G100/G200 offrent une grande flexibilité.

Synergie optique-électronique : Suite à l'acquisition d'Acacia, Cisco dispose d'une solide expertise en matière de technologie des modules optiques, offrant des solutions intégrées « Commutateur + Module optique » éprouvées, ce qui est extrêmement précieux pour la stabilité des liaisons optiques à l'ère du 400G/800G.

Vaste clientèle d'entreprises : Offre une voie de migration en douceur (architecture ACI ou mode NX-OS) pour les clients passant des réseaux d'entreprise traditionnels à l'IA.

Huawei : L'intégrateur de la force technique 

Produits de base: Série CloudEngine 16800 (Modulaire), CE8800/9800 (Fixe).

Avantages concurrentiels:

  • Algorithme d'IA iLossless : L'intégration de la puissance de calcul de l'IA dans le plan de contrôle du commutateur pour optimiser dynamiquement les paramètres de contrôle de flux constitue le principal avantage concurrentiel de Huawei dans le domaine de l'Ethernet sans perte.
  • Ingénierie matérielle : Le CE16800 utilise une conception de fond de panier orthogonal, une dissipation thermique efficace et une technologie d'alimentation avancée, prenant en charge un déploiement de ports 400G/800G à très haute densité avec une excellente efficacité énergétique du système.
  • Autonomie: Elle possède des puces de la série Solar conçues en interne et une pile logicielle/matérielle complète, garantissant une sécurité élevée de la chaîne d'approvisionnement (pour des marchés spécifiques).

H3C et Ruijie : Personnalisation des coûts et des scénarios 

H3C : S'appuyant sur l'architecture SeerNetwork, H3C privilégie les opérations intelligentes. Ses commutateurs de la série S9825 offrent un équilibre optimal entre densité et consommation d'énergie. H3C explore également activement la technologie CPO et présente des prototypes de composants photoniques sur silicium basse consommation intégrés.

Ruijie : Fortement implantée auprès des principaux acteurs d'Internet (ByteDance, Alibaba, etc.), Ruijie offre une agilité exceptionnelle. Sa série RG-S6900 se concentre sur le DCN « Intelligent Speed », simplifiant le déploiement et l'optimisation des réseaux à grande échelle grâce aux fonctions RALB et « One-key RoCE ». Ruijie propose des solutions réactives, tant en Whitebox qu'avec des spécifications ODCC personnalisées.

Données de marché et analyse économique

Taille du marché et tendances de croissance 

D'après les dernières données de suivi d'IDC et de Dell'Oro Group, le marché mondial des commutateurs Ethernet a maintenu une forte croissance en 2024.

  • Taille globale: Au troisième trimestre 2024, le chiffre d'affaires du marché des commutateurs de centres de données a progressé de plus de 30 % sur un an, les réseaux back-end liés à l'IA contribuant à la grande majorité de cette croissance.
  • Expéditions portuaires : Les ports 400G sont devenus la norme, représentant la moitié de la capacité totale de bande passante des centres de données. Bien que le nombre de ports 800G reste limité, leur taux de croissance trimestriel avoisine les 100 %, et leur déploiement dans les clusters d'IA devrait dépasser les 400G d'ici 2025.
  • Actions du fournisseur : Cisco conserve la première place en termes de chiffre d'affaires global, mais subit une compression de ses parts de marché. Arista suit de près dans le secteur des centres de données (notamment pour les technologies 100G/400G). NVIDIA affiche la croissance la plus rapide, dominant des marchés de niche spécifiques liés à l'IA avec ses solutions InfiniBand et Spectrum Ethernet. Sur le marché chinois, Huawei, H3C et Ruijie occupent solidement les trois premières places.
Taille du marché et tendances de croissance

Tendances en matière de coûts et d'énergie 

Coût par bit : Avec la maturation de la chaîne d'approvisionnement des modules optiques 400G, le coût d'un seul port 400G est nettement inférieur à la somme de quatre ports 100G, ce qui permet de réaliser des économies sur les coûts de câblage en fibre optique et de réduire la complexité de la maintenance.

Défis de puissance : Malgré une efficacité énergétique accrue par Gbit/s pour le 400G, la consommation électrique totale d'un commutateur a fortement augmenté. Un commutateur 2U équipé de 64 ports 400G consomme généralement entre 1 500 et 2 000 W (modules optiques inclus). Ceci pose des problèmes majeurs d'alimentation et de dissipation thermique pour les armoires, et explique les efforts de recherche et développement sur les commutateurs à refroidissement liquide.

Tableau 6.1 : Estimations de la consommation électrique des commutateurs 400G courants (pleine charge typique) 

VendeurModèleConfiguration du portPuissance typique du système (estimée avec optique)Conception thermique
H3CS9825-64D64x400G~1850 W (max.) / ~613 W (typ. à vide)Flux d'air avant/arrière, ventilateurs remplaçables à chaud
ruijieRG-S6980-64QC64x400G~2400W (Max) / ~1760W (Typ)4+1 ventilateurs redondants, vitesse intelligente
NVIDIASN560064x 800G/400G~670 W (Système seul, sans optique)Flux d'air haute performance, optionnel pour AOC/DAC
HuaweiCE16800Modulaire (48 x 400G/carte)Environ 800 W+/carte (selon la configuration)Arc orthogonal, refroidissement par liquide mixte

Perspectives d'avenir : intégration des technologies 800G, UEC et optoélectronique

Évolution vers 800G et 1.6T

Avec la sortie des GPU NVIDIA Blackwell et des accélérateurs d'IA de nouvelle génération, la demande en bande passante par carte unique va bondir à 800 Gbit/s, voire plus.

  • L'ère 800G : 2025 sera l'année charnière pour l'Ethernet 800G. Les commutateurs basés sur les technologies Tomahawk 5 et Spectrum-4 seront déployés à grande échelle dans la couche centrale (Spine) des clusters d'IA.
  • Perspectives pour 1.6 T : On prévoit que d'ici 2026-2027, avec la commercialisation de puces de nouvelle génération comme le Tomahawk 6 (102.4T), les interfaces 1.6T commenceront à entrer dans les clusters hyperscale.

L'essor de l'UEC (Ultra Ethernet Consortium)

Pour briser le monopole d'InfiniBand et résoudre les problèmes traditionnels d'Ethernet dans les scénarios d'IA, des géants tels qu'AMD, Arista, Broadcom, Cisco, Meta et Microsoft ont cofondé l'UEC.

Objectif: Définir le protocole de couche transport Ethernet « natif de l’IA » de nouvelle génération, améliorant RoCEv2 grâce à l’introduction de la pulvérisation de paquets multi-chemins, de mécanismes de retransmission flexibles et d’un contrôle de congestion plus efficace. Les futurs commutateurs 400G/800G prendront universellement en charge les normes UEC, éliminant ainsi complètement les risques de perte de paquets propres à Ethernet.

CPO (optiques co-emballées) vs. LPO (optiques enfichables à entraînement linéaire) 

Pour dépasser les limites physiques des interconnexions électriques (contraintes de distance SerDes) et réduire la consommation d'énergie, l'intégration optoélectronique est la voie ultime.

CPO : L'encapsulation du moteur optique se fait directement sur le substrat de la puce de commutation. Bien que son efficacité énergétique soit excellente, les difficultés de maintenance (les modules optiques ne sont pas remplaçables à chaud) limitent actuellement son application à des scénarios spécifiques de très haute densité (par exemple, 51.2 T et plus) ; son adoption à grande échelle prendra du temps.

LPO : Solution de transition vers la technologie CPO, la technologie LPO supprime la puce DSP du module optique et utilise le puissant SerDes du circuit intégré spécifique au commutateur (ASIC) pour piloter directement les composants optiques. Cette approche réduit considérablement la consommation d'énergie et la latence tout en conservant la modularité, ce qui en fait une technologie très prometteuse sur le marché actuel des technologies 400G/800G.

CPO vs. LPO

Conclusion

Le marché des commutateurs Ethernet 400G se trouve à un carrefour décisif entre innovation technologique et déploiement à grande échelle. L'IA n'est pas seulement consommatrice de bande passante, mais aussi un catalyseur de la refonte de l'architecture réseau.

  • Aspect technique : « Sans perte », « Faible latence » et « Visibilité » sont devenus les nouveaux critères tridimensionnels d’évaluation des performances des commutateurs. Les architectures de mémoire tampon partagée, les algorithmes intelligents de contrôle de congestion (par exemple, iLossless, RALB) et les capacités de télémétrie matérielle sont essentiels pour distinguer les commutateurs IA haut de gamme des commutateurs à usage général.
  • Aspect du marché : Bien que NVIDIA soit en tête avec des solutions IA complètes, Arista, Cisco et les fournisseurs chinois (Huawei, H3C, Ruijie) construisent un puissant camp Ethernet avec des écosystèmes ouverts, des rapports coût-performance et des fonctions logicielles différenciées, érodant progressivement la part de marché d'InfiniBand.

Pour les entreprises et les institutions qui choisissent des commutateurs 400G, l'attention ne doit pas se limiter à la densité de ports et au prix, mais doit être évaluée en profondeur sur les performances réelles dans les environnements RoCEv2, la maturité des algorithmes de contrôle de congestion et la compatibilité avec les plateformes de calcul d'IA existantes. Avec l'évolution des normes UEC et l'arrivée du 800G, un écosystème Ethernet plus ouvert, efficace et intelligent se met rapidement en place.

Remonter en haut