Dans l'architecture informatique moderne, des puces aux processeurs en passant par les centres de données, chaque niveau implique différentes technologies d'interconnexion. Ces technologies garantissent non seulement la transmission rapide et sécurisée des données, mais apportent également un soutien solide aux besoins informatiques émergents. Cet article présente principalement différents niveaux de technologie d'interconnexion réseau et révèle son fonctionnement dans l'architecture informatique actuelle. L'ensemble de l'article peut être divisé en trois parties : l'interconnexion du système sur puce Soc, l'interconnexion des processeurs et l'interconnexion du centre de données.
Interconnexion sociale
L'innovation en matière d'interconnexion commence au niveau le plus élémentaire : le système sur puce. Qu'elle soit située dans la puce ou sur le boîtier, l'interconnexion avancée signifie que les données circulent plus rapidement et que les performances évoluent plus facilement.
- PIPE (Protocole de couche physique express d'interconnexion de composants périphériques)
PIPE est le protocole de couche physique de PCIe (Peripheral Component Interconnect Express). PCIe est une norme de bus informatique universelle utilisée pour connecter des périphériques matériels à l'intérieur d'un ordinateur, tels que des cartes graphiques, des disques SSD, etc. Le protocole de couche physique définit les caractéristiques électriques et les méthodes de transmission du signal pour garantir que les données peuvent être transmises correctement entre le matériel. appareils. PCIe prend en charge la connexion de périphériques ayant diverses exigences de performances en fournissant différents taux de transfert de données et interfaces.
- LPIF (interface PHY logique)
LPIF est une norme d'interface pour l'interconnexion à haut débit entre processeurs, entre processeurs et accélérateurs, et entre puces et puces (die-to-die). LPIF est conçu pour fournir un moyen flexible et évolutif de prendre en charge différents besoins de transmission de données et de permettre la communication entre des appareils à différentes fréquences. Il prend en charge plusieurs protocoles, notamment PCIe 6.0, CXL 3.0 et UPI 3.0.
- CPI (interface de protocole cache-mém CXL)
CPI est un composant de Compute Express Link (CXL), un protocole de communication spécialement conçu pour gérer le cache et la mémoire. CXL est une technologie d'interconnexion ouverte à haut débit conçue pour connecter des processeurs, des GPU et d'autres accélérateurs, permettant ainsi une transmission de données à haut débit et le partage de ressources entre eux. Dans le cadre de CXL, CPI définit la norme d'interface entre le cache et la mémoire pour prendre en charge des protocoles efficaces d'échange de données et de cohérence.
- UFI (Interface universelle de stockage Flash)
UFI est une norme d'interface de stockage flash universelle qui permet à différents périphériques de stockage de communiquer et de transférer des données de manière unifiée. La norme UFI est conçue pour améliorer la compatibilité et les performances des périphériques de stockage, permettant ainsi aux périphériques de fonctionner rapidement et efficacement.
- UCIe (Interconnexion universelle de puces Express)
UCIe est une nouvelle technologie d'interconnexion standard ouverte de l'industrie, spécialement conçue pour les connexions chiplet à chiplet. UCIe prend en charge plusieurs protocoles, notamment les protocoles PCIe et CXL standard, ainsi que les protocoles de streaming généraux ou les protocoles personnalisés. Son objectif est d'adopter une couche physique et une couche de liaison standard pour standardiser le protocole de communication entre les puces, tout en gardant le protocole de la couche supérieure flexible. L'émergence de la technologie UCIe vise à répondre aux défis posés par le ralentissement de la loi de Moore. Il construit de grands systèmes en empaquetant et en intégrant plusieurs Chiplets pour réduire les coûts et améliorer l'efficacité.
Interconnexion du processeur
Le déplacement de données entre différents moteurs de calcul, mémoire, E/S et autres périphériques nécessite un ensemble spécialisé de technologies d'interconnexion à large bande passante et à faible latence. Les technologies d'interconnexion des processeurs telles que NVlink, PCIe, CXL et UPI permettent à tous ces éléments de fonctionner dans leur ensemble, prenant en charge une transmission rapide des données entre les appareils.
- NVLink
NVLink est une technologie d'interconnexion haut débit conçue spécifiquement pour connecter les GPU NVIDIA. Il permet aux GPU de communiquer entre eux de manière point à point, en contournant le bus PCIe traditionnel, obtenant ainsi une bande passante plus élevée et une latence plus faible. NVLINK peut être utilisé pour connecter deux ou plusieurs GPU afin d'obtenir une transmission et un partage de données à haut débit, offrant ainsi des performances et une efficacité supérieures pour les systèmes multi-GPU.
- PCIe (Interconnexion de composants périphériques Express)
Il s'agit d'une norme de bus informatique universelle utilisée pour connecter des périphériques matériels à l'intérieur de l'ordinateur, tels que des cartes graphiques, des disques SSD, etc. La technologie PCIe est largement utilisée pour ses capacités de transmission de données série à haut débit, prenant en charge une variété de périphériques et un un large éventail de scénarios d'application, notamment les centres de données, l'intelligence artificielle et l'interconnexion des processeurs. L'interface PCIe permet aux appareils de lancer des opérations DMA pour accéder à la mémoire, en sachant simplement à condition que l'adresse physique cible soit connue. Il est actuellement disponible jusqu'à la version 6.0, la version 7.0 est prévue pour 2025.
- CXL (Lien Compute Express)
Il s'agit d'un nouveau type de technologie d'interconnexion à haut débit lancé conjointement par Intel, AMD et d'autres sociétés. Il vise à fournir un débit de données plus élevé et une latence plus faible pour répondre aux besoins des systèmes informatiques et de stockage modernes. La technologie CXL permet de partager la mémoire entre le processeur et les appareils, ainsi qu'entre les appareils, permettant un échange et un traitement de données plus rapides et plus flexibles. CXL contient trois sous-protocoles : CXL.io, CXL.cache et CXL.memory, qui sont utilisés respectivement pour différentes tâches de transmission de données et de partage de mémoire. Il est actuellement disponible jusqu'à la version 3.1.
L'une des caractéristiques notables de CXL est sa prise en charge de la cohérence de la mémoire, ce qui signifie que les données peuvent être partagées entre différents appareils sans copie complexe des données. Cette cohérence est particulièrement importante pour les systèmes multiprocesseurs et les tâches informatiques à grande échelle, car elle peut améliorer l'efficacité de l'accès aux données, réduire la latence et donc accélérer le calcul. De plus, CXL offre la flexibilité nécessaire pour être utilisé dans une grande variété d'appareils et d'applications, ce qui en fait une solution d'interconnexion universelle.
- UPI (Interconnexion Ultra Path)
Il s'agit d'un protocole de connexion point à point développé par Intel pour une communication à haut débit entre processeurs multicœurs et/ou plusieurs processeurs. Il est conçu pour remplacer l'ancienne technologie QPI (QuickPath Interconnect) et offre une bande passante plus élevée, une latence plus faible et une meilleure efficacité énergétique.
- Tissu à l'infini
Il s'agit d'une technologie d'interconnexion à haut débit développée par AMD, utilisée pour connecter les différents cœurs, caches et autres composants des processeurs AMD afin d'obtenir une transmission et une communication de données efficaces. Infinity Fabric utilise une architecture distribuée contenant plusieurs canaux indépendants, chacun pouvant effectuer une transmission de données bidirectionnelle. Cette conception permet une communication rapide et à faible latence entre les différents cœurs, améliorant ainsi les performances globales. De plus, Infinity Fabric est évolutif et flexible. Il permet des connexions entre différentes puces et prend en charge la combinaison de plusieurs processeurs dans des systèmes plus puissants.
Interconnexion de centres de données
Les centres de données hyperscale peuvent occuper une superficie équivalente à plusieurs terrains de football, créant des exigences sans précédent en matière de vitesse architecturale et de capacités de traitement intelligentes. Les technologies d'interconnexion haute vitesse et longue distance peuvent augmenter considérablement les performances tout en effectuant des calculs avec une faible latence. La technologie d’interconnexion au niveau des centres de données constitue la base de la prise en charge des services Internet modernes et du cloud computing. De la transmission de données à haut débit au niveau du rack aux connexions réseau des centres de données, ces technologies garantissent ensemble l'efficacité, la stabilité et l'évolutivité des centres de données.

Technique d'interconnexion
- Réseau défini par logiciel (SDN)
Le Software-Defined Networking (SDN) est un concept d'architecture réseau qui sépare le plan de contrôle du plan de données du réseau, permettant aux administrateurs réseau de gérer et de configurer de manière centralisée le comportement du réseau via des programmes logiciels. L'idée principale du SDN est d'abstraire la fonction de contrôle intelligent du réseau des périphériques réseau pour réaliser la gestion dynamique et l'optimisation du trafic réseau.
- Ethernet et RoCE
Ethernet est la technologie réseau la plus largement utilisée et la plus mature, issue de Xerox PARC. Il peut transmettre de grandes quantités de données entre les serveurs des centres de données, ce qui est essentiel pour de nombreuses tâches informatiques accélérées. Sous le protocole RoCE, Ethernet intègre la fonction RDMA, qui améliore considérablement les performances de communication dans les scénarios de calcul haute performance. Pour relever les nouveaux défis posés par les charges de travail IA et HPC, les géants des réseaux ont créé conjointement l'Ultra Ethernet Consortium (UEC). La pile de solutions Ultra Ethernet tirera parti de l'omniprésence et de la flexibilité d'Ethernet pour gérer une variété de charges de travail tout en étant évolutive et rentable, injectant une nouvelle vitalité à Ethernet.
RoCE (RDMA over Converged Ethernet) : la technologie RoCE permet un accès direct à la mémoire à distance sur un réseau Ethernet standard. Il prend en charge RDMA en optimisant les commutateurs Ethernet, fournissant des connexions réseau hautes performances tout en conservant la compatibilité avec Ethernet traditionnel.
- Infinibande
InfiniBand : une technologie réseau conçue spécifiquement pour le calcul haute performance (HPC) qui fournit des connexions réseau à large bande passante et à faible latence, prend en charge les connexions point à point et l'accès direct à la mémoire à distance (RDMA), qui convient aux applications à grande échelle. environnements informatiques et de centres de données.
- Topologie du réseau
Les topologies courantes incluent la topologie de réseau en étoile, la topologie Fat-tree, la topologie Leaf-Spine, la topologie hiérarchique, etc. Ici, nous introduisons principalement Fat-tree et leaf-spine, qui sont toutes deux des architectures de réseau de centre de données basées sur le modèle de réseau CLOS.
- Topologie feuille-épine
Il s'agit d'une conception de réseau plat composée de la couche Spine (couche dorsale) et de la couche Leaf (couche d'accès). Chaque commutateur Leaf est connecté à tous les commutateurs Spine pour former une topologie entièrement maillée. Cette conception fournit des connexions de serveur à serveur à bande passante élevée, à faible latence et non bloquantes, faciles à mettre à l'échelle horizontalement, et offrant une fiabilité et une facilité de gestion élevées. Les avantages de l'architecture Leaf-Spine incluent une conception plate pour réduire la latence, une évolutivité facile, un faible taux de convergence, une gestion simplifiée et une gestion multi-cloud.
- Topologie Fat Tree
Il s'agit d'une conception de réseau arborescente, généralement composée de trois couches : la couche centrale, la couche d'agrégation et la couche d'accès. La principale caractéristique de la topologie Fat-Tree réside dans le fait qu'il n'y a pas de convergence de bande passante, c'est-à-dire que la bande passante du réseau ne converge pas des feuilles vers la racine, ce qui constitue une base pour la construction d'un réseau non bloquant à grande échelle. Chacun de ses nœuds (à l'exception du nœud racine) doit garantir des bandes passantes égales en amont et en aval, et tous les commutateurs peuvent être identiques, réduisant ainsi les coûts. Cependant, la topologie Fat-Tree a également ses limites, telles qu'une évolutivité limitée, une faible tolérance aux pannes, un déploiement défavorable de certaines applications distribuées hautes performances et des coûts élevés.
- Réseau central/périphérique
Le réseau central est une épine dorsale de réseau à haut débit et haute fiabilité, chargée de transmettre de grandes quantités de données entre les principaux nœuds du réseau et de fournir des services de routage. Le réseau périphérique est la couche d'accès du réseau, connectant directement les utilisateurs finaux et les appareils, fournissant des services diversifiés et optimisant l'expérience utilisateur.