Scale-out vs Scale-up : aperçu des architectures de réseaux d'IA pour 2028

Spécialiste de premier plan des produits et solutions de communication optique, FiberMall se consacre à fournir des solutions économiques pour les centres de données mondiaux, le cloud computing, les réseaux d'entreprise, les réseaux d'accès et les systèmes sans fil. Forts de notre expertise en matière de réseaux de communication basés sur l'IA, nous sommes le partenaire idéal pour ceux qui recherchent des solutions de communication optique de haute qualité et à valeur ajoutée. Dans ce blog, nous explorerons en profondeur l'évolution des architectures de réseaux IA, en nous concentrant sur le débat clé entre scale-out et scale-up. Nous explorerons les prévisions pour 2028, en mettant en évidence les tendances en matière de débit élevé, de radix élevé, de fiabilité élevée, de faible latence, de faible consommation d'énergie et de faible coût. Pour en savoir plus sur la manière dont FiberMall peut répondre à vos besoins en matière de réseaux IA grâce à des interconnexions optiques avancées, visitez notre site web officiel ou contactez notre service client.

Les réseaux d'IA évoluent rapidement, et comprendre la différence entre scale-out et scale-up est crucial pour pérenniser votre infrastructure. Dans cet article, nous anticipons le paysage pour 2028, en nous appuyant sur les tendances actuelles et les avis d'experts. Que vous optiez pour une évolutivité verticale (scale-up) ou horizontale (scale-out), ces architectures façonneront la prochaine génération de systèmes d'IA.

Table des Matières

Résumé : Prévisions sur l'architecture future des réseaux d'IA

L’avenir des réseaux d’IA continuera d’évoluer vers les « 3 hauts et 3 bas » : haute fiabilité, haut débit, haut radix ; faible coût, faible latence, faible consommation d’énergie.

L'évolution des réseaux d'IA est incroyablement rapide. Il y a un an à peine, DeepSeek n'était pas sous le feu des projecteurs, mais aujourd'hui, ses réseaux de super-nœuds nationaux ont subi des transformations majeures. De 2025 à 2028, qui sait quels modèles majeurs émergeront au cours de ces trois années ? Prévoir les besoins des réseaux d'IA trois ans à l'avance est un défi. En revanche, le développement de puces de commutation IA s'étale sur trois ans. Il est donc essentiel d'avoir une vision claire des réseaux d'IA de 2028 pour définir les exigences et les spécifications des puces.

À l'été 2025, l'auteur tente de prévoir les tendances en matière d'architecture réseau d'IA pour 2028. Dans cet environnement en constante évolution et axé sur l'innovation, avoir des idées vaut mieux que pas d'idées du tout. L'exactitude n'est peut-être pas absolue, mais il est essentiel de bien définir l'orientation technique – nous pourrons l'affiner ultérieurement.

  • Passez d'un réseau à 3 couches à un réseau à 2 couches, permettant un CLOS à 2 couches pour 100,000 XNUMX cartes dans un seul rail avec plusieurs plans.
    • La puce de commutation 100T avec Radix=512 prend en charge 512×512/2=128,000 XNUMX cartes.
  • La carte réseau AI-NIC 800G se divise en plusieurs ports pour une mise en réseau multi-plans à arbre gras (d'après le document DeepSeek).
    • Carte réseau 800G divisée en 4 ports 200G, accédant à 4 plans indépendants. Un seul QP gère 4 ports avec un système de pulvérisation de paquets.
  • Fusion de Scale-Out et Scale-Up, permettant un CLOS monocouche pour 100,000 XNUMX cartes (papier Huawei UB-Mesh).
  • Les interconnexions optiques 224G constituent la forme principale, avec des interconnexions de câbles intra-trame et une convergence inter-trame.
    • L'intra-trame se termine par des TP (câbles), l'inter-trame utilise des EP (interconnexions optiques) ; bande passante intra-trame/bande passante de trame = 2 à 4 fois pour la convergence.
    • Le taux de battement mensuel du module optique est de 2.9 %, 100 fois moins fiable que les câbles. Il nécessite des technologies clés de boîte noire pour être résolu.
  • Réseau basé sur des trames : commutation CLOS unique inter-trame, 128 à 8,000 XNUMX cartes.
    • Le premier saut utilise des interconnexions de fond de panier de câbles, augmentant la fiabilité de 100 fois.
    • Peu de cadres peuvent utiliser back-to-back, nD-Mesh, Torus, etc.
  • Mise en réseau par boîtier : commutation CLOS unique entre boîtiers, 128 à 1,024 XNUMX cartes.
    • Défi : Le premier saut est une interconnexion optique, avec un taux de flap 100 fois plus élevé.

Fusion des réseaux de mise à l'échelle et de mise à l'échelle :

  • Avantage principal : amélioration de la fiabilité de plus de 10 fois.
  • Autres avantages : partage de bande passante, réduction des coûts, charge de travail de maintenance réduite.
  • Les liaisons optiques sont 100 fois moins fiables que les câbles, ce qui nécessite une technologie d'interconnexion de niveau liaison à haute fiabilité.
  • Les réseaux Scale-Up utilisent principalement le LPO/NPO 224G ; le DSP est secondaire.
    • LPO/NPO sont essentiels pour leurs 3 points faibles : a) 60 % d'économies d'énergie ; b) 120 ns d'économies de latence ; c) économies de coûts.
    • Le CPO n'est pas essentiel et pose des problèmes de découplage écosystémique. Les LPO/NPO peuvent remplacer le CPO.
  • Les réseaux Scale-Out s'en tiennent aux DSP enfichables, DPO/LRO comme formes principales.
    • Le LPO/XPO sans DSP ne sera pas largement utilisé en raison de problèmes d'interopérabilité.
  • Les interconnexions optiques 224G présentent d'énormes avantages en termes de coûts par rapport aux 112G et deviennent courantes.
    • 50 % de composants photoniques en silicium en moins, 50 % de fibres en moins, 50 % de connecteurs de câbles en moins. Le coût de 224 Go par bit est de 2/3 de celui de 112 Go.
    • La bande passante de SU est 10 fois supérieure à celle de SO ; SU utilise le plus de modules optiques. Les GPU domestiques peuvent utiliser un retimer 8:4 pour convertir 112 G électriques en 224 G optiques.

Le reste de l’article développe ces conclusions.

État actuel du réseau d'IA en 2025 : Réseau SU/SO/VPC indépendant

Le diagramme [1] du forum UEC montre les interconnexions de l'IA avec trois réseaux : Ce document les présente également.

Huawei CloudMatrix384 a révélé la structure actuelle du réseau pour 910C, également avec trois réseaux indépendants : SU (LD/ST), SO (RDMA) et VPC.

Réseau de mise à l'échelle

Utilisé à la fois pour l'inférence et l'apprentissage, principalement pour le trafic parallèle des modèles TP et le trafic parallèle des experts EP. DeepSeek compte actuellement 256 experts MoE, proposant un parallèle EP de grande taille de 320 cartes pour l'inférence ; Kimi K2 en compte 384 ; le futur DeepSeek devrait atteindre 1,024 72 experts MoE. Représentants actuels : 384 cartes NVLink ; XNUMX cartes Huawei CloudMatrix (voir ci-dessous)

Structure de 384 cartes Huawei CloudMatrix

Réseau évolutif

Principalement destiné à la formation parallèle DP/PP. La formation actuelle est évolutive jusqu'à 100,000 XNUMX cartes. La mise en réseau utilise AI-NIC ou carte réseau intégrée dans les puces d'IA. DP peut être hiérarchique : d'abord converger avec ReduceScatter dans les super-nœuds, puis vers Scale-Out, réduisant encore les besoins en bande passante SO. Représentants actuels : HPN 7.0 (article Sigcomm '24 [3]), réseau Tencent Xingmai (article Sigcomm '25 [4]), caractéristiques : CLOS 3 couches, 8 rails, NIC 2x200G double plans.

Diagramme du réseau HPN 7.0

Réseau VPC

Le réseau VPC est un DPU sur CPU pour VxLAN, etc., connecté à un stockage externe. Actuellement, trois réseaux sont distincts ; à l'avenir, ils seront fusionnés, par exemple en trois-en-deux ou trois-en-un. Le DCN actuel est généralement : TOR+Spine+Core, CLOS 3 couches.

réseau frontal

Principes de conception des futurs réseaux d'IA

Principe des « 3 hauts et 3 bas »

3 points forts : débit élevé, fiabilité élevée, radix élevé. 3 points faibles : faible coût, faible latence, faible consommation d'énergie.

Principe de localité des données : la bande passante d'interconnexion converge progressivement

Une formule approximative des experts en grands modèles : TP = 5x EP = 50x DP = 100x PP.

Mise en œuvre physique :

  • Bande passante du rack > bande passante de mise à l'échelle du super-nœud > bande passante de mise à l'échelle du cluster.
  • TP se termine en rack avec des câbles à faible coût, bande passante maximale.
  • EP se termine en super-nœud avec modules optiques LPO/NPO, bande passante moyenne, coût/puissance équilibré.
  • DP/PP en mode Scale-Out, bande passante minimale, coût le plus bas. DP hiérarchique : ReduceScatter dans le super-nœud d'abord, puis Scale-Out.

Principe d'architecture de commutation simplifiée : cluster de 3 couches à 2 couches ; super-nœud de 2 couches à 1 couche

  • Cluster SO : 3 couches à 2 couches, 2 couches 100,000 XNUMX cartes.
  • Super-nœud SU : 2 couches à 1 couche, 1 1,024 cartes à XNUMX couche.
  • « Simple Core, Smart Edge » : les commutateurs d'IA les plus simples, l'intelligence dans l'AI-NIC/IO-Die de périphérie.
  • Les architectures variantes DF+ à grande échelle sont peu probables, trop complexes ; CLOS est simple et flexible.

Aperçu des architectures de réseau évolutives pour 2028

Tencent propose des cartes à 3 couches, 2 couches et 2 100,000 cartes à XNUMX couches

Si le Scale-Out reste indépendant, passez de 3 couches à 2 couches, puis 2 100,000 cartes à 512 couches. Cette idée vient d'un collègue de Tencent. Elle repose sur des commutateurs Radix=50. La puce 512T produite en série par Huawei prend en charge Radix=2 pour 100,000 XNUMX cartes à XNUMX couches.

Radix = 512 : capacité CLOS à 2 couches = 512 x 512/2 = 131,072 XNUMX cartes. Rail unique, pas de rail multiple.

Pour les commutateurs 100T en cartes 2 couches de 100,000 200, chaque port 800 GE. Bande passante GPU Scale-Out typique de 4 G, soit 4 plans indépendants. La carte réseau AI-NIC répartit le trafic sur 4 plans, équilibrage de charge par paquet, un QP gère 2 ports. Rail unique + multiplan, plus compatible avec MoE allXNUMXall.

Du CLOS 3 couches au CLOS 2 couches : Chaque GPU économise 2 modules optiques (6 à 4, -33%), les commutateurs économisent 2 ports (5 à 3, -40%).

256 cartes accèdent au même commutateur sur un seul rail : latence minimale et conflits de trafic.

Radix = 512 nécessite un brassage passif : la fibre a une granularité minimale de 4 L, mais les commutateurs 100 T produisent 512 x 224 G sous forme de prises à une voie. Solutions :

  • Mélange optique externe : croisement passif 4×4, perte de 1.6 dB.
  • Mélange optique/électrique interne. Le Huawei 100T (2x50T) est équipé d'un mélange de câbles. Le NVIDIA 400T CPO est équipé d'un mélange optique passif interne avec 4 puces 100T, alimentant 512 connecteurs 4L, chacun vers 4 commutateurs.
Schéma de mélange optique-électrique

DeepSeek propose un système multi-ports multi-plans, par exemple une carte réseau 800G vers 4 ports 200G

Article ISCA de DeepSeek : Le futur scale-out est multiplan, chaque carte réseau disposant de quatre plans de liaison montante. Idéalement, un QP pilote quatre plans.

réseau multi-plans idéal

Cette carte réseau 4 ports s'adapte parfaitement aux cartes 2 100,000 à 100 couches : le commutateur 512T se divise en 200 ports 800G, la carte réseau AI 4G en 200 ports 4G pour une bande passante complète. 4 ports vers 100,000 plans CLOS indépendants, chaque plan 200 XNUMX ports (XNUMXGE/port).

Hypothèse : Évolution future basée sur la pulvérisation de paquets, et non sur le routage statique par hachage de flux. AI-NIC pulvérise les paquets de manière circulaire sur quatre plans. Le récepteur prend en charge le désordre et utilise DDP pour les écritures en mémoire. Ordre de complétion source/destination avec bitmap pour confirmer toutes les données reçues.

Remarque : avec Radix = 512, le multi-rail de DeepSeek n'est pas nécessaire.

Le multirail augmente la capacité, mais n'est pas compatible avec le MoE all2all. DeepSeek note que le transfert de données PXN d'IB vers NVLink consomme 20 SM. L'inférence DeepEP EP144 n'utilise pas le multirail.

Huawei UB-Mesh propose une fusion évolutive et évolutive, avec 100,000 XNUMX cartes à une couche

Huawei UB-Mesh fusionne les fonctions Scale-Out et Scale-Up, réduisant ainsi la taille d'un réseau. Au-delà des discours, des composants ont été développés, comme la puce HRS 50T (512 x 112 G), première fusion tri-réseau au monde pour SU/SO, lancée le jour de la fête nationale 2024 et produite en série en 2025.

En supposant un super-nœud 1,024 1,024P, ajoutez une couche Scale-Out (par exemple, commutateur UBoE RoCE) : s'étend à 128 120,000 × 1,024 = 256 250,000 ; 1,024 512 × 500,000 = XNUMX XNUMX ; XNUMX XNUMX × XNUMX = XNUMX XNUMX cartes.

Scale-Out 100T radix : 128, 256, 512 respectivement. Remarque : super-nœud 1,024 900 cartes à 9 pour une liaison montante 1:XNUMX, détail mineur.

Aperçu des architectures de réseaux évolutives pour 2028

Avantages et inconvénients de la commutation à super-nœuds basée sur des trames

Avantages :

  • Haute fiabilité : fond de panier de câble de premier saut, 100 fois plus fiable que les modules optiques, essentiel pour le Scale-Up (dites-le trois fois !).
  • Convergence de localité de données : interconnexion électrique intra-trame à large bande passante ; optique inter-trame avec convergence 2:1 ou 4:1.
  • Mise à l'échelle facile : 8 images = 512 cartes, 16 = 1,024 128. UB-Mesh prend en charge 8,000 images = XNUMX XNUMX cartes, linéaire.

Inconvénients:

  • De nombreux chemins de câbles, des défis de rendement et de traitement.
  • Les armoires refroidies par liquide nécessitent des centres de données spécifiques.
  • Commutation à deux niveaux intra/inter-trame : 3 sauts, latence/coût élevé.

La mise en réseau de trames évolutives commence par la trame NVL72, open source pour OCP. Les OTT nationaux (Tencent ETH-X, Alibaba ALS, ByteDance Dayu) sont similaires : a) 8 à 12 cartes réseau ; b) environ 16 cartes de calcul ; c) fond de panier à câbles pour CLOS intra-trame à 1 niveau ; d) ports d'extension de carte réseau pour inter-trame (back-to-back ou commutateur L2).

  1. Tencent ETH-X : 8 cadres = 512 cartes
Conception du cadre ETH-X

Cadre de calcul à un seul niveau de sécurité (CLOS) : puce Netboard 50T, 64 x 400 G internes vers 64 XPU ; 64 x 400 GE externes (32 modules OSFP 800 G) vers commutateur L2. Bonne évolutivité, mais nécessite un CLOS à deux niveaux.

  1. Armoire ByteDance Dayu : châssis simple 128 cartes, double carte 256 cartes dos à dos, extension L2 possible

Cartes réseau de 4 à 8, chacune avec une puce de 50 To. 128 x 200 GE ou 64 x 400 GE internes ; 64 x 400 GE externes (32 x 800 GE optiques). Câbles DAC dos à dos. 128 puces AI max./trame, double 256. Ajout facile de L2 comme ETH-X pour les cartes 512/1,024 XNUMX.

  1. Armoire Alibaba ALS

Extrait de « Partenariat avec UALink, le serveur Alibaba Cloud Panjiu AI Infra 2.0 fait ses débuts au sommet mondial OCP 2024 » [8] : Similaire aux puces NVL72/ETH-X, 64-80 AI grâce aux puces UALink 288L/320L.

  1. Huawei UB-Mesh : 512 à 8,000 XNUMX cartes

Par document UB-Mesh, chaque image contient 64 puces AI. Chaque puce est dotée d'une interface UBx72 : 56 L pour le maillage X/Y, 16 L hors image pour le maillage nD ou CLOS vers un commutateur UB externe.

Capacité par nombre d'images, max. 8,000 256 ; également 512/1,024/100 1, coût linéaire. Seule différence : la longueur de la fibre affecte la latence (XNUMX m = XNUMX us RTT).

Super-nœud basé sur une boîte CLOS à un niveau : 512 à 1,024 XNUMX cartes

Inconvénients des cadres ? Solution : la mise en réseau de boîtes. Les systèmes d'IA évoluent en spirale : des boîtes de 8 cartes aux cadres de 64 cartes ; retour aux boîtes.

Les spécialistes des routeurs le savent : transformez 16 cartes de ligne en 16 boîtiers, carte fibre vers réseau - un sujet de discussion depuis longtemps, non réalisé dans les routeurs mais réalisable dans l'IA.

Avantages de la commutation : 3 couches vers 1 couche, coût d'interconnexion/puissance inférieurs à ceux des armoires doubles dos à dos.

Dos à dos : chaque GPU dispose de 2 ports de commutation + un câble de fond de panier coûteux. Boîtier à un niveau : 1 port. « 3 points faibles » : faible latence, coût, consommation d'énergie.

Capacité par commutateur central radix : 100T=512x224GE=512 cartes ; 200T=1,024x224G=1,024 cartes.

Pourquoi ne pas passer de 100 To à 1,024 112 x 1,024 Go pour XNUMX XNUMX cartes ? Inadapté pour de nombreuses raisons.

Inconvénient : Fiabilité du module optique !

Optique premier saut : taux de flap élevé. Dans les trames, câble premier saut ; le commutateur gère les flaps. Le commutateur fusion Huawei 50T SU/SO excelle avec une perte de paquets nulle.

Dans la boîte, XPU gère directement les volets optiques, plus dur :

  • Tous les XPU ne sont pas expérimentés dans les volets optiques.
  • Commutateur 64 ports optiques : Perte 1, 1/64 de bande passante. Perte de port XPU 1 : Impact majeur.
  • La commutation de sauvegarde varie ; sauvegardes limitées, forte baisse des performances.

Article Meta : L'AI-NIC vers TOR avec câble multiplie par 100 la fiabilité par rapport à l'optique. Dernier rack Meta : fond de panier à câble SU/SO premier saut.

Statut 1 : Défaillances/pannes optiques : taux de défaillance des câbles multiplié par 100 ; l'industrie utilise des câbles lorsque cela est possible.

Les interconnexions optiques à super-nœuds doivent résoudre le problème de fiabilité : perte de paquets optiques (y compris les volets) 100x+ câble fond de panier. Données OCP [11] :

optique et aec

Défauts optiques : 1) Défaillance du module (laser à 90 %) ; 2) Volets de liaison (saleté de construction, pliage).

Dates:

  • Panne de liaison : HPN7.0 : 0.057 % NIC-ToR mensuel.
  • Volets : OCP 50-100x plus élevé ; prendre 50x=2.9% mensuel.

Conforme à l'expérience.

Câble optique NVLink NVIDIA GH200 256 cartes (non utilisé) ; AWS a utilisé un câble 32 cartes. Probablement un problème de fiabilité optique.

Super-nœud 512 cartes : chaque carte 32L fibre = 8x400G DR4.

LD/ST sensible à la perte ; restauration du point de contrôle après 20 minutes inacceptable.

UALink : Câble 4 images maximum, pas encore d'optique.

Scale-Out : la retransmission côté extrémité RDMA (20 s) couvre les volets de 1 à 4 s via go-back-N.

Statut 2 : Huawei CloudMatrix384 et UB-Mesh s'attaquent à la technologie optique, offrant une fiabilité de pointe

Câble NVIDIA NVL72/NVL576. Optique en mode scale-up : fiabilité 100 fois inférieure.

SU LD/ST sans couche de transport complète ; volets majeurs. Solutions systématisées par Huawei : réduction des défauts par 100 fois et plus, adaptation/dépassement du câble.

CloudMatrix384 : 6,912 5,376 modules (2.9 155 super-nœuds). 5.2 % de flaps : XNUMX/mois = XNUMX/jour.

Solutions : modules Nebula AI à haute disponibilité, commutateur Flex Packet-Routing 0-loss, logiciel NPU.

Routage de paquets flexible (dans la puce UB-Mesh 50T : 512x112G, tri-fusion, sortie en 2024, masse en 2025) : Poignée de main privée L1/L2 pour les flaps/faults = 0 perte.

Partage de charge : 64 fibres en perdent 1, pulvérisation de paquets vers 63 via tous les L1 — perte 1/64, NPU inconscient.

Câble NPU premier saut vers L1 : aucune sensation optique, haute fiabilité.

Systèmes de boîtes : NPU optique direct = devient L1 ; Flex dans la matrice IO — complexité plus élevée.

Pourquoi fusionner scale-up et scale-out ? Principal avantage : fiabilité décuplée.

Première tri-fusion Huawei : fusion UB-Mesh SO/SU, 50T HRS produite en série. UALink/SUE pas encore ; NVLink plus ancien, pas de fusion.

Avantages :

  • Unification de la bande passante SU/SO : les articles DeepSeek s'unifient pour éviter les déplacements de données de 20 SM.
  • Fusionner les réseaux : Coût et maintenance réduits.
  • Augmentez la fiabilité du SO 10x+ : réutilisez le câble SU + L1/L2 haute fiabilité.

Exemples :

  • Câble premier saut ETH-X : 100x optique.
    • SO indépendant 2 couches 100k : liaison optique montante NIC — 10x pannes (laser), 100x volets.
  • Carte réseau ETH-X 64 optique : Perte de 1 = 1.6 % de bande passante.
    • SO indépendant : NIC 800 G 4 x 200 G = 3 + 1 sauvegarde, perte 1 = 25 % ; double port = 50 %.

UB-Mesh prend en charge la fusion ou la séparation, même la fusion VPC+SO. Au choix du client.

LPO/NPO, idéal pour le développement à grande échelle

Analyses post-CloudMatrix384 : Puissance de module élevée. Quant : GPU domestique 32x112G=4x800G end+4 switch.

DPO 800G = 15 W, 8x = 120 W. LPO = 6 W, 8x = 48 W.

Vs. XPU 1,200 4 W : 10 à XNUMX % — élevé ? Ça dépend.

Le LPO tombe à 4%, ce qui est significatif.

2028 : l'interconnexion GPU double ; LPO/NPO est crucial pour la réduction de la consommation d'énergie.

Vue : LPO/NPO optimal pour la mise à l'échelle 2028 par « 3H3L » :

  • Faible coût : la suppression de l'oDSP permet d'économiser environ 100 $ par marque blanche (l'oDSP 3 nm est cher).
  • Faible consommation : oDSP 10 % ; LPO 4 %.
  • Faible latence : aucun oDSP n'enregistre 60 ns/direction ; RTT 4 liens = 240 ns.
  • Fiabilité : une température inférieure de 10 °C double la fiabilité. 800G LPO 6 W contre oDSP 15 W ; 1.6T LPO ~ 10 W contre 25 W.

Inconvénients de LPO/NPO surmontés dans SU :

  • Faible interopérabilité : boucle fermée intra-super-nœud, fournisseur unique.
  • BER 1-2 ordres pires : retransmission au niveau de la liaison SU ; post-correction 1E-10 suffisante.

Les modules DSP enfichables restent la norme en matière de technologie évolutive

Modules DSP (800G/1.6T) courants pour SO. Inconvénients LPO/NPO importants dans SO : grande échelle (100 XNUMX cartes), multifournisseur ; longues distances, pas de retransmission au niveau de la liaison (grands tampons), besoins en BER plus élevés.

LRO économise 50 % de puissance DSP, meilleure interopérabilité/BER que LPO — convient au SO 2028.

Huawei collabore pour une optique haute résolution, faible consommation et faible latence.

Le débit 224G sera supérieur au 112G d'ici 2028

Puces Ethernet 100T : 1,024 XNUMX L112G ou 512L224G. 2028 : Quel est le rapport coût-efficacité ?

1.6T=8x224G; 800G=8x112G.

Aujourd'hui : prix 1.6T >2x800G. 112G raisonnable maintenant.

Prévisions 2028-30 : 1.6 T = 1.2-1.4 x 800 G (LPO/DSP). Avantage évident. 1.6 T permet d’économiser 1,000 2 RMB par rapport à 800 x 100 G ; système 1,000 T : 64 64,000 × XNUMX = XNUMX XNUMX RMB.

Plus de fibres doubles pour 112G. 224G gagne. 2028 : 1,024 224 x 200G = 112T puces probablement, pas XNUMXG.

GPU domestiques 2024 112 Go ? Aucun problème : 910B/C 56 Go, mais 50T commuté 512 x 112 Go. Le retimer DSP 8:4 convertit 8 x 112 Go en 4 x 224 Go.

Les super-nœuds Box et Frame coexistent

ParamètreCarte d'interface modulaire (réseau châssis 64 cartes)Super nœud distribué (réseau quantique à 8 cartes)
Niveaux de commutationCLOS à 2 niveauxCLOS à 1 niveaux
Nombre de ports de commutation1:31:1
Quantité de modules optiques1.21.2
Comparaison des coûts d'interconnexion20%10%
LatenceBas (commutateur à 1 saut)Élevé (commutateur à 3 sauts)
FiabilitéÉlevé. Le GPU utilise un câble d'alimentation à moitié segment réseau ; en cas de panne du commutateur, les E/S du GPU doivent être reconnectées pour gérer la déconnexion des ports optiques. Cependant, le remplacement du commutateur pose problème.Faible. Les E/S du GPU nécessitent une reconnexion pour gérer la déconnexion des ports optiques.
ChargeCharge élevée, jusqu'à 8,000 XNUMX cartesFaible coût Prend en charge le refroidissement par air
NœudCoût élevé, nécessite une salle des machines à refroidissement liquidePetite échelle, jusqu'à 512 cartes

Boîte : Faible latence/coût/consommation. 32L/GPU : Cadre 20 % coût système ; boîte 10 %.

Cadre : Plus grande échelle, meilleure fiabilité.

2028 : Les deux coexistent. Beaucoup privilégient le cadre pour la fiabilité intra-câble.

Débats d'experts : Si la fiabilité du volet optique LD/ST est résolue, optez pour la boîte ; sinon, optez pour le cadre.

UB prend en charge les deux fonctions et excelle dans les boîtes avec une synergie de fin de filet pour des volets sans perte. Le coût des moitiés de boîte (0 à 20 %) est attractif.

En conclusion, le débat entre scale-up et scale-out dans les réseaux d'IA pour 2028 porte sur l'équilibre entre fiabilité, performance et coût. Le scale-up privilégie des connexions intra-super-nœuds denses et fiables, tandis que le scale-out permet une expansion horizontale massive. Fusion offre le meilleur des deux mondes. Chez FiberMall, nous sommes à l'avant-garde de ces tendances avec nos solutions optiques adaptées à l'IA. Consultez notre site pour en savoir plus sur les modules LPO/NPO 224G et plus encore.

Remonter en haut