Die sich beschleunigende KI-Branche steigert die Nachfrage nach 1.6T OSFP-XD

Die Nachfrage nach KI-Hardware boomt und der Versand von Computerchips wird sich voraussichtlich beschleunigen. Basierend auf FiberMalls Untersuchungen zur Rechenleistungs-Industriekette prognostiziert FiberMall, dass die Auslieferung von NVIDIAs H-Serie- und B-Serie-Chips im Jahr 3.56 350,000 Millionen bzw. 2024 Einheiten erreichen wird. Im Jahr 2025, mit der weiteren Auslieferung des GB200, wird die Gesamtmenge erreicht Die Auslieferung der GPUs der B-Serie wird voraussichtlich 2.5 Millionen Einheiten erreichen. Darüber hinaus erwartet FiberMall, dass auch der Einsatz von Googles TPU und AMDs MI300 fortgesetzt wird, was allesamt den synchronisierten Hochlauf von optischen 800G-OSFP- und 1.6T-OSFP-XD-Modulen auf Netzwerkebene vorantreiben wird.

Angesichts der positiven Entwicklungen in der Industriekette wird erwartet, dass die Nachfrage nach 1.6T die Erwartungen übertrifft. Auf der OFC 2024 präsentierten mehrere Aussteller die neuesten optischen 1.6T-OSFP-XD-Modulprodukte. Zuvor hatte NVIDIAs neuer Blackwell AI-Chip, der auf der GTC-Konferenz angekündigt wurde, höhere Anforderungen an die Interkonnektivität gestellt, und die Switches der X800-Serie ermöglichen den Aufbau von 1.6T-Netzwerken. Mittlerweile ist auch die Upstream-Industriekette für optische Module schrittweise aufgebaut: Marvell geht davon aus, dass sein 1.6-T-DSP mit einem einzigen Kanal von 200 G bis Ende 2024 bereitgestellt wird, und Broadcom gibt an, dass 200 G EML für die Massenproduktion bereit ist. FiberMall ist davon überzeugt, dass die 1.6T-Industriekette, sowohl vor- als auch nachgelagert, ihre Reife beschleunigt. In Bezug auf den Einsatz geht FiberMall davon aus, dass in der zweiten Hälfte des Jahres 2024 voraussichtlich 1.6T optische OSFP-XD-Module in Koordination mit der Massenproduktion der B-Serie-Chips von NVIDIA eingesetzt werden, wobei zunächst ein kleiner Hochlauf und dann ein Anstieg erreicht wird Im Jahr 2025 wird es einen groß angelegten Einsatz geben. Aus technologischer Sicht geht FiberMall davon aus, dass EML-Singlemode auch in der 1.6T-Ära weiterhin der Mainstream sein wird, ist aber auch optimistisch, was das schnelle Wachstum der Durchdringungsrate neuer Technologielösungen wie Siliziumphotonik und Linear angeht -Antriebssteckbare Optik (LPO).

In Bezug auf die Nachfrage prognostiziert FiberMall für 2025 Folgendes:

1) Die Nachfrage der Top-1-2-Kunden in Übersee wird schnell von 800G OSFP auf 1.6T migrieren, was zu einem schnellen Anstieg der optischen 1.6T OSFP-XD-Module führen wird;

2) Während die 800G-OSFP-Nachfrage einiger Kunden aufgrund der Umstellung auf höhere Geschwindigkeiten zurückgehen könnte, wird sich die Nachfrage einer anderen Kundengruppe von 400G-OSFP zu 800G-OSFP verlagern, was eine gewisse Unterstützung für die gesamte 800G-OSFP-Nachfrage bietet.

Die Szenarioanalyse von FiberMall zur Gesamtlieferung von 1.6 Tonnen im Jahr 2025 basiert auf zwei Kernvariablen: 1) Der Gesamterfolg der KI-Hardwarebeschaffung (GPU-Lieferung der B-Serie von 2–3 Millionen Einheiten); 2) Der Reifezeitplan des 1.6T-Netzwerks (der Anteil der GPU der B-Serie gepaart mit 1.6T-Netzwerklösungen bei 70 %–90 %). Die Analyse zeigt, dass die Gesamtlieferung von 1.6T OSFP-XD Die Zahl der optischen Module im Jahr 2025 wird bei 3.6 bis 5.95 Millionen Einheiten liegen, wobei das neutrale Szenario bei 4.7 Millionen Einheiten liegt, was über den aktuellen Markterwartungen liegt.

Szenarioanalyse zur Nachfrage nach optischen 1.6T-OSFP-XD-Modulen

FiberMall hat eine umfassende Analyse durchgeführt und dabei die prognostizierte Lieferung von KI-Chips wie NVIDIA, TPU und MI300, die Korrelation zwischen optischen Modulen und KI-Chips sowie die Wahl der Geschwindigkeitskonfigurationen optischer Module berücksichtigt. Die Analyse zeigt, dass die Nachfrage nach optischen 800G-OSFP- und 1.6T-OSFP-XD-Modulen im Jahr 2025 7.91 Millionen bzw. 4.7 Millionen Einheiten erreichen könnte. Die wesentlichen Annahmen lauten wie folgt:

  • Prognose zur Auslieferung von KI-Chips: Auf der GTC 2024-Konferenz kündigte NVIDIA seine Cloud-GPUs der ersten Generation der B-Serie auf Basis der Blackwell-Architektur sowie den neuen Superchip GB200 CPU+GPU-Architektur und die entsprechende Recheneinheit GB200 NVL72 an, die das kann bieten 1E-Flops-Leistung auf Supercomputing-Niveau in einem einzigen Gehäuse und ermöglichen so eine Leistungssteigerung vom Chip zum System. Zusätzlich zu den Allzweck-GPUs erwartet FiberMall, dass auch der Einsatz von Googles TPU und AMDs MI300 fortgesetzt wird, was die Nachfrage nach 800G OSFP/1.6T OSFP-XD-Optikmodulkonfigurationen ankurbeln wird.
  • Schätzung der Korrelation zwischen optischen Modulen und KI-Chips: Unter der InfiniBand-Fat-Tree-Netzwerkarchitektur ist die Gesamtbandbreite auf jeder Netzwerkebene aufgrund der nicht konvergenten Netzwerkeigenschaften konsistent. Basierend auf der Annahme, dass das Verhältnis von KI-Beschleunigungskarten zu Netzwerkkarten 1:1 beträgt, berechnet FiberMall, dass das Verhältnis von optischen H100- zu 800G-OSFP-Modulen 1:3 in einer dreischichtigen Netzwerkarchitektur und 1:2 in einer zweischichtigen Netzwerkarchitektur beträgt. Schichtarchitektur. Auf der GTC 2024-Konferenz kündigte NVIDIA die Switches der X800-Serie an, darunter der auf dem InfiniBand-Protokoll basierende Q3400-RA 4U-Switch über 144 800G-OSFP-Ports, die äquivalent als 72 1.6T-Ports zugewiesen werden können. FiberMall geht davon aus, dass die Leistung der Switches der Quantum-X800-Serie mit 144 Ports im Vergleich zur QM9700-Serie der vorherigen Generation mit 64 Ports sowie die Anzahl der Cluster, die von den zweischichtigen Quantum-X800-Switches in der Fat-Tree-Architektur unterstützt werden, deutlich verbessert ist ist angestiegen. Aus einer relativ konservativen Perspektive prognostiziert FiberMall die effektive Nachfrage nach optischen Modulen basierend auf einem Verhältnis von 1:2 von GPUs der B-Serie zu optischen 1.6T-OSFP-XD-Modulen.
  • Wahl der Geschwindigkeitskonfigurationen für optische Module: Im Allgemeinen geht FiberMall davon aus, dass Cloud-Anbieter oder KI-Hersteller dazu neigen, der Konfiguration von Netzwerken mit höherer Geschwindigkeit Vorrang einzuräumen, um die Rechenleistung ihrer Cluster zu maximieren. Angesichts der Tatsache, dass das 1.6T-Hardware-Ökosystem im Jahr 2024 jedoch noch nicht vollständig ausgereift ist, prognostiziert FiberMall, dass Kunden in diesem Jahr bei der Bereitstellung kleiner Netzwerke mit NVIDIAs B-Serie-Chips in erster Linie 800G-OSFP-Geschwindigkeiten übernehmen werden, und die 1.6T-Konfiguration gepaart mit B Es wird erwartet, dass Chips der 2025-Tonnen-Industrie bis 1.6 zur Mainstream-Lösung werden, wenn die 2025-Tonnen-Industriekette ausgereift ist. Zum jetzigen Zeitpunkt verfügt die Branche über keine klaren Auftragsprognosen für die Gesamtauslieferung von GPUs der B-Serie im Jahr 5, und die Prognose der Auslieferung von B-Serie-Chips unterliegt auch verschiedenen Variablen, beispielsweise dem Veröffentlichungszeitplan von GPT-2024 , der Einsatz neuer KI-Großmodelle oder -Anwendungen und die Erforschung der kommerziellen Machbarkeit von KI. Diese Faktoren werden sich auf die Gesamtbeschaffung von KI-Hardware durch führende Cloud-Anbieter und andere Teilnehmer der KI-Branche auswirken. FiberMall hat beobachtet, dass die Markterwartungen für die Investitionsausgaben der vier größten nordamerikanischen Cloud-Anbieter im Jahr 2025 im vergangenen Jahr nach oben korrigiert wurden, und diese Unternehmen haben öffentlich erklärt, dass sie ihre Investitionen in die KI-Infrastruktur weiter erhöhen werden, was dies widerspiegelt anhaltender Fortschritt der KI-Branche und die Ausweitung der zugrunde liegenden Hardware-Nachfrage. FiberMall geht davon aus, dass die Investitionen führender Unternehmen in KI-Hardware im Jahr XNUMX weiterhin von den Veränderungen in der KI-Branche beeinflusst werden.

FiberMall hat eine Szenarioanalyse zur Gesamtlieferung von 1.6T optischen OSFP-XD-Modulen im Jahr 2025 durchgeführt und dabei zwei Kernvariablen verwendet: 1) Der Gesamterfolg der KI-Hardwarebeschaffung (GPU-Lieferung der B-Serie von 2–3 Millionen Einheiten); 2) Der Reifezeitplan des 1.6T-Netzwerks (der Anteil der GPUs der B-Serie gepaart mit 1.6T-Netzwerklösungen liegt bei 70–90 %, der Rest ist 800G OSFP).

Unter Berücksichtigung des Wohlstands der Nachfrage der KI-Branche und des Zeitplans für die kommerzielle Reife der 1.6T-Schlüsseltechnologien für optische Ports als Variablen zeigt die Szenarioanalyse von FiberMall, dass die Gesamtlieferung von optischen 1.6T-OSFP-XD-Modulen im Jahr 2025 voraussichtlich in der Größenordnung von liegen wird 3.6-5.95 Millionen Einheiten, wobei das Gesamtniveau des Sortiments über den aktuellen Markterwartungen liegt. Die neue Generation von Computerclustern hält eine hohe Nachfrage nach optischen Hochgeschwindigkeitsmodulen aufrecht, und der Wohlstand der Industriekette schwingt nach oben mit.

Im Zuge der KI-Entwicklung zeigt die neue Generation von Computerclustern zwei Veränderungstendenzen:

  • Rasantes Wachstum des Netzwerkverkehrs, wobei der Ost-West-Verkehr der Haupttreiber ist: Laut dem vom China Mobile Research Institute veröffentlichten „White Paper on the Evolution of Smart Computing Center Network (2023)“ erfordert intelligentes Computing ein hohes Maß an parallelem Computing , wodurch All-Reduction-Datenmengen (kollektive Kommunikation) entstehen, die Hunderte von GB erreichen. FiberMall glaubt, dass vor dem Hintergrund der Verbreitung großer Modelle der „Krieg um tausend Modelle“ das Wachstum des Netzwerkverkehrs weiter vorantreiben wird. Mittlerweile ist der Anteil des Ost-West-Verkehrs (zwischen Servern) erheblich gestiegen, und laut Prognose von Cisco könnte der aktuelle Ost-West-Verkehrsanteil 80–90 % des Netzwerkverkehrs erreicht haben.
  • Die typische Netzwerkarchitektur wandelt sich von der dreischichtigen baumartigen Architektur zur Multi-Core-Architektur, die durch die Spine-Leaf-Architektur repräsentiert wird: Den öffentlichen Informationen zufolge haben NVIDIA und Inspur China gemeinsame Schulungen zum Rechenzentrumsnetzwerk der neuen Generation von NVIDIA durchgeführt Produkte, Rechenzentren basierten hauptsächlich auf der traditionellen dreischichtigen Architektur, mit einer baumartigen Architektur, die zwei Kerne hatte und allmählich nach oben konvergierte, wobei der Nord-Süd-Verkehr die Hauptrichtung war. Die dreischichtige Netzwerkarchitektur besteht aus der Zugriffsschicht, der Aggregationsschicht und der Kernschicht. Die Zugriffsschicht stellt eine direkte Verbindung zum Benutzer her, die Aggregationsschicht verbindet die Zugriffsschicht und die Kernschicht und stellt Dienste wie Firewalls und SSL bereit offLaden, Einbruchserkennung und Netzwerkanalyse, und die Kernschicht ist das Hochgeschwindigkeits-Switching-Backbone des Netzwerks. Aufgrund der gestiegenen Nachfrage nach Kommunikationsleistung im intelligenten Computing treibt die Nachfrage nach KI-Cloud-Training und -Inferenz die Entwicklung der Netzwerkarchitektur von Rechenzentren hin zu einer mehrschichtigen, nicht konvergenten und skalierbareren Form voran.

FiberMall geht davon aus, dass das Gesamtwachstum des Datenverkehrs im Smart Computing Center und die Entwicklung der Netzwerkarchitektur gemeinsam den Anstieg der Verbindungsnachfrage vorantreiben, was zu einem Anstieg der Nutzung optischer Module und Geschwindigkeitsverbesserungen führt.

Die Rechenzentren von NVIDIA verwenden eine Fat-Tree-Architektur, um ein nicht konvergentes Netzwerk aufzubauen, wobei das dreischichtige Netzwerk mehr Knoten verbinden kann als das zweischichtige Netzwerk. Im Vergleich zum herkömmlichen Fat-Tree-Modell verwendet das Fat-Tree-Modell für Rechenzentren von NVIDIA eine große Anzahl von Hochleistungs-Switches, um ein großes, nicht blockierendes Netzwerk aufzubauen, und erhöht sogar die Uplink-Ports, um Paketverluste und Netzwerkzusammenbrüche zu vermeiden. ähnelt eher einer Diffusionsarchitektur. Bezüglich der Anzahl der Schichten gibt es zwei- und dreischichtige Netzwerkoptionen, wobei die dreischichtige Netzwerkarchitektur mehr Knoten verbinden kann als die zweischichtige Architektur, wodurch mehr KI-Chips miteinander verbunden werden können, was für die geeignet ist Training großer KI-Modelle mit größeren Parametern.

Traditionelle dreischichtige Netzwerkarchitektur mit Zugriffs-, Aggregations- und Kernschicht
Traditionelle dreischichtige Netzwerkarchitektur mit Zugriffs-, Aggregations- und Kernschicht
DGX SuperPOD dreischichtige Fat-Tree-Architektur
DGX SuperPOD dreischichtige Fat-Tree-Architektur

Der DGX H100 SuperPOD bietet zwei Netzwerkoptionen:

  • Übernahme eines Netzwerkansatzes ähnlich dem A100 SuperPOD, Verwendung von CX-7-Netzwerkkarten und InfiniBand-Switches, um serverübergreifende Verbindungen zu erreichen. Gemäß dem schematischen Diagramm auf der NVIDIA-Website geht FiberMall davon aus, dass jeder H100-Server mit 8 400G ConnectX-7 Single-Port-Smart-Netzwerkkarten konfiguriert ist, wobei vier CX-7-Netzwerkkarten in ein Netzwerkmodul integriert sind und zwei Netzwerkmodule mit dem verbunden sind InfiniBand-Switch mit 2 * 400G NDR Jeder OSFP-Port, dh die Netzwerkkartenseite entspricht 4 optischen 800G-OSFP-Modulen, und die Netzwerkkartenverbindung zum First-Layer-Switch erfordert ebenfalls 4 optische 800G-OSFP-Module, also insgesamt 8 optische 800G-OSFP-Module für das First-Layer-Netzwerk. Aufgrund der nicht konvergenten Netzwerkeigenschaften ist die Gesamtbandbreite, die jeder Schicht in der InfiniBand-Fat-Tree-Netzwerkarchitektur entspricht, konsistent, und basierend auf der Annahme, dass das Verhältnis von KI-Beschleunigungskarten zu Netzwerkkarten 1:1 beträgt, berechnet FiberMall dies Das Verhältnis von optischen H100- zu 800G OSFP-Modulen beträgt 1:3 in einer dreischichtigen Netzwerkarchitektur und 1:2 in einer zweischichtigen Architektur.
Schematische Darstellung der internen Verbindung des DGX H100-Systems
Schematische Darstellung der internen Verbindung des DGX H100-Systems
  • Einführung des neuen NVLink-Switching-Systems: Externalisierung des NVLink, der für die Hochgeschwindigkeits-GPU-Verbindung innerhalb von Servern verwendet wird, zu einem 256-Knoten-Cluster unter Verwendung des NVLink der vierten Generation und des NVSwitch der dritten Generation, um ein zweischichtiges (L1 und L2) NVLink-Netzwerk aufzubauen , was eine direkte Verbindung und den gemeinsamen Speicherzugriff von bis zu 32 Knoten (256 GPUs) ermöglicht. Bei dieser NVLink-Netzwerklösung sind die GPUs und der L1-NVSwitch (im Gehäuse) über Kupferkabel miteinander verbunden, während die L1- und L2-NVSwitch-Schichten eine optische Verbindung verwenden, was zu einem Bedarf an 18 Paaren von 800G-OSFP-Verbindungen mit einem höheren Verhältnis führt von H100 auf 800G OSFP im Vergleich zur ersten Netzwerkoption. Beim 256 DGX GH200 AI-Supercomputer schätzt FiberMall, dass das Verhältnis von GH200- zu 800G-OSFP-Optikmodulen weiter auf 1:9 steigen könnte, wobei im Kern davon ausgegangen wird, dass die Verbindung zwischen jedem Knoten (mit 8 GH200-Chips) und den 3 L1-NVS darin besteht Der Knoten verwendet Kupferkabel, und die 32 Knoten im DGX GH200 sind über eine optische Verbindung mit den 36 L2-NVS verbunden, was zu 1,152 (32*36) Verbindungspaaren zwischen L1 und L2 führt, was 2,304 optischen 800G-OSFP-Modulen entspricht deutliche Steigerung der Nutzung optischer Module.
Schematische Darstellung der Datennetzwerkkonfiguration des NVIDIA DGX H100-Systems
Schematische Darstellung der Datennetzwerkkonfiguration des NVIDIA DGX H100-Systems
Vergleich der Cluster DGX A100 256 SuperPOD, DGX H100 256 SuperPOD und 256 DGX GH200
Vergleich der Cluster DGX A100 256 SuperPOD, DGX H100 256 SuperPOD und 256 DGX GH200

Es ist erwähnenswert, dass zur weiteren Erweiterung des Clusters auf eine Größenordnung von über tausend GPUs basierend auf dem miteinander verbundenen SuperPOD mit 256 GPUs InfiniBand-Links für eine erweiterte Vernetzung verwendet werden müssen. Am Beispiel eines 1024-GPU-Clusters können laut NVIDIAs Website durch Bildung einer zweischichtigen Spine-Leaf-Netzwerkarchitektur über NDR InfiniBand Links 4 DGX H100 256 SuperPOD-Cluster verbunden werden, um die direkte Verbindung von 1024 GPUs zu erreichen. FiberMall glaubt, dass im InfiniBand-Netzwerk außerhalb des SuperPOD die Verwendung von 800G-OSFP Optische Module können weiterhin auf der Grundlage der vorherigen Verhältnisbeziehung in der zweischichtigen Architektur geschätzt werden, d. h. das Verhältnis von H100-GPU zu optischem 800G-OSFP-Modul beträgt ungefähr 1:2.

Vergleich der Cluster DGX A100 256 SuperPOD, DGX H100 256 SuperPOD und 256 DGX GH200
Vergleich der Cluster DGX A100 256 SuperPOD, DGX H100 256 SuperPOD und 256 DGX GH200

Auf der GTC 2024-Konferenz kündigte NVIDIA den GB200 NVL72 an, der aus 18 Rechenknoten, 9 NVLink-Switch-Trays und 1 Q3400-RA 4U InfiniBand-Switch besteht. Jeder Rechenknoten besteht aus 4 Blackwell-GPUs und 2 CPUs, was bedeutet, dass der GB200 NVL72 72 GPUs enthält. Jeder Knoten ist mit 4 800G ConnectX-8-Netzwerkkarten konfiguriert, und das Verhältnis von Blackwell-GPUs zu CX-8-Netzwerkkarten bleibt 1:1. Dies bedeutet, dass bei der Verwendung von InfiniBand für KI-Backend-Netzwerke das Verhältnis von GPUs der B-Serie zu optischen 1.6T-OSFP-XD-Modulen im gleichen Verhältnis wie in der H100-Ära bleibt (1:2 für zweischichtige Netzwerke, 1:3 für drei). -Schicht-Vernetzung).

Wie im vorherigen Abschnitt erwähnt, ermöglichen die neuen Switches der Quantum-X800-Serie von NVIDIA, die mit 144 800G-OSFP-Ports (entspricht 72 1.6T-Ports) konfiguriert werden können, den Aufbau von 1.6T-Netzwerken. Ihre Leistung ist im Vergleich zu den 64-Port-Switches der vorherigen Generation deutlich verbessert, und die Anzahl der von den zweischichtigen Quantum-X800-Switches in der Fat-Tree-Architektur unterstützten Cluster ist auf 10,368 Knoten gestiegen. Dies deutet darauf hin, dass die Abdeckung des zweischichtigen Netzwerks erweitert werden könnte, weshalb FiberMall in der Szenarioanalyse konservativ ein Verhältnis von 1:2 angenommen hat. FiberMall geht jedoch davon aus, dass die erforderliche Anzahl an optischen Modulen weiter steigen könnte, da die GPU-Clustergröße weiter wächst und die Nachfrage nach Verbindungen auf der Ebene von 10,000 Karten und mehr steigt.

Innerhalb des GB200-Rechenknotens sind 4 Blackwell-GPUs im Verhältnis 4:8 mit 1 ConnectX-1-Netzwerkkarten verbunden
Innerhalb des GB200-Rechenknotens sind 4 Blackwell-GPUs im Verhältnis 4:8 mit 1 ConnectX-1-Netzwerkkarten verbunden

Im Hinblick auf die NVLink-Vernetzung sind bei der GB200 NVL72-Einzelschranklösung die Rechenknoten innerhalb des Schranks über Kupferkabel mit dem NVLink-Switch verbunden, ohne dass eine optisch-elektrische Signalumwandlung erforderlich ist, was mit der vorherigen GH200-Schrankverbindung übereinstimmt Lösung. In bestimmten Hochleistungs-KI-Computing-Szenarien kann der NVLink der fünften Generation jedoch verwendet werden, um eine Hochgeschwindigkeitsverbindung von bis zu 8 GB200 NVL72-Systemen (576 Blackwell-GPUs) zu erreichen. Bei der Verbindung von GB200 NVL72-Schränken auf Basis von NVLink kann die Zwei-mal-Zwei-Verbindung LACC-Kupferverbindungen verwenden, für die Verbindung mehrerer Schränke, wie in der vorherigen GH200-Netzwerkarchitektur erwähnt, ist jedoch ein zusätzlicher L2-Layer-NVS erforderlich. Wenn eine optische Verbindung zwischen dem L1- und L2-NVS eingeführt wird, geht FiberMall davon aus, dass das Verhältnis von optischen Modulen zu GPUs weiter steigen wird.

Laut der Website von NVIDIA ist die Leistung des GB200 im Vergleich zur Vorgängergeneration deutlich verbessert. Im Vergleich zu einem Rechencluster mit denselben 72 H100-GPUs kann der GB200 eine etwa 30-mal höhere Leistung für große Modellinferenzen erzielen, bei einer 25-fachen Reduzierung der Kosten und des Stromverbrauchs. FiberMall geht davon aus, dass der Auslieferungsanteil der Blackwell-GPUs im GB200 höher sein wird als der des GH200 in der Hopper-Serie. Zusammenfassend geht FiberMall davon aus, dass der Leistungsvorteil von GB200 wahrscheinlich zu einer Erhöhung seines Lieferanteils führen wird, und dass das NVLink-Verbindungsszenario über mehrere Schränke im System weiterhin voraussichtlich das Wachstum des optischen Modulverhältnisses im Vergleich zu den einzelnen Schränken fördern wird. Chip-Verbindungslösung. Es wird erwartet, dass die Kombination dieser beiden Faktoren die steigende Nachfrage nach optischen Hochgeschwindigkeitsmodulen im Computing-Ökosystem der neuen Generation ankurbeln wird.

GB200-Computing-Cluster-Netzwerkarchitektur
GB200-Computing-Cluster-Netzwerkarchitektur

Risikofaktoren

  1. Die Produktionskapazität für optische 200G-EML-Chips bleibt hinter den Erwartungen zurück. Die Verfügbarkeit einer Produktionskapazität für optische 200-G-EML-Chips kann vorgelagerte Kernrohstoffunterstützung für den ausgereiften Einsatz optischer 1.6-T-OSFP-XD-Module bieten. Angenommen, der Produktionszeitplan oder die Hochlaufgeschwindigkeit von optischen 200G-EML-Chips bleibt hinter den Erwartungen zurück. In diesem Fall könnte sich die Brancheneinführung von 1.6T verzögern, was Auswirkungen auf das Versandvolumen von 1.6T optischen OSFP-XD-Modulen im Jahr 2025 hätte.
  2. Die Nachfrage der KI-Branche bleibt hinter den Erwartungen zurück. Während die digitale und intelligente Transformation der Gesellschaft voranschreitet, beschleunigt sich der Einsatz großer KI-Modelle, um verschiedene Branchen zu stärken. FiberMall ist davon überzeugt, dass die florierende Entwicklung der künstlichen Intelligenz den nachhaltigen Anstieg des Bedarfs an Rechenleistung vorantreibt, was wiederum die Nachfrage nach KI-Hardware wie Servern, optischen Modulen und Switches steigert. Wenn der Einsatz großer KI-Modelle oder -Anwendungen hinter den Erwartungen zurückbleibt oder der Weg zur Kommerzialisierung behindert wird, kann sich dies negativ auf die Investitionsintensität und Entschlossenheit der Teilnehmer der KI-Branche, vertreten durch führende Cloud-Anbieter, in KI-bezogene Infrastruktur auswirken, was Auswirkungen haben könnte das Marktwachstum und die Produktiterationsgeschwindigkeit von Upstream-KI-Hardwaregeräten.

Hinterlasse einen Kommentar

Nach oben scrollen