FiberMall hat die KI-Infrastruktur hochgerechnet, einschließlich optischer Transceiver, die ChatGPT auf den Tisch bringt.
Der Unterschied zu einem herkömmlichen Rechenzentrum besteht darin, dass mit der InfiniBand Bei einer dicken Baumstruktur, die der KI gemeinsam ist, werden mehr Switches verwendet, und die Anzahl der Upstream- und Downstream-Ports an jedem Knoten ist identisch.
Eine der Grundeinheiten, die dem von NVIDIA verwendeten KI-Clustering-Modell entspricht, ist der SuperPOD.
Ein Standard-SuperPOD ist mit 140 DGX A100-GPU-Servern, HDR InfiniBand 200G, ausgestattet NICsund 170 NVIDIA Quantum QM8790 Switches mit jeweils 200G und 40 Ports.
Basierend auf der NVIDIA-Lösung, einem SuperPOD mit 170 Switches, hat jeder Switch 40 Ports, und der einfachste Weg besteht darin, jeweils 70 Server miteinander zu verbinden, und der entsprechende Kabelbedarf beträgt 40 × 170/2 = 3400, wenn man die tatsächliche Bereitstellungssituation berücksichtigt 4000 Kabel. Darunter das Verhältnis Kupferkabel: AOC: optisches Modul = 4:4:2, entsprechend der Anzahl der benötigten optischen Transceiver = 4000 * 0.2 * 2 = 1600, also für einen SuperPod das Verhältnis Server: Switch : Verwendung des optischen Moduls = 140: 170: 1600 = 1: 1.2: 11.4
Eine Anforderung ähnlich den GPT4.0-Einstiegsanforderungen erfordert etwa 3750 NVIDIA DGX A100-Server. Die Anforderungen an optische Transceiver unter dieser Bedingung sind in der folgenden Tabelle aufgeführt.
Laut IDC beläuft sich der weltweite Markt für KI-Server im Jahr 15.6 auf 2021 Milliarden US-Dollar und wird voraussichtlich bis 35.5 2026 Milliarden US-Dollar erreichen. Die Marktgröße der chinesischen KI-Serverindustrie beträgt 6.4 Milliarden US-Dollar im Jahr 2021. Laut IDC-Daten werden Lieferungen von 200/400G-Ports erwartet in Rechenzentrumsszenarien schnell wachsen, mit einer durchschnittlichen Wachstumsrate von 62 % von 22 bis 26 Jahren. Es wird erwartet, dass die weltweiten Lieferungen von Switch-Ports im Jahr 870 2026 Millionen überschreiten werden, mit einer Marktgröße von über 44 Milliarden US-Dollar.
FiberMall extrapoliert die Nachfrage nach Servern, Switches und optischen Transceivern aus der KI-Rechenzentrumsarchitektur. Bei diesem Hochrechnungsprozess verwendet FiberMall das Verhältnis von 4:4:2. Der Einsatz von optischen Modulen im Rechenzentrum steht letztlich in direktem Zusammenhang mit der Verkehrsnachfrage. Dieses Verhältnis dürfte nur bei Vollauslastung gegeben sein, dennoch lohnt es sich, eingehend zu studieren, wie der Service-Traffic innerhalb des KI-Rechenzentrums mittlerweile ist.
Ähnliche Produkte:
- QSFP-DD-200G-ER4 200G QSFP-DD ER4 PAM4 LWDM4 40 km LC SMF FEC Optisches Transceiver-Modul $2000.00
- QSFP-DD-200G-CWDM4-10 2X100G QSFP-DD CWDM4 10 km Dual CS SMF Optisches Transceiver-Modul $1600.00
- QSFP-DD-200G-CWDM4 2X100G QSFP-DD CWDM4 2km CS SMF Optisches Transceiver-Modul $1200.00
- QSFP-DD-200G-SR4 2x 100G QSFP-DD SR4 850nm 70m/100m OM3/OM4 MTP/MPO MMF Optisches Transceiver-Modul $380.00
- QSFP-DD-400G-ER4 400G QSFP-DD ER4 PAM4 LWDM4 40 km LC SMF FEC Optisches Transceiver-Modul $2700.00
- QSFP-DD-400G-LR4 400G QSFP-DD LR4 PAM4 CWDM4 10 km LC SMF FEC Optisches Transceiver-Modul $1000.00
- QSFP-DD-400G-FR4 400G QSFP-DD FR4 PAM4 CWDM4 2 km LC SMF FEC Optisches Transceiver-Modul $750.00
- QSFP-DD-400G-DR4 400G QSFP-DD DR4 PAM4 1310 nm 500 m MTP / MPO SMF FEC Optisches Transceiver-Modul $550.00
- QSFP-DD-400G-SR8 400G QSFP-DD SR8 PAM4 850 nm 100 m optisches MTP / MPO OM3 FEC-Transceiver-Modul $300.00
- QSFP-DD-200G-LR4 200G QSFP-DD LR4 PAM4 LWDM4 10 km LC SMF FEC Optisches Transceiver-Modul $1500.00