스케일 아웃 대 스케일 업: 2028년 AI 네트워크 아키텍처에 대한 통찰력

광통신 제품 및 솔루션 분야의 선도적인 전문 기업인 FiberMall은 글로벌 데이터 센터, 클라우드 컴퓨팅, 엔터프라이즈 네트워크, 액세스 네트워크 및 무선 시스템에 비용 효율적인 옵션을 제공하는 데 전념하고 있습니다. AI 기반 통신 네트워크 분야에 대한 전문성을 바탕으로, FiberMall은 고품질의 가치 중심 광통신 솔루션을 찾는 고객에게 완벽한 파트너입니다. 이 블로그에서는 스케일아웃(Scale-out)과 스케일업(Scale-up)의 핵심 논쟁을 중심으로 진화하는 AI 네트워크 아키텍처의 세계를 심층적으로 살펴보겠습니다. 2028년의 예측을 살펴보고, 높은 처리량, 높은 기수(Radix), 높은 신뢰성, 낮은 지연 시간, 낮은 전력 소비, 그리고 저비용이라는 트렌드를 강조합니다. FiberMall이 고급 광 상호 연결을 통해 귀사의 AI 네트워킹 요구를 어떻게 지원할 수 있는지 자세히 알아보려면 공식 웹사이트를 방문하거나 고객 지원팀에 문의하십시오.

AI 네트워크는 빠르게 발전하고 있으며, 인프라의 미래를 대비하기 위해서는 스케일아웃과 스케일업의 차이점을 이해하는 것이 매우 중요합니다. 이 글에서는 최신 트렌드와 전문가의 인사이트를 바탕으로 2028년의 전망을 예측해 보겠습니다. 수직 확장(스케일업)이든 수평 확장(스케일아웃)이든, 이러한 아키텍처는 차세대 AI 시스템의 토대가 될 것입니다.

차례

요약: 미래 AI 네트워크 아키텍처 예측

AI 네트워크의 미래는 "3가지 고3가지 저"를 향해 계속 발전할 것입니다. 높은 신뢰성, 높은 처리량, 높은 기수, 낮은 비용, 낮은 지연 시간, 낮은 전력 소모입니다.

AI 네트워크의 변화는 놀라울 정도로 빠르게 진행됩니다. 2025년 전만 해도 DeepSeek은 주목받지 못했지만, 이제 DeepSeek의 국내 슈퍼노드 네트워크는 엄청난 변화를 겪었습니다. 2028년부터 2028년까지, 앞으로 XNUMX년 동안 어떤 더 인기 있는 대형 모델이 등장할지 누가 알겠습니까? XNUMX년 후의 AI 네트워크 수요를 예측하는 것은 쉽지 않습니다. 반면, AI 스위치 칩 개발에는 XNUMX년이 걸리므로, 칩 요구 사항과 사양을 정의하기 위해서는 XNUMX년의 AI 네트워크에 대한 명확한 비전이 필요합니다.

저자는 2025년 여름, 2028년 AI 네트워크 아키텍처 트렌드를 예측해 보고자 합니다. 이처럼 빠르게 변화하는 혁신 중심 환경에서는 아이디어가 있는 것이 없는 것보다 낫습니다. 100% 정확하지는 않을 수 있지만, 기술적 방향을 대략적으로라도 정확하게 잡는 것이 중요합니다. 나중에 세부적으로 조정할 수 있으니까요.

  • 3계층에서 2계층 네트워킹으로 전환하여 여러 개의 플레인이 있는 단일 레일에서 2만 개의 카드에 대한 100,000계층 CLOS를 구현합니다.
    • Radix=100인 512T 스위치 칩은 512×512/2=128,000개의 카드를 지원합니다.
  • 800G AI-NIC는 다중 플레인 팻 트리 네트워킹을 위해 여러 포트로 분할됩니다(DeepSeek 논문에서 발췌).
    • 800G NIC는 4개의 200G 포트로 나뉘어 4개의 독립된 플레인에 접속합니다. 단일 QP는 패킷 스프레이 방식으로 4개의 포트를 구동합니다.
  • Scale-Out과 Scale-Up의 융합으로 100,000만 장의 카드(Huawei UB-Mesh 용지)에 대한 단일 레이어 CLOS가 가능해졌습니다.
  • 224G 광 상호연결이 기본 형태이며, 프레임 내 케이블 상호연결과 프레임 간 융합이 가능합니다.
    • 프레임 내는 TP(케이블)로 종료되고, 프레임 간은 EP(광 상호 연결)를 사용합니다. 수렴을 위해 프레임 내 대역폭/프레임 대역폭은 2~4배입니다.
    • 광모듈의 월간 플랩율은 2.9%로 케이블보다 100배나 낮습니다. 이를 해결하려면 블랙박스 핵심 기술이 필요합니다.
  • 프레임 기반 네트워킹: 프레임 간 일회성 CLOS 스위칭, 128~8,000개 카드.
    • 첫 번째 홉은 케이블 백플레인 상호연결을 사용하여 안정성을 100배 높였습니다.
    • 일부 프레임에서는 백투백, nD-Mesh, 토러스 등을 사용할 수 있습니다.
  • 박스 기반 네트워킹: 박스 간 일회성 CLOS 스위칭, 128~1,024개 카드.
    • 과제: 첫 번째 홉은 플랩 속도가 100배 더 높은 광 상호 연결입니다.

스케일업 및 스케일아웃 네트워킹의 융합:

  • 주요 이점: 신뢰성이 10배 이상 향상되었습니다.
  • 기타 이점: 대역폭 공유, 비용 절감, 유지 관리 작업 부하 감소.
  • 광 링크는 케이블보다 신뢰성이 100배나 낮기 때문에 신뢰성이 높은 링크 수준 상호 연결 기술이 필요합니다.
  • 스케일업 네트워크는 주로 224G LPO/NPO를 사용하고 DSP는 보조적입니다.
    • LPO/NPO는 3가지 장점으로 인해 중요합니다. a) 60% 전력 절감, b) 120ns 지연 시간 절감, c) 비용 절감.
    • CPO는 필수적이지 않으며 생태계 분리 문제가 있습니다. LPO/NPO가 CPO를 대체할 수 있습니다.
  • 스케일아웃 네트워크는 플러그형 DSP, DPO/LRO를 주요 형태로 고수합니다.
    • DSP가 없는 LPO/XPO는 상호 운용성 문제로 인해 널리 사용되지 않을 것입니다.
  • 224G 광 상호연결은 112G에 비해 비용 면에서 엄청난 이점이 있어 주류가 되고 있습니다.
    • 실리콘 포토닉스 OE가 50% 적고, 광섬유도 50% 적고, 케이블 커넥터도 50% 적습니다. 비트당 224G 비용은 2G의 3/112입니다.
    • SU 대역폭은 SO의 10배입니다. SU는 가장 많은 광 모듈을 사용합니다. 국내 GPU는 8:4 리타이머를 사용하여 112G 전기 신호를 224G 광 신호로 변환할 수 있습니다.

이 기사의 나머지 부분에서는 이러한 결론에 대해 자세히 설명합니다.

2025년 현재 AI 네트워크 상태: 독립적인 SU/SO/VPC 네트워킹

UEC 포럼의 다이어그램[1]은 세 가지 네트워크와 AI 상호 연결을 보여줍니다. 이 문서에서는 이에 대해서도 소개합니다.

Huawei CloudMatrix384는 SU(LD/ST), SO(RDMA), VPC의 세 개의 독립 네트워크로 구성된 910C의 현재 네트워크 구조를 공개했습니다.

스케일업 네트워크

추론 및 학습 모두에 사용되며, 주로 TP 모델 병렬 트래픽과 EP 전문가 병렬 트래픽에 사용됩니다. 현재 DeepSeek은 256개의 MoE 전문가를 보유하고 있으며, 추론을 위해 320개의 대용량 EP 병렬을 제안하고 있습니다. Kimi K2는 384개의 전문가를 보유하고 있으며, 향후 DeepSeek은 1,024개의 MoE 전문가로 확장될 것이라는 소문이 있습니다. 현재 대표 카드: NVLink 72개 카드, Huawei CloudMatrix 384개 카드(아래 참조):

Huawei CloudMatrix 384카드 구조

스케일아웃 네트워크

주로 DP/PP 병렬 학습에 사용됩니다. 현재 학습은 100,000만 장의 카드로 확장됩니다. 네트워킹은 AI-NIC 또는 통합 NIC AI 칩에서 DP는 계층적일 수 있습니다. 먼저 슈퍼 노드에서 ReduceScatter를 사용하여 수렴한 후, 스케일 아웃 방식으로 확장하여 SO 대역폭 요구를 더욱 줄입니다. 현재 대표 네트워크: HPN 7.0(Sigcomm '24 논문 [3]), Tencent Xingmai 네트워크(Sigcomm '25 논문 [4]), 특징: 3계층 CLOS, 8개 레일, NIC 2x200G 듀얼 플레인.

HPN 7.0 네트워크 다이어그램

VPC 네트워크

VPC 네트워크는 VxLAN 등을 위한 CPU 상의 DPU이며, 외부 스토리지에 연결됩니다. 현재 세 개의 네트워크는 분리되어 있으며, 향후 3-XNUMX 또는 XNUMX-XNUMX과 같이 통합될 예정입니다. 현재 DCN은 일반적으로 TOR+Spine+Core XNUMX-layer CLOS입니다.

프런트엔드 네트워크

미래 AI 네트워크 설계 원칙

"3개의 고점과 3개의 저점" 원칙

장점 3가지: 높은 처리량, 높은 신뢰성, 높은 기수. 단점 3가지: 낮은 비용, 낮은 지연 시간, 낮은 전력.

데이터 지역성 원칙: 상호 연결 대역폭이 점진적으로 수렴됨

대규모 모델 전문가의 대략적인 공식: TP = 5x EP = 50x DP = 100x PP.

물리적 구현:

  • 랙 대역폭 > 슈퍼노드 스케일업 대역폭 > 클러스터 스케일아웃 대역폭.
  • TP는 저가형 케이블을 사용하여 랙에서 종료되며 최대 대역폭을 제공합니다.
  • EP는 LPO/NPO 광 모듈, 중간 대역폭, 균형 잡힌 비용/전력을 갖춘 슈퍼 노드로 종료됩니다.
  • DP/PP는 Scale-Out 방식으로 최소 대역폭과 최저 비용을 적용합니다. DP 계층 구조: 먼저 슈퍼 노드에서 ReduceScatter를 실행한 후 Scale-Out 방식을 사용합니다.

단순화된 스위칭 아키텍처 원리: 클러스터 3계층에서 2계층으로, 슈퍼 노드 2계층에서 1계층으로

  • 클러스터 SO: 3단에서 2단으로, 2단 100,000만장.
  • 슈퍼노드 SU: 2단에서 1단으로, 1단 1,024장.
  • "심플한 코어, 스마트한 에지": AI는 가장 단순하고 지능적인 에지 AI-NIC/IO-Die로 전환합니다.
  • 대규모 DF+ 변형 아키텍처는 너무 복잡해서 가능성이 낮습니다. CLOS는 간단하고 유연합니다.

2028년을 위한 확장형 네트워크 아키텍처에 대한 통찰력

텐센트, 3단에서 2단으로 2만장 카드 공급 제안

Scale-Out이 독립적으로 유지된다면 3계층에서 2계층으로, 2계층 100,000만 장 카드로 변경하는 것이 좋습니다. 이 아이디어는 텐센트 동료에게서 처음 나왔습니다. Radix=512 스위치를 사용합니다. 화웨이의 양산형 50T 칩은 512계층 2만 장 카드에 대해 Radix=100,000를 지원합니다.

Radix=512: 2단 CLOS 용량 = 512*512/2 = 131,072장. 단일 레일, 다중 레일 없음.

100계층 2 카드의 100,000T 스위치의 경우, 각 포트는 200GE입니다. GPU 스케일아웃의 일반적인 대역폭은 800G이므로 4개의 독립 플레인이 있습니다. AI-NIC는 트래픽을 4개의 플레인으로 분할하고, 패킷당 로드 밸런싱을 수행하며, 하나의 QP가 4개의 포트를 구동합니다. 단일 레일 + 다중 플레인으로, MoE(MoE)에 더욱 친화적입니다.

3계층에서 2계층 CLOS로: 각 GPU는 2개의 광 모듈을 저장하고(6에서 4로, -33%), 스위치는 2개의 포트를 저장합니다(5에서 3으로, -40%).

256개 카드가 동일한 스위치 단일 레일에 접근합니다. 지연 시간과 트래픽 충돌이 최소화됩니다.

Radix=512는 수동 셔플을 요구합니다. 광섬유 최소 입도 4L이지만 100T는 출력 512x224G를 1차선 플러그로 전환합니다. 해결책:

  • 외부 광학 셔플: 4×4 수동 크로스오버, 손실 1.6dB.
  • 내부 광/전기 셔플. Huawei 100T(2x50T)는 케이블 셔플 기능을 제공합니다. NVIDIA 400T CPO는 4x100T 칩을 사용한 내부 수동 광 셔플 기능을 제공하며, 각각 512개의 스위치에 4x4L 커넥터를 출력합니다.
광학 전기 셔플 다이어그램

DeepSeek는 다중 포트 다중 플레인(예: 800G NIC에서 4x200G 포트까지)을 제안합니다.

DeepSeek ISCA 논문: 미래의 스케일아웃은 다중 플레인으로 구성되며, 각 NIC는 4개의 업링크 플레인으로 구성됩니다. 이상적으로는 하나의 QP가 4개의 플레인을 구동합니다.

이상적인 다중 평면 네트워크

이 4포트 NIC는 2계층 100,000 카드에 완벽하게 맞습니다. 100T 스위치는 512x200G 포트로 분할되고, 800G AI-NIC는 전체 대역폭을 위해 4x200G로 분할됩니다. 4개의 포트는 4개의 독립된 CLOS 플레인으로, 각 플레인은 100,000포트(포트당 200GE)를 지원합니다.

가정: 플로우 해시 정적 라우팅이 아닌 패킷 스프레이 기반 미래 확장. AI-NIC는 패킷을 라운드 로빈 방식으로 4개의 플레인에 스프레이합니다. 수신자는 비순차적 라우팅을 지원하고 메모리 쓰기에 DDP를 사용합니다. 비트맵을 사용한 소스/목적지 완료 순서 지정을 통해 수신된 모든 데이터를 확인합니다.

참고: Radix=512인 경우 DeepSeek의 다중 레일은 불필요합니다.

멀티 레일은 용량을 확장하지만 MoE all2all에는 불리합니다. DeepSeek은 IB에서 NVLink로의 PXN이 데이터 이동에 20 SM을 사용한다고 지적합니다. DeepEP EP144 추론은 멀티 레일을 사용하지 않습니다.

Huawei UB-Mesh, 스케일업 및 스케일아웃 융합, 단일 레이어 100,000만 카드 제안

Huawei UB-Mesh는 스케일아웃과 스케일업을 융합하여 단일 네트워크를 간소화합니다. 단순한 설명이 아닙니다. HRS 50T 칩(512x112G)과 같은 부품 개발은 세계 최초의 SU/SO용 2024중 네트워크 융합 기술로, 2025년 국경절에 출시되어 XNUMX년에 양산될 예정입니다.

1,024P 슈퍼 노드를 가정하고 스케일 아웃 계층(예: UBoE RoCE 스위치)을 추가하면 1,024×128=120,000개, 1,024×256=250,000개, 1,024×512=500,000개의 카드로 확장됩니다.

스케일아웃 100T 라딕스: 각각 128, 256, 512. 참고: 1,024:900 업링크를 위해 슈퍼 노드 9개 카드를 1개로 확장합니다. 세부 사항은 약간 다릅니다.

2028년을 위한 확장형 네트워크 아키텍처에 대한 통찰력

프레임 기반 슈퍼노드 스케일업 스위칭의 장단점

장점:

  • 높은 신뢰성: 첫 번째 홉 케이블 백플레인은 광 모듈보다 100배 더 안정적입니다. Scale-Up에 필수적입니다(세 번 말해보세요!).
  • 데이터 지역성 수렴: 프레임 내 전기적 상호 연결 고대역폭, 2:1 또는 4:1 수렴을 ​​갖춘 프레임 간 광학적 상호 연결.
  • 간편한 확장: 8프레임=512장, 16프레임=1,024장. UB-Mesh는 128프레임=8,000장, 선형 확장을 지원합니다.

단점 :

  • 케이블 트레이가 많으면 생산량과 가공에 어려움이 따릅니다.
  • 액체 냉각 캐비닛에는 특정 데이터 센터가 필요합니다.
  • 프레임 내/프레임 간 3레벨 스위칭: XNUMX홉, 높은 지연 시간/비용.

스케일업 프레임 네트워킹은 OCP에 오픈 소스로 공개된 NVL72 프레임으로 시작합니다. 국내 OTT(텐센트 ETH-X, 알리바바 ALS, 바이트댄스 다유)는 다음과 같은 구성을 갖습니다. a) 8~12개의 넷 보드; b) 약 16개의 컴퓨팅 보드; c) 1-레벨 CLOS 인트라 프레임용 케이블 트레이 백플레인; d) 프레임 간(백투백 또는 L2 스위치) 넷 보드 확장 포트.

  1. Tencent ETH-X: 8개 프레임=512개 카드
ETH-X 프레임 디자인

프레임 50-CLOS 계산: 넷보드 64T 칩, 내부 400x64G에서 64개 XPU까지; 외부 400x32GE(800개 OSFP 2G 모듈)에서 L2 스위치까지. 확장성은 우수하지만 XNUMX단계 CLOS가 필요합니다.

  1. ByteDance Dayu 캐비닛: 단일 프레임 128개 카드, 백투백 듀얼 256개 카드, L2 확장 가능성

넷보드 4~8개, 각 50T 칩. 내부 128x200GE 또는 64x400GE; 외부 64x400GE (32x800G 광). 백투백 DAC 케이블. 프레임당 최대 128개의 AI 칩, 듀얼 256. 2/512 카드에 ETH-X와 같은 L1,024 슬롯 추가가 용이합니다.

  1. 알리바바 ALS 캐비닛

“UALink와 협력하여 Alibaba Cloud Panjiu AI Infra 2.0 서버가 2024 OCP 글로벌 서밋에서 데뷔” [8]: NVL72/ETH-X와 유사하며 UALink 64L/80L 칩 덕분에 288-320개의 AI 칩이 탑재되었습니다.

  1. Huawei UB-Mesh: 512-8,000개 카드

UB-Mesh 논문에 따르면, 각 프레임에는 64개의 AI 칩이 있습니다. 각 칩은 UBx72 인터페이스를 사용합니다. X/Y 메시용 56L, nD-Mesh 또는 CLOS를 외부 UB 스위치로 사용하는 외부 프레임용 16L입니다.

프레임 수에 따른 용량, 최대 8,000; 256/512/1,024, 선형 비용. 유일한 차이점은 광섬유 길이가 지연 시간에 영향을 미친다는 것입니다(100m=1us RTT).

512단계 CLOS 박스 기반 슈퍼 노드: 1,024-XNUMX개 카드

프레임의 단점? 해결책: 박스 네트워킹. AI 시스템, 8장짜리 박스에서 64장짜리 프레임으로 진화하다. 이제 다시 박스로.

라우터를 다루는 사람이라면 누구나 알고 있는 사실입니다. 16개의 라인 카드를 16개의 박스로 바꾸고, 파이버를 넷보드로 연결하는 것이죠. 오랫동안 논의되어 왔지만 라우터에서는 실현되지 않았습니다. 하지만 AI에서는 실현 가능합니다.

전환 이점: 3층에서 1층으로, 등대등 듀얼 캐비닛보다 상호 연결 비용/전력이 낮습니다.

백투백: 각 GPU에 스위치 포트 2개 + 고가 케이블 백플레인. 1단 박스: 포트 3개. "XNUMX가지 단점": 낮은 지연 시간, 비용, 전력 소모.

중앙 스위치 기수별 용량: 100T=512x224GE=512장, 200T=1,024x224G=1,024장.

100장의 카드를 담으려면 1,024T에서 112x1,024G로 늘리는 건 어떨까요? 여러 가지 이유로 적합하지 않습니다.

단점: 광 모듈의 신뢰성이 낮습니다!

첫 번째 홉 광: 높은 플랩 속도. 프레임 단위에서 첫 번째 홉 케이블; 스위치가 플랩을 처리합니다. Huawei 50T SU/SO 퓨전 스위치는 패킷 손실률 0%에 탁월합니다.

상자 안에서 XPU는 광학 플랩을 직접 처리합니다. 더 어렵습니다.

  • 모든 XPU가 광학 플랩을 경험하는 것은 아닙니다.
  • 스위치 64 광 포트: 1개 손실, 1/64 대역폭 손실. XPU 1 포트 손실: 심각한 영향.
  • 백업 전환이 다양하고, 백업이 제한적이며, 성능이 크게 저하됩니다.

메타 논문: 케이블을 이용한 AI-NIC to TOR는 광케이블보다 안정성을 100배 향상시킵니다. 메타의 최신 랙: SU/SO 퍼스트 홉 케이블 백플레인.

상태 1: 광학 플랩/고장 100배 케이블 오류율; 업계에서는 가능한 경우 케이블을 사용합니다.

슈퍼노드 광 상호 연결은 신뢰성 문제를 해결해야 합니다: 광 패킷 손실(플랩 포함) 100배 이상 케이블 백플레인. OCP 데이터[11]:

광학 및 AEC

광학적 결함: 1) 모듈 고장(90% 레이저); 2) 링크 플랩(구조상 먼지, 구부러짐).

날짜 :

  • 링크 실패: HPN7.0: 0.057% NIC-ToR 월별.
  • 플랩: OCP가 50~100배 더 높습니다. 매달 50배=2.9%를 받습니다.

경험과 일치함.

NVIDIA GH200 256카드 NVLink 광학 케이블(미사용). AWS에서는 32카드 케이블을 사용했습니다. 광학 안정성 문제일 가능성이 높습니다.

512카드 슈퍼노드: 각 카드는 32L 파이버=8x400G DR4입니다.

LD/ST는 손실에 민감합니다. 체크포인트 롤백 20분은 허용되지 않습니다.

UALink: 최대 4프레임 케이블, 광학은 아직 없음.

확장형: RDMA 엔드 측 재전송(20초)은 go-back-N을 통해 1~4초 플랩을 처리합니다.

상태 2: Huawei CloudMatrix384 및 UB-Mesh는 광학 문제를 해결하고 신뢰성을 선도합니다.

NVIDIA NVL72/NVL576 케이블. 광 스케일업: 안정성이 100배 저하됩니다.

SU LD/ST 전체 전송 계층 없음; 플랩 주요. Huawei 체계적 솔루션: 장애 100배 이상 감소, 케이블 기준 충족/초과.

CloudMatrix384: 6,912개 모듈(5,376개 슈퍼 노드). 2.9% 플랩: 155/월=5.2/일.

솔루션: 고가용성 Nebula AI 모듈, 스위치 Flex Packet-Routing 0손실, NPU 소프트웨어.

플렉스 패킷 라우팅(50T UB-Mesh 칩: 512x112G, tri-fusion, 2024년 출시, 2025년 대량 생산): 플랩/오류에 대한 개인 핸드셰이크 L1/L2=손실 0.

부하 공유: 64개 파이버에서 1개가 손실되고, 패킷은 모든 L63을 통해 1개로 분사됩니다. 손실은 1/64이고 NPU는 인식하지 못합니다.

NPU 첫 번째 홉 케이블을 L1에 연결: 광학적 느낌이 없고 안정성이 높습니다.

박스 시스템: NPU 직접 광학 = L1이 됨; IO 다이의 플렉스 - 더 높은 복잡성.

Fuse Scale-Up 및 Scale-Out을 선택해야 하는 이유: 주요 이점: 10배 이상의 안정성

화웨이 최초의 트라이퓨전: UB-Mesh SO/SU 퓨전, 50T HRS 양산. UALink/SUE는 아직 미지원; NVLink는 이전 기술이며 퓨전 없음.

이점:

  • SU/SO 대역폭 통합: DeepSeek 논문은 20개의 SM 데이터 이동을 피하기 위해 통합을 실시했습니다.
  • 네트워크 병합: 비용과 유지관리가 낮아집니다.
  • SO 안정성을 10배 이상 향상: SU 케이블+L1/L2 고신뢰성을 재사용합니다.

예 :

  • ETH-X 첫 번째 홉 케이블: 100x 광.
    • 독립 SO 2계층 100k: NIC 업링크 광학—10x 오류(레이저), 100x 플랩.
  • ETH-X 넷보드 64 광: 1=1.6% 대역폭 손실.
    • 독립 SO: 800G NIC 4x200G=3+1 백업, 손실 1=25%; 듀얼 포트=50%.

UB-Mesh는 통합 또는 분리를 지원하며, VPC+SO 병합도 가능합니다. 고객 선택에 따라 선택 가능합니다.

LPO/NPO는 스케일업에 최적

CloudMatrix384 분석 이후: 높은 모듈 전력. 양적 분석: 국내 GPU 32x112G=4x800G end+4 switch.

DPO 800G=15W, 8개=120W. LPO=6W, 8개=48W.

1,200W XPU 대비: 4-10% 높음? 경우에 따라 다릅니다.

LPO가 4%로 낮아져 의미가 있습니다.

2028년: GPU 상호 연결이 두 배로 증가, 전력 절감을 위해 LPO/NPO가 중요해짐.

보기: 2028년 LPO/NPO 최적 규모 확대를 위한 "3H3L":

  • 저렴한 비용: oDSP를 제거하면 화이트 라벨당 약 100달러가 절감됩니다(3nm oDSP는 비쌈).
  • 저전력: oDSP 10%; LPO 4%.
  • 낮은 지연 시간: oDSP가 없어 방향당 60ns를 절약합니다. RTT 4개 링크=240ns.
  • 신뢰성: 10°C 낮은 온도로 신뢰성이 두 배로 향상됩니다. 800G LPO 6W 대 oDSP 15W, 1.6T LPO ~10W 대 25W.

SU에서 극복된 LPO/NPO의 단점:

  • 상호 운용성이 낮음: 슈퍼노드 내부 폐쇄 루프, 단일 공급업체.
  • BER 1-2는 더 나쁜 순서를 지시합니다: SU 링크 수준 재전송; 사후 수정 1E-10은 충분합니다.

DSP 플러그형 모듈은 여전히 ​​확장형 주류를 유지

SO에는 DSP 모듈(800G/1.6T)이 주류입니다. LPO/NPO의 단점은 SO에서 사용하기 어렵다는 것입니다. 대규모(100만 카드), 여러 공급업체, 장거리, 링크 수준 재전송 없음(대형 버퍼), 더 높은 BER 요구 사항.

LRO는 LPO보다 DSP 전력을 50% 절약하고 상호 운용성/BER이 우수하며 2028 SO에 적합합니다.

Huawei는 높은 신뢰성, 낮은 전력, 낮은 지연 시간의 광학 기술을 위해 협력하고 있습니다.

224년까지 112G보다 2028G 속도가 더 우수

100T 이더넷 칩: 1,024L112G 또는 512L224G. 2028: 어느 것이 비용 효율적입니까?

1.6T=8x224G; 800G=8x112G.

오늘: 1.6T >2x800G 가격. 112G는 현재 합리적입니다.

2028-30년 예측: 1.6T=1.2-1.4x 800G (LPO/DSP). 확실한 이점. 1.6T 시스템은 1,000x2G 대비 800위안 절감, 100T 시스템: 1,000x64=64,000위안.

112G의 경우 더블 파이버가 추가됩니다. 224G가 승리합니다. 2028년: 1,024x224G=200T 칩이 될 가능성이 크며 112G는 아닙니다.

국내 GPU 2024 112G? 문제없습니다. 910B/C는 56G지만 50T는 512x112G로 전환합니다. DSP 리타이머 8:4는 8x112G를 4x224G로 변환합니다.

상자형 슈퍼 노드와 프레임형 슈퍼 노드가 공존합니다

매개 변수모듈형 인터페이스 카드(64카드 섀시 네트워크)분산형 슈퍼 노드(8카드 양자 네트워킹)
레벨 전환2단계 CLOS1단계 CLOS
스위치 포트 수1:31:1
광 모듈 수량1.21.2
상호 연결 비용 비교20%10%
숨어 있음낮음(1홉 스위치)높음(3홉 스위치)
신뢰성높음. GPU는 1/2 네트워크 세그먼트 전원 케이블을 사용합니다. 스위치 장애 발생 시, 광 포트 연결 해제를 처리하기 위해 GPU IO가 재연결되어야 합니다. 그러나 스위치 교체에는 문제가 있습니다.약함. 광 포트 연결 해제를 처리하기 위해 GPU IO에 재연결이 필요합니다.
하중높은 부하, 최대 8,000장 카드저렴한 가격 공기 냉각 지원
노드비용이 많이 들고, 액체 냉각 장치실이 필요함소규모, 최대 512장

상자: 낮은 지연 시간/비용/전력. 32L/GPU: 프레임 20% 시스템 비용; 상자 10%.

프레임: 규모가 크고 신뢰성이 더 좋습니다.

2028년: 두 가지가 공존합니다. 많은 사람들이 케이블 내부 안정성을 위해 프레임 방식을 선호합니다.

전문가 토론: 광학 플랩 LD/ST 신뢰성을 해결하면 박스로 이동하고, 그렇지 않으면 프레임으로 이동.

UB는 두 가지 모두를 지원하며, 무손실 플랩을 위한 엔드넷 시너지 효과를 통해 박스에서 탁월한 성과를 보입니다. 박스 절반 가격(0%에서 20%)은 매력적입니다.

결론적으로, 2028년 AI 네트워크의 스케일업(Scale-up)과 스케일아웃(Scale-out) 논쟁은 안정성, 성능, 그리고 비용의 균형을 중심으로 진행됩니다. 스케일업은 고밀도의 안정적인 슈퍼노드 내부 연결에 중점을 두는 반면, 스케일아웃은 대규모 수평 확장을 가능하게 합니다. Fusion은 이 두 가지 장점을 모두 제공합니다. FiberMall은 AI에 최적화된 광 솔루션을 통해 이러한 트렌드를 선도하고 있습니다. 224G LPO/NPO 모듈 등에 대한 자세한 내용은 당사 웹사이트를 방문하세요.

위쪽으로 스크롤