ChatGPT에는 몇 개의 광 트랜시버가 필요합니까?

FiberMall은 ChatGPT가 제공하는 광 트랜시버를 포함한 AI 인프라를 추정했습니다.

기존 데이터 센터와의 차이점은 인피니밴드 AI에 공통적인 팻 트리 구조, 더 많은 스위치가 사용되며 각 노드에서 업스트림 및 다운스트림 포트 수가 동일합니다.

전통적인 데이터 센터 및 팻 프리 네트워크의 토폴로지

NVIDIA에서 사용하는 AI 클러스터링 모델에 해당하는 기본 단위 중 하나는 SuperPOD입니다.

표준 SuperPOD는 140개의 DGX A100 GPU 서버, HDR InfiniBand 200G로 구축됩니다. NIC, 각각 170G 및 8790개의 포트가 있는 200개의 NVIDIA Quantum QM40 스위치.

NVIDIA 솔루션을 기반으로 170개의 스위치가 있는 SuperPOD, 각 스위치에는 40개의 포트가 있으며 가장 간단한 방법은 각각 70개의 서버를 상호 연결하는 것이며 해당 케이블 요구 사항은 40×170/2=3400까지의 실제 배치 상황을 고려하여 4000 케이블. 그 중 구리 케이블의 비율: AOC: 광 모듈 = 4:4:2, 필요한 광 트랜시버 수 = 4000 * 0.2 * 2 = 1600, 즉 SuperPod의 경우 서버: 스위치의 비율 : 광모듈 사용량 = 140: 170: 1600 = 1: 1.2: 11.4

GPT4.0 엔트리 레벨 요구 사항과 유사한 요구 사항에는 약 3750개의 NVIDIA DGX A100 서버가 필요합니다. 이 조건에서 광 트랜시버의 요구 사항은 다음 표에 나열되어 있습니다.

광 모듈 요구 사항

IDC에 따르면 글로벌 AI 서버 시장은 15.6년 2021억 달러, 35.5년 2026억 달러에 달할 것으로 예상된다. 중국 AI 서버 산업의 시장 규모는 6.4년 2021억 달러다. 200-400년 동안 62%의 복합 성장률로 데이터 센터 시나리오에서 빠르게 증가합니다. 글로벌 스위치 포트 출하량은 22년에 26억 870천만 개를 넘어설 것으로 예상되며 시장 규모는 2026억 달러가 넘습니다.

FiberMall은 AI 데이터 센터 아키텍처에서 서버, 스위치 및 광 트랜시버에 대한 수요를 추정합니다. 이 외삽 과정에서 FiberMall은 4:4:2 비율을 사용합니다. 데이터 센터에서 광 모듈의 사용은 궁극적으로 트래픽 수요와 직접적으로 관련됩니다. 이 비율은 최대 용량에서만 존재할 가능성이 높으며 현재 AI 데이터 센터 내 서비스 트래픽이 어떤지 심층적으로 연구할 가치가 있습니다.

코멘트 남김

위쪽으로 스크롤