FiberMall은 ChatGPT가 제공하는 광 트랜시버를 포함한 AI 인프라를 추정했습니다.
기존 데이터 센터와의 차이점은 인피니밴드 AI에 공통적인 팻 트리 구조, 더 많은 스위치가 사용되며 각 노드에서 업스트림 및 다운스트림 포트 수가 동일합니다.
NVIDIA에서 사용하는 AI 클러스터링 모델에 해당하는 기본 단위 중 하나는 SuperPOD입니다.
표준 SuperPOD는 140개의 DGX A100 GPU 서버, HDR InfiniBand 200G로 구축됩니다. NIC, 각각 170G 및 8790개의 포트가 있는 200개의 NVIDIA Quantum QM40 스위치.
NVIDIA 솔루션을 기반으로 170개의 스위치가 있는 SuperPOD, 각 스위치에는 40개의 포트가 있으며 가장 간단한 방법은 각각 70개의 서버를 상호 연결하는 것이며 해당 케이블 요구 사항은 40×170/2=3400까지의 실제 배치 상황을 고려하여 4000 케이블. 그 중 구리 케이블의 비율: AOC: 광 모듈 = 4:4:2, 필요한 광 트랜시버 수 = 4000 * 0.2 * 2 = 1600, 즉 SuperPod의 경우 서버: 스위치의 비율 : 광모듈 사용량 = 140: 170: 1600 = 1: 1.2: 11.4
GPT4.0 엔트리 레벨 요구 사항과 유사한 요구 사항에는 약 3750개의 NVIDIA DGX A100 서버가 필요합니다. 이 조건에서 광 트랜시버의 요구 사항은 다음 표에 나열되어 있습니다.
IDC에 따르면 글로벌 AI 서버 시장은 15.6년 2021억 달러, 35.5년 2026억 달러에 달할 것으로 예상된다. 중국 AI 서버 산업의 시장 규모는 6.4년 2021억 달러다. 200-400년 동안 62%의 복합 성장률로 데이터 센터 시나리오에서 빠르게 증가합니다. 글로벌 스위치 포트 출하량은 22년에 26억 870천만 개를 넘어설 것으로 예상되며 시장 규모는 2026억 달러가 넘습니다.
FiberMall은 AI 데이터 센터 아키텍처에서 서버, 스위치 및 광 트랜시버에 대한 수요를 추정합니다. 이 외삽 과정에서 FiberMall은 4:4:2 비율을 사용합니다. 데이터 센터에서 광 모듈의 사용은 궁극적으로 트래픽 수요와 직접적으로 관련됩니다. 이 비율은 최대 용량에서만 존재할 가능성이 높으며 현재 AI 데이터 센터 내 서비스 트래픽이 어떤지 심층적으로 연구할 가치가 있습니다.
관련 상품:
- QSFP-DD-200G-ER4G QSFP-DD ER200 PAM4 LWDM4 4km LC SMF FEC 광 트랜시버 모듈 $2000.00
- QSFP-DD-200G-CWDM4-10 2X100G QSFP-DD CWDM4 10km 듀얼 CS SMF 광 트랜시버 모듈 $1600.00
- QSFP-DD-200G-CWDM4 2X100G QSFP-DD CWDM4 2km CS SMF 광 트랜시버 모듈 $1200.00
- QSFP-DD-200G-SR4 2x 100G QSFP-DD SR4 850nm 70m/100m OM3/OM4 MTP/MPO MMF 광 트랜시버 모듈 $380.00
- QSFP-DD-400G-ER4G QSFP-DD ER400 PAM4 LWDM4 4km LC SMF FEC 광 트랜시버 모듈 $2700.00
- QSFP-DD-400G-LR4 400G QSFP-DD LR4 PAM4 CWDM4 10km LC SMF FEC 광 트랜시버 모듈 $1000.00
- QSFP-DD-400G-FR4 400G QSFP-DD FR4 PAM4 CWDM4 2km LC SMF FEC 광 트랜시버 모듈 $750.00
- QSFP-DD-400G-DR4 400G QSFP-DD DR4 PAM4 1310nm 500m MTP / MPO SMF FEC 광 트랜시버 모듈 $550.00
- QSFP-DD-400G-SR8 400G QSFP-DD SR8 PAM4 850nm 100m MTP / MPO OM3 FEC 광 트랜시버 모듈 $300.00
- QSFP-DD-200G-LR4G QSFP-DD LR200 PAM4 LWDM4 4km LC SMF FEC 광 트랜시버 모듈 $1500.00