컴퓨팅 칩—V100, A100, H100, B200 등
이러한 용어는 인공지능에 대한 논의에서 가장 흔히 사용되는 용어 중 하나입니다. AI 컴퓨팅 카드, 특히 GPU 모델을 지칭합니다.

NVIDIA는 몇 년마다 새로운 GPU 아키텍처를 출시하며, 각 아키텍처는 저명한 과학자의 이름을 따서 명명됩니다. 특정 아키텍처 기반 카드는 게이밍 GPU를 제외하고 일반적으로 아키텍처 이름의 첫 글자로 시작합니다. 예를 들면 다음과 같습니다.
- V100은 볼타 아키텍처(알레산드로 볼타의 이름을 따서 명명)를 기반으로 합니다.
- A100은 앙페르 아키텍처(앙드레 마리 앙페르의 이름을 따서 명명)에서 파생되었습니다.
- H100/H200은 Hopper(그레이스 호퍼의 이름을 따서 명명)에서 유래되었습니다.
- B100/B200은 블랙웰(데이비드 블랙웰의 이름을 따서 명명)에서 유래되었습니다.

"200"으로 끝나는 모델은 일반적으로 "100"으로 끝나는 이전 모델의 업그레이드 버전입니다. 예를 들어, H200은 H100의 향상된 버전으로, HBM3e 메모리와 같은 개선 사항이 적용되었습니다.
L40과 L40s. 이 두 모델은 이름이 약간 다릅니다. 에이다 러브레이스 아키텍처(최초의 여성 프로그래머를 기리는 의미)를 기반으로 합니다. L40s는 L40의 업그레이드 버전입니다. 두 모델 모두 데이터 센터 시장을 겨냥하여 비용 효율성과 성능에 중점을 두고 설계되었습니다.
H20 및 수출 제한 H20은 미국의 수출 제한에 대응하여 개발된 NVIDIA GPU의 변형 버전입니다. 이와 유사하게, B200에도 B20이라는 제한적 버전이 있을 수 있다는 보도가 있습니다.
미래 아키텍처 NVIDIA의 차세대 AI 플랫폼인 루빈(Rubin)은 2026년 출시 예정입니다. 처음에는 많은 사람들이 GPU가 R100/R200으로 명명될 것으로 예상했지만, NVIDIA의 로드맵에서는 X100 시리즈로 제안되어 추측의 여지가 있습니다. NVIDIA는 2028년까지 후속 플랫폼인 파인만(Feynman)을 출시할 계획입니다.
슈퍼칩—GH200, GB200 등
GPU가 NVIDIA 컴퓨팅 성능의 핵심을 이루지만, 회사는 GPU를 넘어 보완적인 솔루션도 개발합니다.
초기 파트너십 및 CPU 개발 초기에 엔비디아는 IBM의 POWER CPU와 협력했습니다. 하지만 성능 문제로 인해 엔비디아는 Grace CPU(ARM 기반)와 같은 자체 CPU 개발을 시작했으며, Vera CPU도 개발 중이었습니다.
NVIDIA는 NVLink 기술을 사용하여 GPU와 CPU를 결합하여 Superchip 플랫폼을 구축합니다. 다음은 그 예입니다.
- GH200(그레이스 CPU + 호퍼 GPU)
- GB200(Grace CPU + Blackwell B200 GPU XNUMX개)
- GB300(블랙웰 울트라)
GB200은 특히 강력하여 H100보다 약 XNUMX배 더 뛰어난 성능을 자랑합니다.

슈퍼컴퓨터 플랫폼—DGX, EGX, IGX 등
더 높은 컴퓨팅 계층에서 NVIDIA는 DGX, EGX, IGX, HGX, MGX를 포함하여 이러한 칩 아키텍처를 기반으로 슈퍼컴퓨터 플랫폼을 개발했습니다.

DGX 시리즈는 잘 알려져 있으며, 젠슨 황은 1세대 DGX-XNUMX을 OpenAI에 선물했습니다.

오늘날의 현대식 DGX 시스템은 일반적으로 시그니처 골드 디자인과 프리미엄 가격을 특징으로 합니다.
데스크톱 애플리케이션의 경우 NVIDIA는 DGX Spark와 DGX Station을 제공하며, 이는 워크스테이션급 머신으로 작동합니다.

노드 내 연결성 - 확장(슈퍼노드) - DGX GB200 NVL72
통신 측면에서 NVIDIA는 GPU를 상호 연결하도록 설계된 기술인 NVLink를 개발하여 PCIe를 효과적으로 대체했습니다. 또한 NVLink를 통해 CPU와 GPU를 연결합니다.

다중 노드 설정의 경우, NVLink 직접 연결은 비실용적이어서 NVSwitch라고도 하는 NVLink 스위치 칩이 필요하게 됩니다. 시간이 지남에 따라 이러한 칩은 독립형 장치로 발전했습니다.

NVLink는 여러 GPU를 하나의 통합된 논리 노드, 즉 초대규모 컴퓨팅 플랫폼으로 연결할 수 있도록 합니다. 자주 언급되는 구성으로는 DGX GB200 NVL72가 있으며, NVLink5를 다음과 같이 활용합니다.
- 18개의 컴퓨팅 트레이(각 트레이에 GB200 Superchip XNUMX개 포함)
- 9개의 NVLink 네트워크 스위치 트레이
각 컴퓨트 트레이에는 2개의 GB200 슈퍼칩(전체 시스템에서 총 36개의 Grace CPU와 72개의 B200 GPU)이 들어 있습니다.

또한, 200개의 DGX GB72 NVL576 장치를 결합하면 XNUMX개의 GPU를 갖춘 SuperPod 노드를 만들 수 있습니다.
이러한 구조화된 제품 생태계는 AI와 고성능 컴퓨팅 분야에서 NVIDIA의 위치를 정의합니다.

외부 노드 상호 연결: 확장형(IB 및 이더넷)
단일 노드 내에서 GPU를 지속적으로 추가하는 것을 스케일업(수직 확장)이라고 합니다. 하지만 노드가 일정 크기에 도달하면 추가 확장이 어려워집니다. 이 시점에서 노드 수를 늘리고 노드를 상호 연결해야 하는데, 이를 스케일아웃(수평 확장)이라고 합니다.

NVIDIA는 주로 InfiniBand(IB) 기술을 통해 스케일아웃(Scale-Out) 솔루션을 제공합니다. 원래 Mellanox에서 개발한 인피니밴드 NVIDIA가 2019년에 Mellanox를 인수한 후, InfiniBand는 NVIDIA의 독점 기술이 되었습니다. InfiniBand는 제품 이름이 아닌 기술 용어입니다. InfiniBand를 기반으로 한 NVIDIA의 제품 플랫폼은 NVIDIA Quantum입니다.
예를 들어, NVIDIA는 2024년 800월 800Gbps의 엔드 투 엔드 처리량을 달성하는 Quantum-X3400 네트워크 스위치 플랫폼을 공개했습니다. 이 플랫폼에는 Quantum Q8 스위치와 ConnectX-800 SuperNIC 네트워크 카드와 같은 하드웨어가 포함됩니다. 이러한 구성 요소는 더 광범위한 시리즈에 속합니다. Quantum-X2은 이전 모델인 Quantum-8의 후속 제품이며, ConnectX-6은 ConnectX-7과 ConnectX-XNUMX의 후속 제품입니다.

ConnectX 고속 네트워크 카드 역시 Mellanox에서 개발되었습니다. InfiniBand는 두 가지 주요 스케일아웃 솔루션 중 하나이며, 다른 하나는 이더넷입니다. NVIDIA 또한 이 분야에서 Spectrum-X800 플랫폼을 비롯한 제품을 개발했습니다. Spectrum-X800 제품군에는 Spectrum SN5600 스위치와 BlueField-3 SuperNIC 네트워크 카드가 포함되어 있으며, 800Gbps의 높은 처리량을 제공합니다.

BlueField는 데이터 처리 장치(DPU)로서 상당한 주목을 받았습니다. NVIDIA는 Mellanox의 ConnectX 네트워크 카드 기술과 자사의 혁신 기술을 결합하여 2년에 BlueField-2 DPU와 BlueField-2020X DPU를 공식 출시했습니다. 이후 이 기술은 BlueField-3으로 발전했습니다.
또한 NVIDIA는 최근 Spectrum-X Photonics와 Quantum-X Photonics를 포함한 CPO(Co-Packaged Optics) 통합 네트워크 스위치를 출시했습니다.

NVIDIA는 다양한 네트워크 카드, 커넥터, 케이블 등 추가 네트워크 액세서리를 제공하지만, 여기서는 각각에 대해 자세히 설명하지 않습니다.
최근 젠슨 황은 곧 출시될 Rubin 플랫폼에 NVLink 6, ConnectX-9 SuperNIC, Quantum(Spectrum)-X1600이 포함될 것이라고 암시했는데, 이는 기대할 만한 일입니다.
개발 프레임워크: CUDA
NVIDIA의 컴퓨팅 하드웨어 플랫폼과 네트워킹 솔루션에 대해 살펴본 후, 이제는 중요한 소프트웨어 구성 요소인 CUDA에 대해 알아보겠습니다.
엔비디아는 하드웨어와 네트워킹 분야에서 탁월한 역량을 발휘하지만, CUDA 플랫폼은 엔비디아의 핵심 경쟁 우위로 널리 인정받고 있습니다. CUDA(Compute Unified Device Architecture)는 엔비디아가 2006년에 도입한 병렬 컴퓨팅 플랫폼이자 프로그래밍 모델입니다. CUDA를 통해 개발자는 GPU에 직접 코드를 작성할 수 있어 연산 성능이 크게 향상됩니다.
오늘날 CUDA는 프로그래밍 모델, 컴파일러, API, 라이브러리, 도구를 통합하여 지능형 컴퓨팅을 위한 운영 체제 역할을 하며, 사용자가 NVIDIA 하드웨어 기능을 최대한 활용할 수 있도록 돕습니다.
CUDA는 단순한 도구가 아니라 강력한 AI 개발 생태계를 조성하여 NVIDIA 전체 비즈니스 프레임워크의 중추 신경계 역할을 합니다. 많은 AI 개발 프로젝트가 NVIDIA 하드웨어와 CUDA에 크게 의존하고 있으며, 하드웨어 전환은 비교적 간단하지만 생태계 전체를 마이그레이션하는 것은 훨씬 더 어려운 과제입니다.

관련 상품:
-
NVIDIA MMA4Z00-NS400 호환 400G OSFP SR4 플랫 탑 PAM4 850nm 30m on OM3/50m on OM4 MTP/MPO-12 다중 모드 FEC 광 트랜시버 모듈 $550.00
-
NVIDIA MMA4Z00-NS-FLT 호환 800Gb/s 트윈 포트 OSFP 2x400G SR8 PAM4 850nm 100m DOM 듀얼 MPO-12 MMF 광 트랜시버 모듈 $650.00
-
NVIDIA MMA4Z00-NS 호환 800Gb/s 트윈 포트 OSFP 2x400G SR8 PAM4 850nm 100m DOM 듀얼 MPO-12 MMF 광 트랜시버 모듈 $650.00
-
NVIDIA MMS4X00-NM 호환 800Gb/s 트윈 포트 OSFP 2x400G PAM4 1310nm 500m DOM 듀얼 MTP/MPO-12 SMF 광 트랜시버 모듈 $900.00
-
NVIDIA MMS4X00-NM-FLT 호환 800G 트윈 포트 OSFP 2x400G 플랫 탑 PAM4 1310nm 500m DOM 듀얼 MTP/MPO-12 SMF 광 트랜시버 모듈 $900.00
-
NVIDIA MMS4X00-NS400 호환 400G OSFP DR4 플랫 탑 PAM4 1310nm MTP/MPO-12 500m SMF FEC 광 트랜시버 모듈 $700.00
-
Mellanox MMA1T00-HS 호환 200G Infiniband HDR QSFP56 SR4 850nm 100m MPO-12 APC OM3/OM4 FEC PAM4 광 트랜시버 모듈 $149.00
-
NVIDIA MFP7E10-N010 호환 10m(33ft) 8 섬유 낮은 삽입 손실 암-암 MPO 트렁크 케이블 극성 B APC-APC LSZH 다중 모드 OM3 50/125 $47.00
-
NVIDIA MCP7Y00-N003-FLT 호환 3m(10피트) 800G 트윈 포트 OSFP - 2x400G 플랫 탑 OSFP InfiniBand NDR 브레이크아웃 DAC $260.00
-
NVIDIA MCP7Y70-H002 호환 2m(7피트) 400G 트윈 포트 2x200G OSFP - 4x100G QSFP56 패시브 브레이크아웃 직접 연결 구리 케이블 $155.00
-
NVIDIA MCA4J80-N003-FTF 호환 3m(10피트) 800G 트윈 포트 2x400G OSFP - 2x400G OSFP InfiniBand NDR 활성 구리 케이블, 한쪽 끝은 평면 상단, 다른 쪽 끝은 핀형 상단 $600.00
-
NVIDIA MCP7Y10-N002 호환 가능한 2m(7피트) 800G InfiniBand NDR 트윈 포트 OSFP - 2x400G QSFP112 브레이크아웃 DAC $190.00