Nvidia의 B200 GPU 공개: 전력 소비가 1000W에 도달

Dell은 Nvidia의 차세대 Blackwell AI 칩인 B100을 2024년에, B200을 2025년에 출시할 예정이라고 공개했습니다.

블랙웰

4월 200일 Barron's의 보고서에 따르면 Dell의 고위 임원은 최근 회사 실적 발표에서 Nvidia가 자사의 주력 AI 컴퓨팅 칩인 B2025 GPU를 200년에 출시할 계획이라고 밝혔습니다. B1000의 개별 GPU 전력 소비량은 다음과 같습니다. 100W에 도달합니다. 이에 비해 Nvidia의 현재 주력 제품인 H700 GPU의 전체 전력 소비량은 200W인 반면, Nvidia의 H300 및 AMD의 Instinct MI700X의 전체 전력 소비량은 750W~200W입니다. BXNUMX은 이전에는 Nvidia의 로드맵에 나타나지 않았으며, 이는 회사가 사전에 Dell과 같은 주요 파트너에게 정보를 공개했을 수 있음을 시사합니다.

엔비디아 AI 아키텍처
NVIDIA 데이터 센터/AI 제품 반복 로드맵(출처: NVIDIA)

앞서 공개한 로드맵에 따르면 B100은 차세대 플래그십 GPU, GB200은 CPU와 GPU를 결합한 슈퍼칩, GB200NVL은 슈퍼컴퓨팅 용도로 상호 연결된 플랫폼이다.

NVIDIA 데이터센터 AI GPU 로드맵
NVIDIA 데이터센터/AI GPU 기반 정보 (출처: Wccftech)

Nvidia의 Blackwell GPU 시리즈에는 올해 출시되는 B100과 내년에 출시되는 B200이라는 두 가지 주요 AI 가속 칩이 포함될 예정입니다.

Nvidia의 Blackwell GPU가 단일 칩 설계를 채택할 수 있다는 보고가 있습니다.
Dell Technologies Group의 COO이자 부회장인 Jeffrey W. Clarke가 수익 결산에서 연설하는 녹취록 스크린샷

Nvidia의 Blackwell GPU가 단일 칩 설계를 채택할 수 있다는 보고가 있습니다. 그러나 전력 소비와 필요한 냉각을 고려하면 B100은 생성된 열을 발산하기 위해 더 넓은 표면적을 허용하는 Nvidia 최초의 듀얼 칩 설계일 수 있다고 추측됩니다. 지난해 엔비디아는 TSMC 순수익의 11%를 차지해 애플의 25% 기여에 이어 두 번째로 큰 TSMC 고객이 됐다. 성능과 에너지 효율성을 더욱 향상시키기 위해 Nvidia의 차세대 AI GPU는 향상된 프로세스 기술을 활용할 것으로 예상됩니다.

Hopper H200 GPU와 마찬가지로 100세대 Blackwell B3은 HBM200E 메모리 기술을 활용합니다. 따라서 업그레이드된 B1 변형은 훨씬 더 빠른 HBM 메모리뿐만 아니라 잠재적으로 더 높은 메모리 용량, 업그레이드된 사양 및 향상된 기능을 채택할 수 있습니다. 엔비디아는 데이터센터 사업에 대한 기대가 크다. 지난해 3월 한국 언론 보도에 따르면 엔비디아는 H200과 B100 GPU를 위한 충분한 HBMXNUMXE 재고를 확보하기 위해 메모리 칩 거대 기업인 SK하이닉스와 마이크론에 XNUMX억 달러 이상을 선불로 지불했습니다.

델과 HP
NVIDIA GPU에 사용되는 메모리 기술 진화 로드맵(출처: NVIDIA)

주요 AI 서버 공급업체인 Dell과 HP는 최근 실적 발표에서 AI 관련 제품에 대한 수요가 급격히 증가했다고 언급했습니다. Dell은 AI 주문이 여러 신규 및 기존 GPU 모델에 분산되면서 20분기 AI 서버 백로그가 거의 두 배로 늘어났다고 밝혔습니다. HP는 통화 중에 GPU 배송 시간이 XNUMX주 이상으로 "상당히 길다"고 밝혔습니다.

코멘트 남김

위쪽으로 스크롤