GPU B200 da Nvidia revelada: consumo de energia chega a 1000W

Dell divulga chip Blackwell AI de próxima geração da Nvidia: B100 a ser lançado em 2024, B200 em 2025.

Blackwell

Em 4 de março, de acordo com um relatório da Barron's, um executivo sênior da Dell revelou durante a recente teleconferência de resultados da empresa que a Nvidia planeja lançar seu principal chip de computação de IA, a GPU B200, em 2025. O consumo de energia individual da GPU do B200 é dito para atingir 1000W. Em comparação, a atual GPU H100 da Nvidia tem um consumo geral de energia de 700W, enquanto o H200 da Nvidia e o Instinct MI300X da AMD têm um consumo geral de energia variando de 700W a 750W. O B200 não havia aparecido anteriormente no roteiro da Nvidia, sugerindo que a empresa pode ter divulgado a informação a grandes parceiros como a Dell com antecedência.

Arquitetura de IA da NVIDIA
Roteiro de iteração de data center/produto de IA da NVIDIA (Fonte: NVIDIA)

De acordo com o roteiro divulgado anteriormente, o B100 é a GPU carro-chefe da próxima geração, o GB200 é um superchip que combina CPU e GPU e o GB200NVL é uma plataforma interconectada para uso em supercomputação.

Roteiro de AI GPU do data center da NVIDIA
Informações sobre data center NVIDIA/base de GPU AI (Fonte: Wccftech)

A série de GPUs Blackwell da Nvidia incluirá pelo menos dois grandes chips de aceleração de IA – o B100, lançado este ano, e o B200, lançado no próximo ano.

Há relatos de que as GPUs Blackwell da Nvidia podem adotar um design de chip único.
Captura de tela da transcrição de Jeffrey W. Clarke, COO e vice-presidente do Dell Technologies Group, falando na teleconferência

Há relatos de que as GPUs Blackwell da Nvidia podem adotar um design de chip único. No entanto, considerando o consumo de energia e o resfriamento necessário, especula-se que o B100 possa ser o primeiro design de chip duplo da Nvidia, permitindo uma área de superfície maior para dissipar o calor gerado. No ano passado, a Nvidia se tornou o segundo maior cliente da TSMC, respondendo por 11% da receita líquida da TSMC, perdendo apenas para a contribuição de 25% da Apple. Para melhorar ainda mais o desempenho e a eficiência energética, espera-se que as GPUs AI de próxima geração da Nvidia utilizem tecnologias de processo aprimoradas.

Assim como a GPU Hopper H200, a primeira geração do Blackwell B100 aproveitará a tecnologia de memória HBM3E. A variante B200 atualizada pode, portanto, adotar memória HBM ainda mais rápida, bem como capacidade de memória potencialmente maior, especificações atualizadas e recursos aprimorados. A Nvidia tem grandes expectativas para seus negócios de data center. De acordo com uma reportagem da mídia coreana de dezembro passado, a Nvidia pagou antecipadamente mais de US$ 1 bilhão em pedidos aos gigantes de chips de memória SK Hynix e Micron para garantir estoque HBM3E suficiente para as GPUs H200 e B100.

Dell e HP
Roteiro de evolução da tecnologia de memória usada em GPUs NVIDIA (Fonte: NVIDIA)

Tanto a Dell quanto a HP, dois grandes fornecedores de servidores de IA, mencionaram um aumento acentuado na demanda por produtos relacionados à IA durante suas recentes teleconferências de resultados. A Dell afirmou que sua carteira de servidores de IA no quarto trimestre quase dobrou, com pedidos de IA distribuídos em vários modelos de GPU novos e existentes. A HP revelou durante sua teleconferência que os prazos de entrega da GPU permanecem “bastante longos”, em 20 semanas ou mais.

Deixe um comentário

Voltar ao Topo