Se revela la GPU B200 de Nvidia: el consumo de energía alcanza los 1000 W

Dell revela el chip Blackwell AI de próxima generación de Nvidia: el B100 se lanzará en 2024 y el B200 en 2025.

Blackwell

El 4 de marzo, según un informe de Barron's, un alto ejecutivo de Dell reveló durante la reciente conferencia telefónica sobre ganancias de la compañía que Nvidia planea lanzar su chip informático insignia de IA, la GPU B200, en 2025. Se dice el consumo de energía de la GPU individual del B200. para alcanzar los 1000W. En comparación, la actual GPU insignia H100 de Nvidia tiene un consumo de energía total de 700 W, mientras que la H200 de Nvidia y la Instinct MI300X de AMD tienen un consumo de energía total que oscila entre 700 W y 750 W. El B200 no había aparecido previamente en la hoja de ruta de Nvidia, lo que sugiere que la compañía pudo haber revelado la información a socios importantes como Dell con anticipación.

Arquitectura de IA de NVIDIA
Hoja de ruta de iteración de productos de IA/centro de datos de NVIDIA (Fuente: NVIDIA)

Según su hoja de ruta previamente revelada, B100 es la GPU insignia de próxima generación, GB200 es un superchip que combina CPU y GPU, y GB200NVL es una plataforma interconectada para uso de supercomputación.

Hoja de ruta de gpu ai del centro de datos de NVIDIA
Información básica del centro de datos NVIDIA/GPU AI (Fuente: Wccftech)

La serie de GPU Blackwell de Nvidia incluirá al menos dos chips principales de aceleración de IA: el B100 que se lanzará este año y el B200 que debutará el próximo año.

Hay informes de que las GPU Blackwell de Nvidia pueden adoptar un diseño de chip único.
Captura de pantalla de la transcripción de Jeffrey W. Clarke, director de operaciones y vicepresidente de Dell Technologies Group, hablando en la llamada sobre resultados

Hay informes de que las GPU Blackwell de Nvidia pueden adoptar un diseño de chip único. Sin embargo, considerando el consumo de energía y la refrigeración requerida, se especula que el B100 puede ser el primer diseño de doble chip de Nvidia, lo que permite una mayor superficie para disipar el calor generado. El año pasado, Nvidia se convirtió en el segundo cliente más grande de TSMC, representando el 11% de los ingresos netos de TSMC, sólo superado por la contribución del 25% de Apple. Para mejorar aún más el rendimiento y la eficiencia energética, se espera que las GPU AI de próxima generación de Nvidia utilicen tecnologías de proceso mejoradas.

Al igual que la GPU Hopper H200, el Blackwell B100 de primera generación aprovechará la tecnología de memoria HBM3E. Por lo tanto, la variante B200 mejorada puede adoptar una memoria HBM aún más rápida, así como una capacidad de memoria potencialmente mayor, especificaciones mejoradas y características mejoradas. Nvidia tiene grandes expectativas para su negocio de centros de datos. Según un informe de los medios coreanos de diciembre pasado, Nvidia ha pagado por adelantado más de mil millones de dólares en pedidos a los gigantes de chips de memoria SK Hynix y Micron para asegurar suficiente inventario de HBM1E para las GPU H3 y B200.

Dell y HP
Hoja de ruta de la evolución de la tecnología de memoria utilizada en las GPU NVIDIA (Fuente: NVIDIA)

Tanto Dell como HP, dos importantes proveedores de servidores de IA, mencionaron un fuerte aumento en la demanda de productos relacionados con la IA durante sus recientes llamadas de resultados. Dell afirmó que su cartera de servidores de IA en el cuarto trimestre casi se duplicó, con pedidos de IA distribuidos en varios modelos de GPU nuevos y existentes. HP reveló durante su llamada que los tiempos de entrega de la GPU siguen siendo "bastante largos", de 20 semanas o más.

Deja un comentario

Ir al Inicio