Aunque Nvidia enfrenta múltiples presiones cerca de fin de año, según fuentes de la cadena de suministro, Nvidia aún planea lanzar su plataforma de servidor de inteligencia artificial GB300 de próxima generación en la conferencia GTC que se llevará a cabo del 17 al 20 de marzo de 2025.
La plataforma ha experimentado una serie de nuevas actualizaciones, logrando una mejora integral en el rendimiento y la configuración, y se convertirá en una nueva herramienta para que NVIDIA aumente su rendimiento. Además, múltiples mejoras tienen como objetivo elevar el rendimiento y la eficiencia para satisfacer aún más las crecientes necesidades de computación de IA.

Servidor NVIDIA GB300 completamente actualizado
En concreto, el servidor NVIDIA GB300 AI integra la nueva GPU Blackwell Ultra serie B300, con una potencia de 1400W y una mejora del rendimiento FP4 de una sola tarjeta de 1.5 veces.
En el nivel HBM, en comparación con la pila de ocho capas de GB200, GB300 utilizará HBM3E con una pila de 12 capas y la capacidad se incrementará de 192 GB a 288 GB. También introducirá nuevas bandejas de refrigeración líquida, placas frías y piezas UQD (Universal Quick Disconnect) para líneas de refrigeración líquida.
Además, la tarjeta de red óptica se actualizará de CX7 a CX8, y el transceptor óptico se actualizará de 800G a 1.6T.
Otras mejoras incluyen el uso de un diseño de ranura, la placa de cómputo utilizará LPCAMM y la bandeja de capacitancia puede convertirse en estándar para el gabinete GB300 NVL72, y la BBU (unidad de respaldo de batería) puede ser opcional.
La cadena de suministro señaló que el precio de producción en masa de un módulo BBU es de aproximadamente $ 300, y se estima que el precio total de la BBU en un sistema GB300 alcanzará los $ 1,500; el precio de producción de un supercondensador es de aproximadamente US $ 20 a US $ 25, y un rack NVL300 GB72 requiere más de 300 capacitancias.
Sin embargo, ha habido informes recientes de que Nvidia encontró desafíos en la cadena de suministro en el desarrollo de los servidores de inteligencia artificial GB300 y B300, especialmente el problema de sobrecalentamiento del componente clave, el chip DrMOS 5×5 producido por AOS, que puede afectar el progreso de la producción en masa.
Foxconn será el gran ganador
En respuesta a las actualizaciones de productos de Nvidia, los fabricantes de la cadena de suministro como Foxconn y Quanta actuaron rápidamente y entraron en la etapa de I+D y diseño del servidor de inteligencia artificial GB300.
Se informa que NVIDIA ha finalizado preliminarmente la configuración del pedido del servidor NVIDIA GB300 AI, y Foxconn sigue siendo el mayor proveedor. Se espera que los servidores NVIDIA GB300 AI estén disponibles en la primera mitad de 2025, lo que los sitúa por delante de sus pares a nivel mundial.
Los expertos de la industria señalaron que, al igual que la estrategia de Apple de lanzar un nuevo iPhone cada año, el CEO de Nvidia, Jensen Huang, anunció anteriormente que Nvidia también seguirá el ritmo de "lanzar una nueva generación de productos de inteligencia artificial cada año". Los socios principales deben implementar con anticipación para mantenerse al día con el ritmo de desarrollo de productos de Nvidia.
El análisis de la cadena de suministro muestra que, además de sus ventajas de alta integración vertical, Foxconn Group también ha invertido mucho en la investigación y el desarrollo tempranos de servidores de IA de NVIDIA. Las dos partes comenzaron a cooperar ya en 2017 y han establecido una estrecha relación de cooperación en el desarrollo de nuevos productos, desde la primera generación de servidores de IA hasta los actuales GB200 e incluso GB300.
Tomando como ejemplo el servidor GB200 AI, además de la GPU y la CPU, los componentes que Foxconn puede proporcionar representan entre el 80% y el 90%.
Los expertos del sector revelaron que Quanta e Inventec también son socios importantes del servidor de inteligencia artificial GB300 de NVIDIA. En términos de participación en los pedidos, Quanta es el segundo proveedor más importante después de Foxconn, mientras que se espera que Inventec crezca.
El GB200 alcanzará su pico de entregas en 2025
Según la última investigación de mercado, se espera que los envíos de chips GB200 de Nvidia en el cuarto trimestre de 2024 sean de aproximadamente 150,000 a 200,000 unidades, y se espera que los envíos en el primer trimestre de 2025 aumenten significativamente entre un 200% y un 250%.
Sin embargo, el cronograma de envío de los gabinetes GB200 se ha retrasado. Dado que las especificaciones de diseño de la solución en términos de interfaz de interconexión de alta velocidad y consumo de energía de diseño térmico son significativamente más altas que las del mercado general, la cadena de suministro necesita más tiempo para el ajuste y la optimización. Se espera que el pico de envío de gabinetes GB200 se retrase hasta entre el segundo y el tercer trimestre de 2025.
Además, el valor TDP del gabinete GB200 NVL72 es tan alto como 140KW, y la solución de refrigeración por aire tradicional ya no puede satisfacer sus necesidades. Por lo tanto, la tecnología de refrigeración líquida se ha convertido en una necesidad, y las industrias relacionadas están intensificando sus esfuerzos de investigación y desarrollo en componentes de refrigeración líquida para mejorar la eficiencia de disipación de calor.
En general, aunque el volumen de envíos de chips GB200 está creciendo rápidamente, aún llevará tiempo hasta que la solución tipo gabinete se implemente por completo, y se espera que el pico de envíos llegue a mediados de 2025.
Mirando más allá, se espera que el diseño de alto consumo de energía del GB300 promueva el desarrollo de la industria de refrigeración líquida, de la cual pueden beneficiarse los fabricantes de la cadena de suministro relacionada.