El auge de los chips ASIC

DeepSeek ha provocado una explosión en la demanda de inferencia y ha abierto una brecha en la hegemonía de Nvidia en potencia informática. La puerta a un nuevo mundo se ha abierto gradualmente: la revolución de la potencia informática liderada por los chips ASIC está pasando del silencio al ruido.

Recientemente, el grupo de expertos Core Flow citó a una fuente informada que afirmaba que DeepSeek se prepara para desarrollar sus propios chips de IA. A diferencia de esta prometedora empresa, gigantes nacionales como Alibaba, Baidu y ByteDance ya han incursionado en la autoinvestigación.

Al otro lado del océano, a principios de año también se dieron a conocer nuevos avances en los chips de desarrollo propio de OpenAI. Medios extranjeros revelaron que el primer chip personalizado por Broadcom se producirá en TSMC en unos meses. Anteriormente se informó que Sam Altman planeaba recaudar 7 billones de dólares para construir un "imperio de chips" que abarcara tanto el diseño como la fabricación. Además, Google, Amazon, Microsoft y Meta también se han sumado a la fiebre de la autoinvestigación.

Una señal obvia es que, ya sea DeepSeek, OpenAI, empresas chinas o gigantes de Silicon Valley, nadie quiere quedarse atrás en la era de la potencia informática. Y los chips ASIC podrían ser su puerta de entrada a este nuevo mundo.

¿Acabará esto con Nvidia? ¿O creará una segunda Nvidia? Aún no hay una respuesta. Sin embargo, es evidente que las empresas de la cadena de suministro ya han previsto el vigor de esta ola de desarrollo propio. Por ejemplo, Broadcom, que ofrece servicios de diseño y personalización a grandes fabricantes, ha experimentado un gran despegue: en 2024, los ingresos del negocio de IA aumentaron un 240 % interanual, hasta los 3.7 millones de dólares; en el primer trimestre de 1, los ingresos del negocio de IA ascendieron a 2025 millones de dólares, un 4.1 % más interanual; el 77 % de estos ingresos provienen del diseño de chips ASIC. Para Broadcom, el mercado de chips ASIC supera los 80 90 millones de dólares.

De la GPU al ASIC: la economía de la potencia informática está llegando a un punto de inflexión

El bajo costo es un requisito previo para el auge del razonamiento basado en IA. En contraste, los chips GPU de propósito general se han convertido en la clave para el auge de la IA.

Los chips H100 y A100 de NVIDIA son los reyes absolutos del entrenamiento de modelos grandes, e incluso los chips B200 y H200 son codiciados por los gigantes tecnológicos. El Financial Times citó previamente datos de Omdia que indican que, en 2024, los principales clientes de los chips con arquitectura Hopper de Nvidia incluyen a Microsoft, Meta, Tesla/xAI, etc., entre los cuales los pedidos de Microsoft alcanzarán los 500,000.

Sin embargo, como líder absoluto de las GPU de propósito general, la otra cara de la moneda de las soluciones de productos de NVIDIA se ha ido haciendo evidente: altos costos y consumo de energía redundante.

En términos de costo, un solo H100 cuesta más de $30,000. Entrenar un modelo con cientos de miles de millones de parámetros requiere decenas de miles de GPU, además de inversiones posteriores en hardware de red, almacenamiento y seguridad, que totalizan más de $500 millones. Según datos de HSBC, la última generación de la solución GB200 NVL72 cuesta más de US$3 millones por gabinete, y la NVL36 ronda los US$1.8 millones.

Se podría decir que el entrenamiento de modelos basado en GPU de propósito general es demasiado costoso, pero Silicon Valley, con su ilimitada capacidad de procesamiento, aún prefiere la idea de que "la gran potencia hace volar los ladrillos", y la inversión de capital no ha disminuido. Recientemente, xAI de Musk, que anunció recientemente Grok-3, cuenta con una escala de servidores de 200,000 GPU para entrenamiento.

El artículo “Explicación detallada de 20,000 2025 palabras de los conocimientos clave de IA para 200”, publicado conjuntamente por Tencent Technology y Silicon Rabbit Racing, mencionó que los operadores de centros de datos a hiperescala esperan que los gastos de capital (CapEx) superen los 2024 250 millones de dólares en 2025, y se espera que esta cifra se acerque a los XNUMX XNUMX millones de dólares para XNUMX, y se asignarán importantes recursos a la inteligencia artificial.

En términos de consumo energético, según los cálculos de SemiAnalysis, un clúster H100,000 de 100 150 tarjetas tiene un consumo total de 1.59 MW y consume 0.078 TWh de electricidad al año. Calculada en 123.9 $ por kilovatio-hora, la factura anual de electricidad asciende a 30 millones de dólares. En comparación con los datos publicados por OpenAI, la tasa de utilización de la potencia de cálculo de la GPU en la etapa de inferencia es de tan solo el 50 %-XNUMX %, y el fenómeno de "cálculo en espera" es significativo. Esta utilización ineficiente del rendimiento supone un grave desperdicio de recursos en la era de la inferencia.

Velocidades de entrenamiento de TPU V4 y A100 anunciadas previamente por Google para diferentes modelos de arquitectura

El rendimiento líder, los altos precios, la baja eficiencia y las barreras ecológicas han obligado a la industria a afirmar que «el mundo ha sufrido mucho por culpa de Nvidia» durante el último año. Los proveedores de la nube están perdiendo gradualmente autonomía de hardware, sumado a los riesgos en la cadena de suministro, y AMD se encuentra temporalmente «incapaz de crecer». Muchos factores han obligado a los gigantes a comenzar a desarrollar sus propios chips ASIC dedicados.

Desde entonces, el campo de batalla de los chips de IA ha pasado de ser una competencia tecnológica a un juego económico. Como concluyó la investigación de Southwest Securities: «Cuando la arquitectura del modelo entra en el período de convergencia, cada dólar invertido en potencia informática debe generar beneficios económicos cuantificables». A juzgar por los recientes avances reportados por los proveedores de la nube norteamericanos, los ASIC han mostrado ciertas ventajas de sustitución:

  • Google: El chip TPU v5 personalizado por Broadcom para Google tiene un costo de poder computacional unitario que es 70% menor que el del H100 en el escenario de razonamiento Llama-3.
  • Amazon: AWS Trainium 3, con un proceso de 3 nm, consume solo 1/3 de la energía de una GPU de propósito general con la misma potencia de cómputo, ahorrando más de 10 millones de dólares estadounidenses en costos de electricidad al año; Se entiende que los envíos de chips Trainium de Amazon en 2024 han superado las 500,000 piezas.
  • Microsoft: Según datos de IDC, después de que Microsoft Azure desarrollara su propio ASIC, la proporción de los costos de adquisición de hardware cayó del 75% al ​​58%, rompiendo con el dilema de la negociación pasiva a largo plazo.

Como el mayor beneficiario de la cadena ASIC de América del Norte, la tendencia de Broadcom se hace cada vez más evidente en los datos.

Los ingresos del negocio de IA de Broadcom en 2024 ascendieron a 3.7 millones de dólares, lo que representa un aumento interanual del 240 %, de los cuales el 80 % provino de servicios de diseño de ASIC. En el primer trimestre de 1, sus ingresos del negocio de IA fueron de 2025 millones de dólares, un aumento interanual del 4.1 %. Asimismo, se prevé que los ingresos por IA alcancen los 77 millones de dólares en el segundo trimestre, un aumento interanual del 4.4 %.

Ya durante el período del informe anual, Broadcom predijo que los ingresos de ASIC se dispararían en 2027, lo que presagiaba un futuro prometedor para el mercado, ya que se esperaba que los chips ASIC alcanzaran un tamaño de mercado de 90 1 millones de dólares tres años después. La compañía reiteró esta afirmación durante la conferencia telefónica del primer trimestre.

Con esta importante tendencia en el sector, Broadcom se ha convertido en la tercera empresa de semiconductores del mundo, con un valor de mercado superior al billón de dólares, después de Nvidia y TSMC. También ha atraído la atención internacional hacia empresas como Marvell y AIchip.

Sin embargo, hay que destacar una cosa: "ASIC es bueno, pero no acabará con la GPU". Microsoft, Google y Meta están desarrollando sus propios productos, pero al mismo tiempo compiten por ser los primeros en lanzar el B200 de Nvidia, lo que en realidad demuestra que no existe una relación competitiva directa entre las dos partes.

Una conclusión más objetiva debería ser que las GPU seguirán dominando el mercado del entrenamiento de alto rendimiento y seguirán siendo el chip más importante en escenarios de inferencia debido a su versatilidad. Sin embargo, en el futuro mercado de chips de IA, que se acerca a los 400 XNUMX millones de dólares, la penetración de los ASIC ya es claramente visible.

IDC predice que, en los escenarios de inferencia de 2024 a 2026, la proporción de ASIC aumentará del 15 % al 40 %, o un máximo de 160 80 millones de dólares. El resultado final de esta transformación podría ser que los ASIC absorban el XNUMX % del mercado de inferencia y que las GPU se reduzcan a los campos de entrenamiento y gráficos.

Los verdaderos ganadores serán aquellos que se desenvuelven en un mercado dual y comprenden tanto las obleas de silicio como los escenarios. Nvidia es, sin duda, uno de ellos. Ser optimista sobre los ASIC no significa, en absoluto, menospreciar a Nvidia. La clave para el nuevo mundo reside en encontrar otros actores que no sean Nvidia y en cómo generar ingresos en la nueva era de los ASIC.

El “bisturí” de ASIC corta todos los módulos no esenciales

Se dice que ASIC es bueno para el razonamiento de IA, pero ¿qué tipo de chip es?

Desde una perspectiva arquitectónica, la limitación de los chips de propósito general como las GPU es su diseño "uno contra cien": deben tener en cuenta múltiples requisitos, como la representación de gráficos, la computación científica y diferentes arquitecturas de modelos, lo que da como resultado que se desperdicien una gran cantidad de recursos de transistores en módulos funcionales no esenciales.

La principal característica de la GPU NVIDIA es su gran cantidad de núcleos pequeños, comparables a los múltiples motores del cohete Falcon. Los desarrolladores pueden confiar en la biblioteca de operadores acumulada por CUDA a lo largo de los años para llamar a estos núcleos pequeños y realizar computación paralela de forma fluida, eficiente y flexible.

Pero si el modelo descendente es relativamente seguro, la tarea computacional también lo es, y no se necesitan tantos núcleos pequeños para mantener la flexibilidad. Este es el principio fundamental del ASIC, por lo que también se le denomina chip de alta potencia computacional totalmente personalizado.

A través de un corte preciso “similar a un bisturí”, solo se retienen las unidades de hardware que son fuertemente relevantes para el escenario objetivo, lo que libera una eficiencia sorprendente, que ha sido verificada en los productos de Google y Amazon.

Imagen real del acelerador de IA Google TPU v5e

Para las GPU, la mejor herramienta para identificarlas es CUDA de NVIDIA, mientras que para los chips ASIC, se utilizan los algoritmos desarrollados por los propios proveedores de la nube. Esto no es una tarea difícil para las grandes empresas que comenzaron como proveedores de software:

  • En Google TPU v4, el 95% de los recursos del transistor se utilizan para unidades de multiplicación de matrices y unidades de procesamiento vectorial, que están optimizadas para cálculos de redes neuronales, mientras que unidades similares en las GPU representan menos del 60%.
  • A diferencia del modelo de separación entre computación y almacenamiento de la arquitectura von Neumann tradicional, los ASIC pueden personalizar el flujo de datos en función de las características del algoritmo. Por ejemplo, en el chip de sistema recomendado y personalizado por Broadcom para Meta, la unidad de computación está integrada directamente alrededor del controlador de almacenamiento, lo que acorta la distancia de transferencia de datos en un 70 % y reduce la latencia a 1/8 de la GPU.
  • En respuesta a las características de peso disperso del 50% al 90% en los modelos de IA, el chip Amazon Trainium2 está integrado con un motor de computación dispersa que puede omitir el enlace de cálculo de valor cero, mejorando el rendimiento teórico en un 300%.

Cuando los algoritmos tienden a ser fijos, los ASIC tienen una ventaja natural en escenarios verticales deterministas. El objetivo final del diseño de ASIC es que el propio chip sea la "representación física" del algoritmo.

En la historia pasada y la realidad actual, podemos encontrar ejemplos de éxito de ASIC, como los chips para máquinas mineras.

En sus inicios, la industria utilizaba las GPU de Nvidia para la minería. Posteriormente, a medida que la dificultad de la minería aumentó, el consumo eléctrico superó los ingresos por minería (de forma muy similar a las necesidades de inferencia actuales), y los chips ASIC dedicados a la minería se dispararon. Aunque su versatilidad es mucho menor que la de las GPU, los ASIC para minería maximizan el paralelismo.

Por ejemplo, el ASIC de minería de Bitcoin de Bitmain implementa decenas de miles de unidades de cómputo hash SHA-256 simultáneamente, logrando una aceleración superlineal con un solo algoritmo, y la densidad de potencia de cómputo es más de 1,000 veces superior a la de la GPU. No solo se ha mejorado considerablemente la capacidad dedicada, sino que también se ha reducido el consumo de energía a nivel de sistema.

Además, el uso de ASIC puede simplificar los circuitos periféricos (por ejemplo, ya no se necesita la compleja pila de protocolos de la interfaz PCIe), reducir el área de la placa base en un 40% y reducir el costo de toda la máquina en un 25%.

De bajo costo, alta eficiencia y soporte para una integración profunda de hardware y escenarios, estos núcleos de tecnología ASIC se adaptan naturalmente a las necesidades de transformación de la industria de la IA, desde la “fuerza bruta computacional” hasta la “revolución de la eficiencia refinada”.

Con el advenimiento de la era de la inferencia, las ventajas de costos de ASIC repetirán la historia de las máquinas de minería y alcanzarán un “cruce de la muerte” bajo el efecto de escala: a pesar de los altos costos iniciales de I+D (el costo de diseño de un solo chip es de aproximadamente US$ 50 millones), su curva de disminución de costos marginales es mucho más pronunciada que la de las GPU de propósito general.

Tomando como ejemplo el Google TPU v4, cuando el volumen de envíos aumentó de 100,000 unidades a 1 millón, el costo por unidad se redujo drásticamente de US$3,800 a US$1,200, una caída de casi el 70%, mientras que la reducción del costo de la GPU no suele superar el 30%. Según la información más reciente de la industria, se espera que el Google TPU v6 envíe 1.6 millones de unidades en 2025, con una potencia de procesamiento de un solo chip tres veces superior a la de la generación anterior. La rentabilidad de los ASIC sigue aumentando rápidamente.

Esto nos lleva a un nuevo tema: ¿puede todo el mundo sumarse a la tendencia de desarrollar ASIC propios? Esto depende del coste de la investigación propia y de la demanda.

Según los cálculos de una tarjeta aceleradora de inferencia ASIC con proceso de 7 nm, los costos de producción únicos, incluyendo las licencias de propiedad intelectual, la mano de obra, las herramientas de diseño, las plantillas de máscara, etc., podrían ascender a cientos de millones de yuanes, sin incluir los costos posteriores de producción en masa. En este sentido, las grandes empresas tienen mayores ventajas financieras.

En la actualidad, los proveedores de la nube como Google y Amazon tienen un sistema de clientes maduro, pueden formar un ciclo cerrado de I+D y ventas y tienen ventajas inherentes en la autoinvestigación.

Para empresas como Meta, la lógica detrás de su negocio de desarrollo propio radica en que ya cuentan con una enorme demanda interna de potencia de procesamiento. A principios de este año, Zuckerberg reveló que planea lanzar alrededor de 1 GW de potencia de procesamiento en 2025 y contar con más de 1.3 millones de GPU para finales de año.

El “Nuevo Mapa” vale mucho más de 100 mil millones de dólares

Solo la demanda de minería ha generado un mercado de casi 10 mil millones de dólares, por lo que cuando Broadcom anunció que el espacio de mercado de ASIC de IA sería de 70 a 90 mil millones de dólares para fines de 2024, no nos sorprendimos e incluso pensamos que esta cifra podría ser conservadora.

Ahora, la tendencia industrial de los chips ASIC ya no debe cuestionarse, y la atención debe centrarse en cómo dominar las reglas del juego en el "nuevo mapa". En el mercado de ASIC para IA, valorado en casi 100 mil millones de dólares, se han formado tres estratos claros: "Diseñadores y fabricantes de chips ASIC que marcan las reglas", "Apoyo a la cadena industrial" y "Fabless en escenarios verticales".

El primer nivel lo constituyen los diseñadores y fabricantes de chips ASIC, quienes marcan las pautas. Pueden fabricar chips ASIC con un precio unitario superior a 10,000 XNUMX $ y colaborar con proveedores de servicios en la nube para su uso comercial. Entre los actores más representativos se encuentran Broadcom, Marvell, AIchip y TSMC, el gigante de la fundición que se beneficiará de cualquier chip avanzado.

El segundo nivel es la cadena industrial de soporte. La lógica de soporte que ha atraído la atención del mercado incluye el envasado avanzado y la cadena industrial descendente.

  • Embalaje avanzado: el 35% de la capacidad de producción de CoWoS de TSMC se ha transferido a clientes de ASIC, incluidos homólogos nacionales como SMIC, Changdian Technology y Tongfu Microelectronics.
  • La disociación entre los proveedores de la nube y las soluciones de hardware de NVIDIA ofrece nuevas oportunidades de hardware, como los cables de cobre AEC. El ASIC único de desarrollo propio de Amazon debe estar equipado con 3 AEC. Si se envían 7 millones de ASIC en 2027, el mercado correspondiente superará los 5 millones de dólares. Otras oportunidades, como los servidores y las PCB, se beneficiarán de una lógica similar.

El tercer nivel es el de los escenarios verticales sin fábrica que se están gestando. La esencia de los ASIC reside en un mercado impulsado por la demanda. Quien primero logre identificar los puntos débiles del escenario tendrá el poder de fijación de precios. La esencia de los ASIC es la personalización, que se adapta naturalmente a los escenarios verticales. Tomemos como ejemplo los chips de conducción inteligente. Como un chip ASIC típico, con BYD y otras empresas apostando a fondo por la conducción inteligente, este tipo de producto está entrando en un período de crecimiento explosivo.

Las oportunidades correspondientes a los tres niveles principales de la cadena industrial global de ASIC pueden considerarse las “tres claves secretas” de la producción nacional.

Debido a las restricciones de la prohibición, la brecha entre las GPU nacionales y las de NVIDIA sigue siendo enorme, y la construcción ecológica también es un largo camino. Sin embargo, en el caso de los ASIC, estamos en la misma línea de partida que en el extranjero. En combinación con escenarios verticales, muchas empresas chinas sin fábrica pueden fabricar productos más eficientes energéticamente, como los ASIC para máquinas de minería mencionados anteriormente, los ASIC de conducción inteligente y el Kunlun Core de Baidu.

La fabricación de chips de soporte se basa principalmente en SMIC, mientras que ZTE Microelectronics, una filial de ZTE, es un nuevo competidor. No se descarta que cooperen con fabricantes nacionales en el futuro para presentar un drama sobre "¿Quién será el Broadcom chino?".

Los principales proveedores upstream de productos de centros de datos de Nvidia

La parte de soporte de la cadena industrial es relativamente fácil de producir. Para los servidores, transceptores ópticos, conmutadores, placas de circuito impreso (PCB) y cables de cobre correspondientes, las empresas nacionales son inherentemente más competitivas debido a su baja complejidad técnica. Al mismo tiempo, estas empresas de la cadena industrial tienen una relación simbiótica con la potencia informática nacional, y la cadena industrial de chips ASIC no estará exenta de ello.

En términos de escenarios de aplicación, además de los chips de conducción inteligente y las tarjetas de aceleración de inferencia de IA mencionados repetidamente, las oportunidades para otras empresas de diseño nacionales dependen de qué escenarios puedan volverse populares y qué empresas puedan aprovechar las oportunidades.

Conclusión

A medida que la IA salta del duro trabajo de entrenamiento a las aguas profundas del razonamiento en busca de la eficiencia energética, la segunda mitad de la guerra por el poder de la computación está destinada a pertenecer a aquellas empresas que puedan transformar las fantasías tecnológicas en cuentas económicas.

El contraataque de los chips ASIC no solo representa una revolución tecnológica, sino también una revelación empresarial en términos de eficiencia, costo y visibilidad. En este nuevo escenario, las fichas de los jugadores chinos aumentan sigilosamente: las oportunidades siempre llegan a quienes están preparados.

Deja Tu Comentario

Ir al Inicio