Índice del Contenido
ActivaLa batalla central en las interconexiones de computación de alto rendimiento
Ethernet está a punto de recuperar su estatus de estándar en los centros de datos de escalamiento horizontal, mientras que InfiniBand mantiene un fuerte impulso en los sectores de computación de alto rendimiento (HPC) y entrenamiento de IA. Broadcom y NVIDIA compiten ferozmente por el liderazgo del mercado.
A medida que los modelos de inteligencia artificial crecen exponencialmente, la escalabilidad de los centros de datos ha pasado de las arquitecturas tradicionales de escalado vertical (sistema único) a arquitecturas masivas de escalado horizontal que involucran decenas de miles de nodos interconectados. El mercado de redes de escalado horizontal está actualmente dominado por dos tecnologías competidoras:
- InfiniBandEl líder en rendimiento de larga trayectoria, impulsado por Mellanox, filial de NVIDIA, aprovecha el protocolo RDMA nativo para ofrecer una latencia ultrabaja (inferior a 2 microsegundos) y cero pérdida de paquetes.
- EthernetCon el firme respaldo de Broadcom y otros, se beneficia de un ecosistema abierto y un coste significativamente menor.
En junio de 2025, Ethernet lanzó una potente contraofensiva. El Consorcio Ultra Ethernet (UEC) publicó oficialmente la especificación UEC 1.0, que reconstruye por completo la pila de protocolos de red y alcanza un rendimiento comparable al de InfiniBand. Gracias a sus múltiples ventajas, se espera que Ethernet amplíe gradualmente su cuota de mercado. Este cambio tecnológico está transformando por completo el panorama competitivo del mercado de soluciones de escalado horizontal.

Campos de batalla clave en la escalabilidad horizontal: Ventajas de InfiniBand frente a la contraofensiva de Ethernet
La arquitectura InfiniBand de escalado horizontal convencional admite de forma nativa el acceso directo a memoria remota (RDMA). Su principio de funcionamiento es el siguiente:
- Durante la transferencia de datos, el controlador DMA envía datos a una tarjeta de interfaz de red (RNIC) compatible con RDMA.
- La RNIC encapsula los datos y los transmite directamente a la RNIC receptora.
- Debido a que este proceso evita por completo la CPU —a diferencia del TCP/IP tradicional— InfiniBand logra una latencia extremadamente baja (<2 µs).
Además, InfiniBand emplea control de flujo basado en crédito (CBFC) en la capa de enlace, lo que garantiza que los datos se transmitan solo cuando el receptor tenga espacio de búfer disponible, garantizando así cero pérdidas de paquetes.
La tecnología RDMA nativa requiere conmutadores InfiniBand para funcionar correctamente. Durante muchos años, estos conmutadores han estado dominados por la división Mellanox de NVIDIA, lo que ha dado lugar a un ecosistema relativamente cerrado con mayores costes de adquisición y mantenimiento: el coste del hardware es aproximadamente tres veces superior al de los conmutadores Ethernet equivalentes.

Gracias a su ecosistema abierto, sus numerosos proveedores, sus opciones de implementación flexibles y sus menores costos de hardware, Ethernet ha ido ganando gradualmente una amplia adopción.
Para incorporar capacidades RDMA a Ethernet, la InfiniBand Trade Association (IBTA) introdujo RDMA sobre Ethernet Convergente (RoCE) en 2010:
- ROCE v1Simplemente se agregó un encabezado Ethernet en la capa de enlace, restringiendo la comunicación a la misma subred de capa 2 e impidiendo la transmisión a través de enrutadores o subredes diferentes.
- ROCE v2 (Lanzado en 2014): Se reemplazó el encabezado de enrutamiento global (GRH) de InfiniBand en la capa 3 con encabezados IP/UDP. Este cambio permite que los conmutadores y enrutadores Ethernet estándar reconozcan y reenvíen paquetes RoCE, lo que posibilita la transmisión entre subredes y enrutadores, y mejora drásticamente la flexibilidad de implementación.
Sin embargo, la latencia de RoCE v2 sigue siendo ligeramente superior a la de RDMA nativa (~5 µs) y requiere mecanismos adicionales como el Control de Flujo Prioritario (PFC) y la Notificación Explícita de Congestión (ECN) para reducir el riesgo de pérdida de paquetes.

El cuadro comparativo del documento original destaca las principales diferencias entre InfiniBand y la tecnología RoCE abierta:
- InfiniBand utiliza una pila de protocolos cerrada y totalmente propietaria para lograr la latencia más baja posible.
- RoCE v1 simula la arquitectura InfiniBand sobre Ethernet, pero está confinado a la misma subred de capa 2.
- RoCE v2 utiliza la capa de red IP, admite la comunicación entre subredes y ofrece la mayor compatibilidad con la infraestructura de centros de datos Ethernet existente.

InfiniBand conserva ventajas inherentes como la latencia ultrabaja y la ausencia de pérdida de paquetes, lo que la convierte en la opción preferida en los centros de datos de IA actuales. Sin embargo, sus mayores costes de hardware y mantenimiento, junto con la limitada oferta de proveedores, están impulsando un cambio gradual hacia arquitecturas basadas en Ethernet.

Impulsada por la explosiva demanda de centros de datos de IA y por consideraciones de costes y ecosistema, NVIDIA ha entrado con fuerza en el mercado de Ethernet. Además de sus propios switches de la serie InfiniBand Quantum, NVIDIA ahora ofrece los productos Ethernet de la serie Spectrum.
En 2025:
- Quantum-X800: 800 Gbps/puerto × 144 puertos = 115.2 Tbps totales
- Spectrum-X800: 800 Gbps/puerto × 64 puertos = 51.2 Tbps totales
- Se prevé que las versiones CPO (Co-Packaged Optics) de Quantum-X800 y Spectrum-X800 estén disponibles en la segunda mitad de 2025 y la segunda mitad de 2026, respectivamente.
Aunque los switches Spectrum tienen un precio más elevado que los switches Ethernet de la competencia, la fortaleza de NVIDIA reside en la profunda integración de hardware y software (por ejemplo, con las DPU BlueField-3 y la plataforma DOCA 2.0) que permite un enrutamiento adaptativo altamente eficiente.
Costes de ASIC para conmutadores y carrera por el despliegue de CPO: Ethernet lidera, InfiniBand le sigue de cerca.
En el ámbito de Ethernet, Broadcom ha mantenido de forma constante su liderazgo técnico en silicio para conmutadores Ethernet. Su serie Tomahawk se rige por el principio de duplicar el ancho de banda total aproximadamente cada dos años.
En 2025, Broadcom lanzó el Tomahawk 6, el chip de conmutación con mayor ancho de banda del mundo en ese momento, con una capacidad total de 102.4 Tbps y soporte para 64 puertos de 1.6 Tbps. El Tomahawk 6 también era compatible de forma nativa con el protocolo UEC 1.0, implementando la dispersión de paquetes por múltiples rutas, la reintentaciones en la capa de enlace (LLR) y el control de flujo basado en crédito (CBFC), lo que reducía aún más la latencia y el riesgo de pérdida de paquetes.
Broadcom también es líder en tecnología de óptica coempaquetada (CPO):
- 2022: Versión CPO del Tomahawk 4 Humboldt
- 2024: Tomahawk 5 Bailly
- 2025: Tomahawk 6 Davisson

En comparación con el Tomahawk 6 de Broadcom, con un rendimiento de 102.4 Tbps, lanzado en 2025, se espera que NVIDIA no lance su Spectrum-X1600 de 102.4 Tbps hasta la segunda mitad de 2026, aproximadamente un año después. La versión CPO del Spectrum-X Photonics de NVIDIA, también con 102.4 Tbps, está prevista para la segunda mitad de 2026.

Más allá del duelo Broadcom–NVIDIA:
- Marvell lanzó el Teralynx 10 de 51.2 Tbps en 2023.
- Cisco lanzó la serie Silicon One G200 de 51.2 Tbps en 2023 junto con prototipos CPO.
Las interconexiones eléctricas alcanzan su límite; la integración óptica se convierte en el foco de atención.
Las interconexiones eléctricas tradicionales basadas en cobre están alcanzando sus límites físicos. A medida que aumentan las distancias de transmisión, las interconexiones de fibra óptica demuestran claras ventajas en escenarios de escalado horizontal: menor pérdida, mayor ancho de banda, mayor resistencia a la interferencia electromagnética y mayor alcance.

Las soluciones ópticas actuales utilizan principalmente transceptores conectables, logrando 200 Gbps en un solo carril y 1.6 Tbps agregados (8×200 Gbps).
A medida que aumentan las velocidades, el consumo de energía y la pérdida de señal en las placas de circuito impreso (PCB) se vuelven significativos. La fotónica de silicio (SiPh) se desarrolló para abordar estos problemas mediante la integración de diminutos componentes transceptores directamente en el silicio, formando circuitos integrados fotónicos (PIC). Estos se encapsulan dentro del chip, acortando las rutas eléctricas y reemplazándolas por rutas ópticas; esto se conoce como óptica encapsulada (CPO).

El concepto más amplio de CPO abarca múltiples formas: óptica integrada (OBO), óptica coempaquetada (CPO) y E/S óptica (OIO).

El empaquetado del motor óptico (OE) se está acercando cada vez más al ASIC principal:
- OBO: OE en PCB (ahora raramente utilizado)
- CPO estrecho: OE en sustrato (convencional actual) → potencia <0.5× conectable (~5 pJ/bit), latencia <0.1× (~10 ns)
- OIO: OE en el intercalador (dirección futura) → potencia <0.1× (<1 pJ/bit), latencia <0.05× (~5 ns)
La tecnología CPO aún enfrenta desafíos en la gestión térmica, la unión y el acoplamiento. A medida que la comunicación óptica se acerca a sus límites, los avances en CPO y fotónica de silicio determinarán el próximo panorama competitivo.
El bando de Ethernet se moviliza: UEC promueve el estándar UEC 1.0
Como se mencionó anteriormente, InfiniBand captó una cuota de mercado significativa en los inicios de la IA generativa gracias a su latencia ultrabaja. Sin embargo, Ethernet, el ecosistema de redes de alto rendimiento predominante, también está comprometido con lograr una latencia similar.
El Consorcio Ultra Ethernet (UEC) se fundó en agosto de 2023 con miembros iniciales como AMD, Arista, Broadcom, Cisco, Eviden, HPE, Intel, Meta y Microsoft. A diferencia del ecosistema InfiniBand, dominado por NVIDIA, UEC hace hincapié en los estándares abiertos y la interoperabilidad para evitar la dependencia de un solo proveedor.
En junio de 2025, UEC lanzó UEC 1.0, que no era simplemente una mejora de RoCE v2, sino una reconstrucción completa de cada capa (software, transporte, red, enlace y física).

Las mejoras clave para la reducción de latencia incluyen la subcapa de entrega de paquetes (PDS) en la capa de transporte, que presenta:
- Transmisión multitrayecto a través de múltiples rutas (carriles/pistas) de igual coste e igual velocidad.
- Las NIC utilizan la entropía para distribuir los paquetes por todas las rutas para obtener el máximo ancho de banda.
Esta estructura multicapa permite una recuperación de red ultrarrápida y un enrutamiento adaptativo casi InfiniBand.
Para minimizar la pérdida de paquetes, UEC 1.0 introduce dos mecanismos principales:
- Reintento de capa de enlace opcional (LLR): solicitud de retransmisión local rápida en caso de pérdida de paquetes, lo que reduce la dependencia del PFC.
- Control de flujo basado en crédito (CBFC) opcional: el emisor debe obtener créditos del receptor antes de transmitir, logrando un comportamiento verdaderamente sin pérdidas idéntico al CBFC de InfiniBand.
El desarrollo a gran escala de China: Coordinación de estándares internacionales con la innovación independiente
La arquitectura de escalado de la infraestructura de IA de China está evolucionando según los principios duales de autonomía y compatibilidad internacional. Si bien se adhieren a los estándares globales de Ethernet, las principales empresas nacionales están invirtiendo fuertemente en arquitecturas propias, formando gradualmente sistemas de escalado netamente chinos.
Alibaba, Baidu, Huawei, Tencent y muchas otras empresas se han unido a UEC para desarrollar conjuntamente el estándar. Simultáneamente, están desarrollando de forma independiente redes de escalado horizontal que buscan baja latencia y cero pérdida de paquetes, comparando directamente el rendimiento de InfiniBand.

Arquitecturas indígenas destacadas:
- China Mobile – GSE (Ethernet de programación general)Lanzado antes de UEC en mayo de 2023, GSE 1.0 optimiza el protocolo RoCE existente mediante el balanceo de carga a nivel de puerto y la detección de la congestión en los puntos finales. GSE 2.0 es una reconstrucción completa de la pila de protocolos con enrutamiento multipath y control de flujo DGSQ.
- Alibaba Cloud – Red de alto rendimiento (HPN)HPN 7.0 utiliza un diseño de "doble enlace ascendente + multicanal + doble plano". La próxima generación, HPN 8.0, incorporará chips de conmutación 800G de 102.4 Tbps de desarrollo propio.
- Huawei – Interconexión UB-Mesh: Implementado en plataformas Ascend NPU utilizando una topología de malla completa nD multidimensional, que admite tanto el escalado vertical como el escalado horizontal real en dimensiones 3D+.
Con la participación de ZTE, Accelink y otras empresas, China está construyendo rápidamente una cadena de suministro nacional completa de módulos ópticos y fotónica de silicio.
Centros de datos de IA de próxima generación: Transformación tecnológica y oportunidades
Durante muchos años, InfiniBand de NVIDIA dominó los mercados de escalado horizontal de IA con una latencia inferior a 2 µs y cero pérdida de paquetes. Sin embargo, con el lanzamiento de UEC 1.0 en junio de 2025, Ethernet está reduciendo rápidamente la brecha en latencia y fiabilidad, recuperando así su competitividad. Broadcom continúa su ciclo bienal de duplicación de ancho de banda, mejorando sin descanso el rendimiento del hardware Ethernet.
A medida que las velocidades alcanzan los 1.6 Tbps y superan este valor, la potencia y la latencia de la óptica conectable se convierten en cuellos de botella, lo que consolida a la óptica conectable (CPO) como la tecnología dominante del futuro. Broadcom ha liderado el despliegue de CPO desde 2022; NVIDIA planea implementar InfiniBand CPO en el segundo semestre de 2025.
A medida que Ethernet y CPO maduran, las redes de centros de datos de IA están haciendo la transición completa a interconexiones ópticas de alta velocidad, creando enormes oportunidades para los transceptores ópticos y las cadenas de suministro ascendentes (chips de fotónica de silicio, láseres, módulos de fibra).
En el ámbito de la escalabilidad horizontal:
- Se espera que NVIDIA continúe liderando el segmento tradicional de InfiniBand.
- Broadcom está preparada para mantener su posición dominante en Ethernet gracias a sus ASIC de alto ancho de banda superiores, su liderazgo en CPO y la implementación de UEC.
En agosto de 2025, tanto NVIDIA como Broadcom presentaron los conceptos de "escalado transversal" para extender la conectividad a través de múltiples centros de datos: el próximo paradigma en redes de alto rendimiento.
Productos relacionados:
-
NVIDIA MMA4Z00-NS400 Compatible 400G OSFP SR4 Flat Top PAM4 850nm 30m en OM3/50m en OM4 MTP/MPO-12 Módulo transceptor óptico FEC multimodo
$550.00
-
NVIDIA MMS4X00-NS400 Compatible 400G OSFP DR4 Flat Top PAM4 1310nm MTP/MPO-12 500m SMF FEC Módulo transceptor óptico
$700.00
-
Módulo transceptor óptico MTP/MPO-1 OM00 FEC compatible con NVIDIA MMA400Z400-NS112, 4 G, QSFP4, VR850, PAM50, 12 nm, 4 m
$550.00
-
NVIDIA MMS1Z00-NS400 Compatible 400G NDR QSFP112 DR4 PAM4 1310nm 500m MPO-12 con módulo transceptor óptico FEC
$700.00
-
NVIDIA MMA4Z00-NS Compatible 800 Gb/s Twin-port OSFP 2x400G SR8 PAM4 850nm 100m DOM Dual MPO-12 MMF Módulo transceptor óptico
$650.00
-
NVIDIA MMA4Z00-NS-FLT Compatible 800 Gb/s Twin-port OSFP 2x400G SR8 PAM4 850nm 100m DOM Dual MPO-12 MMF Módulo transceptor óptico
$650.00
-
NVIDIA MMS4X00-NM Compatible 800 Gb/s Puerto doble OSFP 2x400G PAM4 1310nm 500m DOM Dual MTP/MPO-12 Módulo transceptor óptico SMF
$900.00
-
NVIDIA MMS4X00-NM-FLT Compatible 800G Twin-port OSFP 2x400G Flat Top PAM4 1310nm 500m DOM Dual MTP/MPO-12 SMF Módulo transceptor óptico
$1199.00
-
Módulo transceptor óptico OSFP 4x50G FR2 PAM400 4nm 4km DOM Dual Duplex LC SMF compatible con NVIDIA MMS1310X2-NM
$1200.00
-
Módulo transceptor óptico MPO-4 SMF dual con aletas, compatible con NVIDIA MMS00A980 (9-1IAH00-00XM1.6), 8T OSFP DR4D PAM1311, 500 nm, 12 m, IHS
$2600.00
-
Módulo transceptor óptico LC SMF dúplex doble con aletas, compatible con NVIDIA, 1.6T, 2xFR4/FR8, OSFP224, PAM4, 1310 nm, 2 km, IHS
$3100.00
-
Módulo transceptor óptico InfiniBand XDR SMF, compatible con NVIDIA MMS4A00 (980-9IAH0-00XM00), 1.6T, 2xDR4/DR8, OSFP224, PAM4, 1311 nm, 500 m, RHS/Flat Top, MPO-12/APC dual, XDR
$3600.00
