NVIDIA ConnectX-7 400GbE y NDR Infiniband NIC Introducción

Los adaptadores de red de la familia NVIDIA ConnectX-7 son compatibles con los protocolos InfiniBand y Ethernet, lo que proporciona una solución versátil para una amplia gama de necesidades de red. Estos adaptadores están diseñados para brindar capacidades de red inteligentes, escalables y ricas en funciones, que satisfacen los requisitos de las aplicaciones empresariales tradicionales, así como las cargas de trabajo de alto rendimiento en IA, computación científica y centros de datos en la nube a hiperescala.

Los adaptadores de red ConnectX-7 están disponibles en dos factores de forma diferentes: tarjetas PCIe verticales y tarjetas Open Compute Project (OCP) Spec 3.0. Esta flexibilidad permite a los usuarios elegir el adaptador que mejor se adapte a sus requisitos de implementación específicos.

Las redes de 400 Gbps son una nueva capacidad que pueden manejar las ranuras PCIe Gen5 x16. Echemos un vistazo a la configuración para usar NDR 400Gbps InfiniBand/400GbE.

Toma de ángulo 1 de NVIDIA ConnectX 7 400G OSFP

Ángulo 1 tiro de NVIDIA ConnectX 7 400G OSFP

Descripción general del hardware del adaptador MCX75310AAS-NEAT

ConnectX-7 (MCX75310AAS-NEAT) es una tarjeta de bajo perfil diseñada para ranuras PCIe Gen5 x16. La siguiente imagen muestra el soporte de altura completa, pero también incluye un soporte de perfil bajo en la caja.

Frente de NVIDIA ConnectX 7 400G OSFP

Frente de NVIDIA ConnectX 7 400G OSFP

Vale la pena señalar las dimensiones de la solución de enfriamiento. Sin embargo, NVIDIA no revela las especificaciones de energía de estos adaptadores de red.

Toma de ángulo 2 de NVIDIA ConnectX 7 400G OSFP

Ángulo 2 Disparo de NVIDIA ConnectX 7 400G OSFP

Aquí está la parte posterior de la tarjeta con una placa posterior del disipador de calor.

La parte posterior de la tarjeta NVIDIA ConnectX 7 400G OSFP

La parte posterior de la tarjeta NVIDIA ConnectX 7 400G OSFP

Esta es una vista lateral de la tarjeta desde el conector PCIe Gen5 x16.

Ángulo del conector NVIDIA ConnectX 7 400G OSFP

Ángulo del conector NVIDIA ConnectX 7 400G OSFP

Esta es otra vista de la tarjeta desde la parte superior de la tarjeta.

Ángulo superior NVIDIA ConnectX 7 400G OSFP

Ángulo superior NVIDIA ConnectX 7 400G OSFP

Esta es una vista desde la dirección del flujo de aire en la mayoría de los servidores.

NVIDIA ConnectX 7 400G OSFP Flujo de aire de atrás hacia adelante 2

Esta es una tarjeta plana de un solo puerto que funciona a una velocidad de 400 Gbps. Proporciona una enorme cantidad de ancho de banda.

Instalación del adaptador NVIDIA ConnectX-7 400G

Uno de los aspectos más importantes de una tarjeta de este tipo es instalarla en un sistema que pueda aprovechar su velocidad.

El procedimiento de instalación de las tarjetas adaptadoras ConnectX-7 implica los siguientes pasos:

  1. Compruebe los requisitos de hardware y software del sistema.
  2. Preste atención a la consideración del flujo de aire dentro del sistema host.
  3. Siga las precauciones de seguridad.
  4. Desembale el paquete.
  5. Siga la lista de comprobación previa a la instalación.
  6. (Opcional) Reemplace el soporte de montaje de altura completa con el soporte corto suministrado.
  7. Instale la tarjeta adaptadora ConnectX-7 PCle x16/la tarjeta adaptadora ConnectX-7 2x PCle x16 Socket Direct en el sistema.
  8. Conectar cables o módulos a la tarjeta.
  9. Identifique ConnectX-7 en el sistema.
Supermicro SYS 111C NR con adaptador NVIDIA ConnectX 7 de 400 Gbps 1

Supermicro SYS 111C NR con adaptador NVIDIA ConnectX 7 de 400 Gbps 1

Afortunadamente, hemos instalado con éxito estos dispositivos en los servidores Supermicro SYS-111C-NR 1U y Supermicro SYS-221H-TNR 2U y funcionan bien.

Supermicro SYS 111C NR con adaptador NVIDIA ConnectX 7 de 400 Gbps 2

Supermicro SYS 111C NR con adaptador NVIDIA ConnectX 7 de 400 Gbps 2

El SYS-111C-NR es un servidor de nodo de una sola ranura que nos brinda más flexibilidad porque no necesitamos preocuparnos por las conexiones entre las ranuras al configurar el sistema. A velocidades de 10/40 Gbps o incluso de 25/50 Gbps, ha habido discusiones sobre los desafíos de rendimiento a través de las conexiones entre las ranuras de la CPU. Con la llegada de 100 GbE, el problema de tener un adaptador de red para cada CPU para evitar conexiones entre ranuras se hizo más prominente y frecuente. El impacto es aún más pronunciado y grave cuando se utilizan redes con velocidades de 400 GbE. Para los servidores de dos ranuras que usan una única NIC de 400 GbE, puede ser una opción que valga la pena considerar buscar varios adaptadores de host que se conecten directamente a cada CPU.

OSFP frente a QSFP-DD

Una vez instaladas las tarjetas, teníamos nuestro siguiente desafío. Estas tarjetas utilizan jaulas OSFP, pero nuestro conmutador de 400 GbE utiliza QSFP-DD.

Supermicro SYS 111C NR con adaptador NVIDIA ConnectX 7 de 400 Gbps 4

Supermicro SYS 111C NR con adaptador NVIDIA ConnectX 7 de 400 Gbps 4

Estos dos estándares tienen algunas diferencias en los niveles de potencia y el diseño físico. Es posible convertir QSFP-DD a OSFP, pero lo contrario no es posible. Si nunca ha visto la óptica OSFP o los DAC, tienen sus propias soluciones de gestión térmica únicas. QSFP-DD generalmente usa un disipador de calor en la parte superior del zócalo, mientras que OSFP generalmente incluye una solución de enfriamiento en los DAC OSFP y la óptica en el laboratorio.

Conectores OSFP y QSFP-DD 1

Conectores OSFP y QSFP-DD 1

Este es complicado. Tanto el OSFP DAC como el OSFP a QSFP-DD DAC utilizan una solución de refrigeración por disipador térmico. Y debido al enfriamiento directo en el DAC, el enchufe OSFP no se insertará en el puerto OSFP del Tarjeta de red ConnectX-7.

Es probable que NVIDIA use OSFP porque tiene un nivel de potencia más alto. OSFP permite ópticas de 15W, mientras que QSFP-DD solo admite 12W. Tener un techo de potencia más alto puede facilitar la adopción temprana durante la fase de adopción temprana, que es una de las razones por las que están disponibles productos como el módulo CFP24 de 8 W.

Siempre que sea posible, tenga en cuenta el tamaño del disipador de calor en el lado OSFP del inserto ConnectX-7. Si está acostumbrado a QSFP/QSFP-DD, entonces todos los dispositivos se conectarán y funcionarán bien, pero encontrar un problema menor como el tamaño del conector puede presentar un desafío mayor. Sin embargo, si usted es un proveedor de soluciones, esta también es una oportunidad para brindar soporte de servicio profesional. Distribuidores como NVIDIA y PNY también venden cables LinkX, lo que habría sido una opción más conveniente. Esta es una lección valiosa.

A continuación, configuremos todo esto y pongámonos a trabajar.

Configuración del software NDR InfiniBand frente a 400 GbE

Además de hacer la instalación física, también trabajamos en el software en el servidor. Afortunadamente, esta fue la parte más fácil. Utilizamos el adaptador ConnectX-2910 de la serie MT7 de Supermicro.

NVIDIA MT2910 Lshw

NVIDIA MT2910 Lshw

Al realizar una instalación y un reinicio rápidos de OFED (OpenFabrics Enterprise Distribution), el

tenemos el sistema listo.

NVIDIA MT2910 Lshw después de la instalación de OFED

NVIDIA MT2910 Lshw después de la instalación de OFED

Dado que estamos utilizando un conmutador Broadcom Tomahawk 4 en Ethernet y funcionando directamente en modo InfiniBand, también debemos cambiar el tipo de enlace.

El proceso es simple y similar a cambiar el puerto Mellanox ConnectX VPI a Ethernet o InfiniBand en Linux.

El siguiente es el proceso básico:

0. Instalar OFED y actualizar el firmware

Este es un paso necesario para garantizar que la tarjeta funcione correctamente.

Durante la instalación de MLNX_OFED_LINUX, NVIDIA ConnectX 7 Mellanox Technologies MT2910 MT2910 Series

Durante la instalación de MLNX_OFED_LINUX, NVIDIA ConnectX 7 Mellanox Technologies MT2910 MT2910 Series

El proceso es bastante simple. Primero, descargue la versión requerida para su sistema operativo y use el script provisto en la descarga para instalar el controlador. El instalador estándar también actualizará el firmware de la tarjeta.

NVIDIA ConnectX 7 MT2910 MT2910 MLNX_OFED_LINUX Instalación de la actualización de firmware

NVIDIA ConnectX 7 MT2910 MT2910 MLNX_OFED_LINUX Instalación de la actualización de firmware

Una vez que hemos instalado OFED después de reiniciar el servidor, podemos ver que NVIDIA ConnectX-7 MCX75310AAS-NEAT es compatible con 400GbE y NDR IB (InfiniBand). NDR IB está configurado en el modo predeterminado.

NVIDIA ConnectX 7 MCX75310AAS NEAT Mlxconfig

NVIDIA ConnectX 7 MCX75310AAS NEAT Mlxconfig

Si queremos convertirlo en Ethernet, solo hay tres sencillos pasos:

1. Encuentre el dispositivo ConnectX-7

Especialmente si tiene otros dispositivos en su sistema, necesitará encontrar el dispositivo correcto para cambiar. Si solo tiene una tarjeta, eso es fácil de hacer.

lspci | grep mellanox

16:00.0 Controlador Infiniband: Familia Mellanox Technologies MT2910 [ConnectX-7]

Aquí, ahora sabemos que nuestro dispositivo está a las 16:00.0 (como puede ver en la captura de pantalla anterior).

2. Utilice mlxconfig para cambiar el dispositivo ConnectX-7 de NDR Infiniband a Ethernet.

A continuación, utilizaremos el ID del dispositivo para cambiar el tipo de enlace de Infiniband.

sudo mlxconfig -d 16:00.0 establece LINK_TYPE_P1=2

NVIDIA ConnectX 7 MCX75310AAS NEAT Mlxconfig establece el tipo de enlace a Ethernet

NVIDIA ConnectX 7 MCX75310AAS NEAT Mlxconfig establece el tipo de enlace a Ethernet

Aquí LINK_TYPE_P1=2 establece P1 (puerto 1) en 2 (Ethernet). El LINK_TYPE_P1=1 predeterminado significa que P1 (puerto 1) está configurado en 1 (NDR InfiniBand). Si necesita volver a cambiarlo, simplemente puede revertir el proceso.

3. Reinicie el sistema

Después de un reinicio rápido, ahora tenemos un adaptador Ethernet ConnectX-7.

Numerosas opciones de velocidad Ethernet para NVIDIA ConnectX 7 MT2910

Numerosas opciones de velocidad Ethernet para NVIDIA ConnectX 7 MT2910

Este adaptador de 400 Gbps aún admite velocidades de 1 GbE.

FCaracterísticas y compatibilidad de NVIDIA ConnectX-7

Característica de NVIDIA ConnectX-7
Característica y compatibilidad de NVIDIA ConnectX-7

Rendimiento

NVIDIA ConnectX 7 400Gbps NDR Infiniband

NVIDIA ConnectX 7 400Gbps NDR Infiniband

Por supuesto, hay muchas otras opciones de rendimiento disponibles. Podemos alcanzar velocidades entre 300Gbps y 400Gbps en InfiniBand y Ethernet. Para Ethernet, se necesita algo de ayuda para llegar a velocidades de 400 GbE, ya que la conexión inicial es de solo 200 GbE, pero no hacemos mucho en términos de ajuste del rendimiento.

Rendimiento de NVIDIA ConnectX 7 400GbE

Rendimiento de NVIDIA ConnectX 7 400GbE

Estas velocidades están en el rango de 400 Gbps que se pueden alcanzar, más del triple de la velocidad a la que estamos acostumbrados. adaptadores de 100 Gbps, y en muy poco tiempo. Sin embargo, es importante recalcar que offla carga a velocidades de 400 GbE es muy importante. A velocidades de 25 GbE y 100 GbE, hemos visto dispositivos como DPU utilizados para offcargar CPU para tareas de red comunes. En los últimos tres años, los núcleos de CPU modernos aumentaron su velocidad entre un 20 y un 40 por ciento, mientras que el ancho de banda de la red aumentó de 100 GbE a 400 GbE. Como resultado, tecnologías como RDMA offcargas y OVS/comprobación offLas cargas se han vuelto críticas para minimizar el uso de CPU. Por eso, la antigua división Nvidia Mellanox es una de las pocas empresas offadaptadores de 400 Gbps disponibles en la actualidad.

Supermicro SYS 111C NR con adaptador NVIDIA ConnectX 7 400Gbps

Deja un comentario

Ir al Inicio