¿Cuál es la diferencia entre la tarjeta Ethernet y el adaptador InfiniBand?

NIC es un controlador de interfaz de red, también conocido como adaptador de red o tarjeta de interfaz de red, que se usa en computadoras y servidores. Puede comunicarse con switches, dispositivos de almacenamiento, servidores y estaciones de trabajo a través de cables de conexión a la red (cables de par trenzado, fibras ópticas, etc.). Con el aumento de la popularidad del mercado y la capacidad técnica, también existen varios tipos de tarjetas de red, como las tarjetas Ethernet y las tarjetas InfiniBand. Este artículo también se centra en las diferencias entre una tarjeta Ethernet y un adaptador InfiniBand, con la esperanza de ayudarlo a elegir la tarjeta de red más adecuada.

¿Qué es una tarjeta Ethernet?

Una tarjeta Ethernet es un adaptador de red conectado a una ranura de placa base y es compatible con el estándar de protocolo Ethernet. Cada adaptador de red tiene una dirección física global única, denominada dirección MAC. Los datos se pueden enviar con precisión a la computadora de destino según la dirección MAC del adaptador de red. Hay muchos tipos de tarjetas Ethernet y varios métodos de clasificación. Se pueden dividir según el ancho de banda, la interfaz de red y la interfaz de bus. Una tarjeta Ethernet de interfaz óptica se denomina tarjeta Ethernet de fibra (adaptador Ethernet de fibra). Sigue el protocolo de comunicación Ethernet de fibra óptica y generalmente se conecta a un conmutador Ethernet de fibra óptica a través de un cable de fibra óptica. Es el tipo de tarjeta de red más utilizado. En la actualidad, los adaptadores Fiber-Ethernet se pueden clasificar por interfaz de bus y ancho de banda.

Clasificación de interfaz de bus

Los tipos de interfaz de bus de tarjeta Ethernet se pueden clasificar como PCI, PCI-Express (abreviado como PCI-E), USB e ISA. ISA/PCI es la interfaz de bus anterior y se está eliminando gradualmente a medida que la tecnología se vuelve más madura. PCIe es actualmente la interfaz de bus más utilizada y es muy común en aplicaciones de grado industrial y servidores.

1. ¿Cómo funciona la tarjeta PCIe?

PCIe es un accesorio en serie que funciona más como una red que como un bus. La diferencia más obvia con otras interfaces de bus que manejan datos de diferentes fuentes es que PCIe controla el flujo de datos a través de un conmutador para una conexión punto a punto. La tarjeta PCle se inserta en la ranura y genera una conexión lógica (interconexión o enlace) para comunicarse entre sí. Por lo general, admite canales de comunicación punto a punto entre los dos puertos PCle y puede realizar las acciones de envío y recepción de solicitudes o interrupciones PCI normales.

2. ¿Cuáles son las categorías de tarjetas PCIe?

Especificaciones: por lo general, la cantidad de canales en la ranura PCle determina una especificación para la tarjeta PCle. Las tarjetas PCle comunes tienen las siguientes especificaciones físicas: x1, x4, x8, x16 y x32. Por ejemplo, una tarjeta PClex8 significa que la tarjeta tiene ocho canales.

Versión: PCIe reemplaza los antiguos estándares de bus PCI y PCI-X y se modifica constantemente para satisfacer la creciente demanda de ancho de banda alto. La versión más antigua de PCIe 1.0 (2.5GT/s) se lanzó en 2002. Posteriormente, PCIe 2.0 (5GT/s), PCIe 3.0 (8GT/s), PCIe 4.0 (16GT/s), PCIe 5.0 (32GT/s), Aparecieron PCIe 6.0 (64GT/s) y PCIe7.0 (128GT/s). Todas las versiones de PCIe admiten compatibilidad con versiones anteriores.

 

Clasificación de las By ancho

A medida que el tráfico de Internet crece día a día, los principales ISP presionan a los equipos de red para que iteren y actualicen constantemente con requisitos de mayor rendimiento para lograr una transferencia de datos de 10G, 25G, 40G o hasta 100G. En los siguientes apartados se detallará información básica sobre ellos.

1. Fibra 10G adaptador(Servidor Ethernet adaptador)

adaptador de red de fibra 10G adopta una tarjeta de interfaz de red de bus PCI de 32/64 bits, admite fibra monomodo o multimodo de 10G y es adecuada para la construcción de redes troncales empresariales y de campus. Al mismo tiempo, 10G Ethernet puede transmitir hasta 100 kilómetros, lo que puede cumplir con los requisitos de transmisión en el área metropolitana. La implementación de una red 10G en la capa troncal de MAN puede simplificar en gran medida la estructura de la red, reducir los costos y facilitar el mantenimiento. Ethernet de extremo a extremo se utiliza para construir un MAN con capacidades de soporte de servicio ricas, de alto rendimiento y de bajo costo.

2. Fibra 25G adaptador

adaptadores de fibra 25G compense el bajo ancho de banda de 10G Ethernet y el alto costo de 40G Ethernet mediante el uso de tecnología de capa física de un solo canal de 25 Gb/s para lograr una transmisión de 100 G basada en cuatro canales de fibra de 25 Gbps. Dado que el paquete SFP28 se basa en el paquete SFP+ y ambos tienen el mismo tamaño, el puerto del adaptador de fibra de 25G puede admitir velocidades de 25G y 10G. En comparación con el adaptador de red 10G, el mayor ancho de banda de la NIC de fibra 25G para satisfacer las necesidades de red de los clústeres informáticos de alto rendimiento, en las actualizaciones de red de 100G o incluso de mayor velocidad, el adaptador de fibra 25G será una de las infraestructuras indispensables.

3. Fibra 40G adaptador

El adaptador de fibra 40G tiene una interfaz 40G QSFP+ que admite un ancho de banda de transmisión de 40 Gbps. También es compatible con la ranura estándar PCI-e x8 para garantizar un funcionamiento eficiente y estable. Típicamente disponible en puertos simples y dobles, NIC de fibra de 40G son la solución de interconexión de más alto rendimiento para centros de datos empresariales, computación en la nube, computación de alto rendimiento y entornos integrados.

4GFibra adaptador

Actualmente, los adaptadores de red de fibra 100G más comunes en el mercado son de un solo puerto y de dos puertos. Cada puerto puede proporcionar hasta 100 Gbit/s de Ethernet, lo que garantiza el enrutamiento adaptable de una transmisión confiable y mejora la capacidad de descarga de vSwitch/vRouter. Tarjetas de red de fibra 100G proporcionar una solución flexible y de alto rendimiento, offofreciendo una gama de innovadores offcargas y aceleradores en el hardware para mejorar la eficiencia de las redes del centro de datos y las conexiones de almacenamiento.

La conexión entre el servidor y el conmutador aumenta a un mayor ancho de banda. La tarjeta Ethernet 25G se ha convertido en la corriente principal como dispositivo intermedio entre el servidor 25G y el conmutador 100G. Y a medida que el centro de datos crece a 400G a una velocidad sin precedentes, la conexión entre servidores y conmutadores crecerá a 100G, las tarjetas de red de 100G también juegan un papel indispensable en el centro de datos.

Las tarjetas de red 100G también juegan un papel indispensable en el centro de datos.

W¿Qué es el adaptador InfiniBand?

Red InfiniBand

Como estándar de comunicación de redes informáticas, InfiniBand se usa ampliamente en computación de alto rendimiento (HPC) debido a sus ventajas de ancho de banda de alto rendimiento y retardo de transmisión de red ultra bajo. La red InfiniBand se puede extender horizontalmente a través de redes de conmutación para adaptarse a los requisitos de red de varias escalas. A partir de 2014, la mayoría de las supercomputadoras TOP500 utilizan tecnología de red InfiniBand. En los últimos años, las aplicaciones relacionadas con IA/big data también han adoptado redes InfiniBand para lograr una implementación de clústeres de alto rendimiento.

Como protocolo en capas, InfiniBand define una pila de protocolos en capas similar al modelo de protocolo OSI de siete capas. Los conmutadores IB crean un canal directo privado y protegido en el nodo del servidor. En este canal, la transmisión de datos y mensajes ya no requerirá procesamiento de la CPU sino que se implementará directamente a través de RDMA. De esta manera, las funciones de recepción y envío son offcargado en el adaptador InfiniBand para su procesamiento. Físicamente, los adaptadores InfiniBand se conectan a la memoria de la CPU en función de las interfaces PCIe, lo que proporciona un mayor ancho de banda, una latencia más baja y una mayor escalabilidad que otros protocolos de comunicación.

nfiniband es ampliamente utilizado en computación de alto rendimiento

Adaptador InfiniBand

La arquitectura InfiniBand define un conjunto de componentes de hardware necesarios para implementar la arquitectura, y la tarjeta de red InfiniBand es uno de ellos. El adaptador InfiniBand también se denomina HCA: adaptador de canal de host. El HCA es el punto en el que un nodo final InfiniBand (como un servidor o dispositivo de almacenamiento) se conecta a la red InfiniBand. Los arquitectos de InfiniBand dedicaron mucho tiempo a asegurarse de que la arquitectura pudiera implementar más de una función HCA específica requerida en una sola pieza de hardware, firmware o software para que la colección final de hardware, software y firmware que representa la función HCA proporcione acceso a los recursos de red para una aplicación. En efecto, la estructura de la cola utilizada por la aplicación para acceder al hardware InfiniBand aparecerá directamente en la dirección virtual de la aplicación. El mismo mecanismo de traducción de direcciones es un medio para que los HCA accedan a la memoria en nombre de las aplicaciones de nivel de usuario. A menudo, las aplicaciones se refieren a direcciones virtuales; Los HCA tienen la capacidad de convertir estas direcciones en direcciones físicas para la transferencia de información.

Ventajas de InfiniBand adaptador

  1. Las tarjetas de red InfiniBand proporcionan la solución de interconexión más escalable y de mayor rendimiento para servidores y sistemas de almacenamiento. Particularmente en HPC, la Web 2.0, la computación en la nube, los grandes datos, los servicios financieros, los centros de datos virtualizados y las aplicaciones de almacenamiento verán mejoras significativas en el rendimiento, lo que resultará en tiempos de finalización más cortos y menores costos generales del proceso.
  2. Los adaptadores InfiniBand son la solución ideal para clústeres de HPC que requieren un alto ancho de banda, altas tasas de mensajes y baja latencia para lograr una alta eficiencia del servidor y productividad de las aplicaciones.
  3. La tarjeta InfiniBand offcarga el procesamiento del protocolo y el movimiento de datos de la CPU desde la CPU hasta la interconexión, lo que maximiza la eficiencia de la CPU y realiza un procesamiento ultrarrápido de simulación de alta resolución, grandes conjuntos de datos y algoritmos altamente paralelizados.

Cómo seleccionar una InfiniBand Nuestra red Tarjeta

  1. Ancho de banda de red: 100G, 200G, 400G
  2. Número de adaptadores en una sola máquina
  3. Tasa de puerto: 100 Gb/s (HDR100/EDR), 200 Gb/s (HDR)
  4. Número de puertos: 1/2
  5. Tipo de interfaz de host: PCIe3/4 x8/x16, OCP2.0/3.0
  6. Si se requiere la función Socket-Direct o Multi-host

InfiniBand frente a Ethernet

  • Ancho de banda: Debido a que las dos aplicaciones son diferentes, los requisitos de ancho de banda también son diferentes. Ethernet es más una interconexión de dispositivos terminales, no hay una gran demanda de ancho de banda. InfiniBand se utiliza para interconectar servidores en informática de alto rendimiento. Tiene en cuenta no solo la interconexión, sino también cómo reducir la carga de la CPU durante la transmisión de red de alta velocidad. Beneficiándose de la tecnología RDMA, Red InfiniBand puede lograr la descarga de la CPU en la transmisión de alta velocidad y mejorar la utilización de la red. Por lo tanto, un gran aumento en la velocidad de la CPU no sacrificará más recursos para el procesamiento de la red y ralentizará el desarrollo del rendimiento de HPC.
  • Estado latente: Principalmente dividido en conmutador y adaptador de red para comparar. Para el conmutador: como la segunda capa de tecnología en el modelo de transmisión de red, los conmutadores Ethernet tienen un proceso de procesamiento largo, que generalmente es de varios estados (más de 200 ns que admiten corte), mientras que los conmutadores InfiniBand tienen un procesamiento de capa 2 muy simple. La tecnología Cut-Through puede acortar en gran medida el retraso de reenvío a menos de 100 ns, que es mucho más rápido que los conmutadores Ethernet. Para adaptadores de red: con la tecnología RDMA, las tarjetas de red InfiniBand pueden reenviar paquetes sin pasar por la CPU, lo que acelera enormemente el encapsulado y el desencapsulado de paquetes (normalmente, el retraso de recepción y envío es de 600 ns). Sin embargo, el retraso de transmisión y envío de las aplicaciones TCP y UDP basadas en Ethernet es de unos 10 us, con una diferencia de más de diez veces.
  • Fiabilidad: En el campo de la computación de alto rendimiento, la retransmisión de pérdida de paquetes tiene un gran impacto en el rendimiento general. Por lo tanto, se necesita un protocolo de red altamente confiable para garantizar las características sin pérdidas de la red desde el nivel del mecanismo, para lograr sus características de alta confiabilidad. InfiniBand es un protocolo de red completo con sus propios formatos de capa 1 a capa 4. Los paquetes se envían y reciben en la red según el control de flujo de extremo a extremo. No hay acumulación de caché en la transmisión a través de la red InfiniBand, por lo que la fluctuación de retardo se controla al mínimo, creando así una red pura ideal. La red construida por Ethernet no tiene un mecanismo de control de flujo de programación, lo que no solo es de alto costo sino también de mayor consumo de energía. Además, debido a que no existe un mecanismo de control de flujo de extremo a extremo, la red aparecerá en casos ligeramente extremos, lo que provocará una congestión de caché y pérdida de paquetes, lo que hace que el rendimiento del reenvío de datos fluctúe mucho.
  • Networking: La red Ethernet requiere que cada servidor de la red envíe paquetes periódicamente para garantizar la actualización de las entradas en tiempo real. Cuando el número de nodos en la red aumenta hasta cierto nivel, se generan tormentas de transmisión, lo que resulta en una pérdida importante del ancho de banda de la red. Al mismo tiempo, la falta de un mecanismo de aprendizaje de entrada de tabla de la red Ethernet conducirá a una red de bucle, y Ethernet no tiene SDN especial, por lo que el formato del paquete o el mecanismo de reenvío deben cambiarse para cumplir con los requisitos de SDN durante la red. implementación, lo que aumenta la complejidad de la configuración de la red. InfiniBand nace con el concepto de SDN. Cada red InfiniBand de capa 2 tiene un administrador de subred para configurar el ID de nodo (LocalID) en la red. Luego, la información de la ruta de reenvío se calcula uniformemente a través del plano de control y se envía al conmutador InfiniBand. De esta forma, se puede configurar una red InfiniBand de capa 2 sin ninguna configuración, se evitan inundaciones y se evitan las VLAN y las interrupciones de la red en anillo. Por lo tanto, se puede implementar fácilmente una gran red de Capa 2 con decenas de miles de servidores.

Recomendaciones de tarjetas de red

Tarjeta Ethernet ConnectX-5 (MCX512A-ACAT)

La tarjeta de interfaz de red Ethernet ConnectX-5 cuenta con hasta dos puertos de conexión de 10/25 GbE, latencia de 750 ns, hasta 200 millones de paquetes por segundo (Mpps) y kits de desarrollo de planos de datos (DPDK). Para cargas de trabajo de almacenamiento, ConnectX-5 offOfrece una gama de aceleraciones innovadoras, como la conmutación de firmas en hardware (T10-DIF), conmutadores PCIe integrados y NVMe over Fabric target offcargando. Las tarjetas adaptadoras ConnectX-5 también traen Open vSwitch avanzado offcargando en centros de datos de telecomunicaciones y en la nube para impulsar velocidades de paquetes y rendimiento extremadamente altos mientras se reduce el consumo de recursos de la CPU, lo que aumenta la eficiencia de la infraestructura del centro de datos.

Tarjeta Ethernet ConnectX-5 (MCX512A-ACAT)

Tarjeta Ethernet ConnectX-6 (MCX623106AN-CDAT)

ConnectX-6 Dx SmartNIC admite tasas de transferencia de 1/10/25/40/50/100 GbE, canalizaciones programables flexibles para nuevos flujos de red, alojamiento múltiple con QoS avanzado, IPsec y soporte de aceleración de cifrado en línea TLS y aceleración de cifrado para bloquear estática datos. Es la tarjeta de interfaz de red en la nube más segura y avanzada de la industria para acelerar aplicaciones de centros de datos de misión crítica, como seguridad, virtualización, SDN/NFV, big data, aprendizaje automático y almacenamiento.

Tarjeta Ethernet ConnectX-6 (MCX623106AN-CDAT)

Tarjeta de red ConnectX-6 VPI IB (MCX653105A-ECAT-SP)

La tarjeta ConnectX-6 VPI proporciona un solo puerto, latencia inferior a 600 ns y 215 millones de mensajes por segundo para HDR100 EDR InfiniBand y conectividad Ethernet de 100 GbE. Compatibilidad con PCIe 3.0 y PCIe 4.0; funciones de almacenamiento avanzadas, incluido el cifrado a nivel de bloque y la suma de comprobación offcarga; para obtener el mayor rendimiento y la solución más flexible diseñada para satisfacer las crecientes necesidades de las aplicaciones del centro de datos.

Tarjeta de red ConnectX-6 VPI IB (MCX653105A-ECAT-SP)

Tarjeta de red ConnectX-5 VPI IB (MCX556A-ECAT)

Tarjetas adaptadoras ConnectX-5 InfiniBand offer una solución flexible y de alto rendimiento con puertos de conectividad InfiniBand y Ethernet de 100 Gb/s de doble puerto, baja latencia y altas tasas de mensajes, así como conmutadores PCIe integrados y NVMe over Fabrics, offcarga. Estos adaptadores inteligentes habilitados para acceso directo a memoria remota (RDMA) proporcionan aplicaciones avanzadas offCapacidades de carga para computación de alto rendimiento (HPC), hiperescala en la nube y plataformas de almacenamiento.

Tarjeta de red ConnectX-5 VPI IB (MCX556A-ECAT)

De los adaptadores InfiniBand y las tarjetas Ethernet mencionados anteriormente, es fácil ver que ambos tienen sus propias características y áreas de aplicación correspondientes. El tipo de tarjeta a implementar depende no solo de los protocolos admitidos por la tarjeta, sino también de su entorno de red y presupuesto.

Deja un comentario

Ir al Inicio