Сетевые интерфейсные карты (NIC) серии NVIDIA ConnectX Virtual Protocol Interconnect (VPI), включая такие модели, как ConnectX-4, ConnectX-5, ConnectX-6, КоннектX-7и ConnectX-8 (обычно обозначаемые как CX-4/5/6/7/8) — представляют собой редкий класс двухрежимных адаптеров в отрасли. Одна плата обеспечивает бесперебойное переключение между физическими сетями InfiniBand (IB) и Ethernet без замены оборудования. Эта универсальность поддерживает среды с поддержкой RDMA и сверхнизкой задержкой в кластерах высокопроизводительных вычислений (HPC) и искусственного интеллекта при работе в режиме IB, а также легко интегрируется в традиционные инфраструктуры Ethernet центров обработки данных. Такой подход обеспечивает максимальную защиту инвестиций и способствует плавному развитию сети.
В этом руководстве в качестве примера рассматривается сетевая карта CX-6 200G CX-6, предлагающая подробный пошаговый процесс перехода из режима InfiniBand в режим Ethernet (с использованием протокола RoCE v2 на транспортном уровне). Хостовая операционная система — CentOS 7. Эти инструкции применимы к аналогичным моделям ConnectX VPI и могут улучшить настройку для Коммутация Ethernet NVIDIA ConnectX, Миграция с InfiniBand на RoCE v2 и настройка двухрежимной сетевой карты.
Содержание
ПереключатьПредпосылки
- Совместимая сетевая карта NVIDIA ConnectX VPI, установленная в хост-системе.
- Установлен пакет Mellanox Firmware Tools (MFT), включая mst и mlxconfig.
- Root-доступ к хосту CentOS 7.
- Базовые знания операций командной строки Linux.
Шаг 1: Запустите службу Mellanox Software Tools
Запустите службу MST на хосте, чтобы включить управление устройством:
текст
systemctl start mst
Шаг 2: Проверка состояния сетевого устройства
Проверьте состояние устройств Mellanox:
текст
статус мст
В выводе будет указано устройство VPI NIC, обычно отображаемое как /dev/mst/mt4123_pciconf0 (или аналогичный идентификатор в зависимости от вашего оборудования). См. пример на рисунке 1.

Шаг 3: Запрос текущей конфигурации сетевой карты
Используйте инструмент mlxconfig для проверки типа ссылки:
текст
mlxconfig -d /dev/mst/mt4123_pciconf0 q
Эта команда показывает текущий тип соединения для каждого порта: 1 обозначает InfiniBand (IB), а 2 — Ethernet. В примере на рисунке 2 порт 1 (P1) настроен для Ethernet; перейдите к шагу 4, если требуется переключение на IB.

Шаг 4: Установите желаемый тип ссылки
Примените изменение конфигурации для порта 1 (P1). При необходимости измените путь к устройству, основываясь на выводе MST-статуса.
Чтобы переключиться в режим Ethernet:
mlxconfig -d /dev/mst/mt4123_pciconf0 установить LINK_TYPE_P1=2
Чтобы переключиться в режим InfiniBand:
mlxconfig -d /dev/mst/mt4123_pciconf0 установить LINK_TYPE_P1=1
Шаг 5: Перезагрузите хост
Перезагрузите систему, чтобы изменения прошивки вступили в силу:
текст
перезагружать
Шаг 6: Настройте IP-адрес порта Ethernet
После перезагрузки в режиме Ethernet определите имя интерфейса:
текст
ifconfig -a
Создайте или отредактируйте файл конфигурации в /etc/sysconfig/network-scripts/ (например, ifcfg-ethX, заменив ethX реальным интерфейсом):
текст
DEVICE=ethXTYPE=EthernetBOOTPROTO=staticIPADDR=192.168.1.100 # Замените на желаемую IPNETMASK=255.255.255.0GATEWAY=192.168.1.1ONBOOT=yes
Перезапустите сетевую службу:
текст
systemctl перезапустить сеть
Шаг 7: Проверка и настройка параметров порта с помощью ethtool
Проверьте данные порта с помощью утилиты ethtool:
Проверьте информацию о водителе:
ethtool -i ethX
Установите скорость 50 Гбит/с, полный дуплекс и отключите автосогласование (пример):
ethtool -s ethX скорость 50000 дуплекс полный автоотрицание выкл
Дополнительные параметры доступны через ethtool –help. Этот шаг крайне важен для оптимизации. Конфигурация скорости порта сетевой платы ConnectX в средах Ethernet.
Шаг 8: Подтверждение режима работы
Проверьте режим порта (IB или RoCE v2) с помощью следующей команды (замените mlx5_0 на ваше устройство):
текст
cma_core_mode -d mlx5_0 -p 1
Выходные данные на рисунке 3 подтверждают режим RoCE v2, что указывает на успешный переход на Ethernet.

Заключение
Ваша сетевая карта CX-6 теперь полностью работоспособна в режиме Ethernet с поддержкой RoCE v2. Этот процесс обеспечивает минимальное время простоя и позволяет использовать весь потенциал технологии NVIDIA VPI для Миграция сети HPC в центр обработки данных. Для расширенной настройки RoCE v2, тестирования производительности RDMA или устранения неполадок серии ConnectX обратитесь к официальной документации NVIDIA или воспользуйтесь услугами профессионального сетевого консалтинга.
Сопутствующие товары:
-
Сетевая карта NVIDIA (Mellanox) MCX515A-CCAT SmartNIC ConnectX®-5 EN, 100GbE, один порт QSFP28, PCIe3.0 x 16, длинный и короткий кронштейн
$715.00
-
NVIDIA NVIDIA (Mellanox) MCX653106A-ECAT-SP ConnectX-6 InfiniBand/VPI, HDR100/EDR/100G, два порта QSFP56, PCIe3.0/4.0 x16, высокая скоба
$828.00
-
NVIDIA NVIDIA (Mellanox) MCX653105A-ECAT-SP ConnectX-6 InfiniBand/VPI, HDR100/EDR/100G, однопортовый QSFP56, PCIe3.0/4.0 x16, высокая скоба
$965.00
-
Сетевая карта NVIDIA (Mellanox) MCX516A-CCAT SmartNIC ConnectX®-5 EN, два порта 100GbE QSFP28, PCIe3.0 x 16, длинный и короткий кронштейн
$985.00
-
Сетевая интерфейсная карта NVIDIA MCX623106AN-CDAT SmartNIC ConnectX®-6 Dx EN, двухпортовый порт 100GbE QSFP56, PCIe4.0 x 16, высокий и короткий кронштейн
$1200.00
-
NVIDIA NVIDIA (Mellanox) MCX653105A-HDAT-SP ConnectX-6 InfiniBand/VPI, HDR/200GbE, однопортовый QSFP56, PCIe3.0/4.0 x16, высокая скоба
$1400.00
-
NVIDIA NVIDIA (Mellanox) MCX653106A-HDAT-SP ConnectX-6 InfiniBand/VPI, HDR/200GbE, два порта QSFP56, PCIe3.0/4.0 x16, высокая скоба
$1600.00
-
Адаптер NVIDIA NVIDIA (Mellanox) MCX75510AAS-NEAT ConnectX-7 InfiniBand/VPI, NDR/400G, однопортовый OSFP, PCIe 5.0x16, высокая скоба
$1650.00
-
Адаптер NVIDIA NVIDIA (Mellanox) MCX75310AAS-NEAT ConnectX-7 InfiniBand/VPI, NDR/400G, однопортовый OSFP, PCIe 5.0x16, высокая скоба
$2200.00
-
NVIDIA B3140H BlueField-3 8 Arm-ядер SuperNIC, E-серия HHHL, 400GbE (режим по умолчанию)/NDR IB, однопортовый QSFP112, PCle Gen5.0 x16, 16 ГБ встроенной памяти DDR, интегрированный BMC, криптография отключена
$4390.00
