В чем разница между картой Ethernet и адаптером InfiniBand?

NIC — это контроллер сетевого интерфейса, также известный как сетевой адаптер или карта сетевого интерфейса, который используется на компьютерах и серверах. Он может обмениваться данными с коммутаторами, устройствами хранения, серверами и рабочими станциями через сетевые соединительные кабели (витая пара, оптоволокно и т. д.). С ростом популярности на рынке и технических возможностей существуют также различные типы сетевых карт, такие как карты Ethernet и карты InfiniBand. В этой статье также рассматриваются различия между картой Ethernet и адаптером InfiniBand, и мы надеемся помочь вам выбрать наиболее подходящую сетевую карту.

Что такое Ethernet-карта?

Карта Ethernet — это сетевой адаптер, подключаемый к разъему материнской платы и поддерживающий стандарт протокола Ethernet. Каждый сетевой адаптер имеет глобально уникальный физический адрес, называемый MAC-адресом. Данные могут быть точно отправлены на конечный компьютер на основе MAC-адреса сетевого адаптера. Существует множество типов карт Ethernet и различные методы классификации. Их можно разделить по пропускной способности, сетевому интерфейсу и шинному интерфейсу. Карта Ethernet с оптическим интерфейсом называется оптоволоконной картой Ethernet (адаптером Fiber-Ethernet). Он следует протоколу связи Ethernet по оптоволоконному кабелю и обычно подключается к коммутатору Ethernet по оптоволоконному кабелю через оптоволоконный кабель. Это наиболее широко используемый тип сетевой карты. В настоящее время адаптеры Fiber-Ethernet можно классифицировать по интерфейсу шины и пропускной способности.

Классификация интерфейса шины

Типы интерфейса шины карты Ethernet можно разделить на PCI, PCI-Express (сокращенно PCI-E), USB и ISA. ISA/PCI — это более ранний шинный интерфейс, который постепенно выводится из эксплуатации по мере того, как технология становится более зрелой. В настоящее время PCIe является наиболее используемым шинным интерфейсом и очень распространен в промышленных приложениях и серверных компьютерах.

1. Как работает карта PCIe?

PCIe — это последовательное подключение, которое больше похоже на сеть, чем на шину. Наиболее очевидным отличием от других шинных интерфейсов, обрабатывающих данные из разных источников, является то, что PCIe управляет потоком данных через коммутатор для двухточечного соединения. Плата PCle вставляется в слот и создает логическое соединение (взаимосоединение или ссылку) для связи друг с другом. Как правило, он поддерживает каналы связи «точка-точка» между двумя портами PCle и может выполнять действия по отправке и получению обычных запросов или прерываний PCI.

2. Каковы категории карт PCIe?

Технические характеристики: Обычно количество каналов в слоте PCle определяет спецификацию платы PCle. Обычные карты PCle имеют следующие физические характеристики: x1, x4, x8, x16 и x32. Например, карта PClex8 означает, что карта имеет восемь каналов.

Версия: PCIe заменяет старые стандарты шины PCI и PCI-X и постоянно модифицируется для удовлетворения растущего спроса на высокую пропускную способность. Самая ранняя версия PCIe 1.0 (2.5 ГТ/с) была выпущена в 2002 г. Позже появились PCIe 2.0 (5 ГТ/с), PCIe 3.0 (8 ГТ/с), PCIe 4.0 (16 ГТ/с), PCIe 5.0 (32 ГТ/с), Появились PCIe 6.0 (64 ГТ/с) и PCIe7.0 (128 ГТ/с). Все версии PCIe поддерживают обратную совместимость.

 

Классификация Bи ширина

Поскольку интернет-трафик растет день ото дня, сетевое оборудование находится под давлением со стороны крупных интернет-провайдеров, которые вынуждены постоянно обновлять и обновлять его с более высокими требованиями к производительности для достижения скорости передачи данных 10G, 25G, 40G или до 100G. Некоторая основная информация о них будет подробно описана в следующих разделах.

1. Волокно 10G адаптер(Ethernet-сервер адаптер)

оптоволоконный сетевой адаптер 10G использует 32/64-битную сетевую карту шины PCI, поддерживает одномодовое или многомодовое оптоволокно 10G и подходит для построения магистральных сетей предприятий и кампусов. В то же время 10G Ethernet может передавать до 100 километров, что может удовлетворить требования к передаче в мегаполисе. Развертывание сети 10G на магистральном уровне MAN может значительно упростить структуру сети, снизить затраты и упростить обслуживание. Сквозной Ethernet используется для создания MAN с низкой стоимостью, высокой производительностью и богатыми возможностями поддержки услуг.

2. Волокно 25G адаптер

Оптоволоконные адаптеры 25G Компенсируйте низкую пропускную способность 10G Ethernet и высокую стоимость 40G Ethernet за счет использования одноканальной технологии физического уровня 25 Гбит/с для обеспечения передачи 100G на основе четырех волоконно-оптических каналов 25 Гбит/с. Поскольку пакет SFP28 основан на пакете SFP+ и оба имеют одинаковый размер, порт оптоволоконного адаптера 25G может поддерживать скорости 25G, а также 10G. По сравнению с сетевым адаптером 10G, 25G волоконно-оптическая сетевая карта имеет большую пропускную способность для удовлетворения сетевых потребностей высокопроизводительных вычислительных кластеров, в 100G или даже более высокоскоростных обновлениях сети оптоволоконный адаптер 25G станет одной из незаменимых инфраструктур.

3. Волокно 40G адаптер

Оптоволоконный адаптер 40G имеет интерфейс 40G QSFP+, поддерживающий пропускную способность 40 Гбит/с. Он также поддерживает стандартный слот PCI-e x8 для обеспечения эффективной и стабильной работы. Обычно доступны с одним и двумя портами, Оптоволоконные сетевые адаптеры 40G представляют собой высокопроизводительное межсетевое решение для корпоративных центров обработки данных, облачных вычислений, высокопроизводительных вычислений и встроенных сред.

4. 100 ГБволокно адаптер

В настоящее время наиболее распространенными на рынке оптоволоконными сетевыми адаптерами 100G являются однопортовые и двухпортовые. Каждый порт может обеспечивать Ethernet со скоростью до 100 Гбит/с, обеспечивая адаптивную маршрутизацию надежной передачи и расширяя возможности разгрузки vSwitch/vRouter. Сетевые карты 100G Fibre предоставить высокопроизводительное и гибкое решение, offряд инновационных offнагрузки и ускорители в оборудовании для повышения эффективности сетей центров обработки данных и подключений к хранилищам.

Соединение между сервером и коммутатором увеличивается до более высокой пропускной способности. Карта Ethernet 25G стала основным промежуточным устройством между сервером 25G и коммутатором 100G. И поскольку центр обработки данных растет до 400G с беспрецедентной скоростью, соединение между серверами и коммутаторами вырастет до 100G, сетевые карты 100G также играют незаменимую роль в центре обработки данных.

Сетевые карты 100G также играют незаменимую роль в центре обработки данных.

Wшляпа адаптер InfiniBand?

Сеть InfiniBand

В качестве стандарта связи компьютерной сети InfiniBand широко используется в высокопроизводительных вычислениях (HPC) благодаря своим преимуществам высокой пропускной способности и сверхнизкой задержке передачи по сети. Сеть InfiniBand может быть расширена по горизонтали за счет коммутационных сетей, чтобы адаптироваться к сетевым требованиям различного масштаба. По состоянию на 2014 год большинство суперкомпьютеров TOP500 используют сетевую технологию InfiniBand. В последние годы приложения, связанные с ИИ и большими данными, также используют сети InfiniBand для обеспечения высокопроизводительного развертывания кластеров.

В качестве многоуровневого протокола InfiniBand определяет многоуровневый стек протоколов, аналогичный семиуровневой модели протокола OSI. Коммутаторы IB создают частный и защищенный прямой канал на узле сервера. В этом канале передача данных и сообщений больше не будет требовать обработки ЦП, а будет осуществляться напрямую через RDMA. Таким образом, функции приема и отправки offзагружается в адаптер InfiniBand для обработки. Физически адаптеры InfiniBand подключаются к памяти ЦП на основе интерфейсов PCIe, обеспечивая более высокую пропускную способность, меньшую задержку и большую масштабируемость, чем другие протоколы связи.

nfiniband широко используется в высокопроизводительных вычислениях

Адаптер InfiniBand

Архитектура InfiniBand определяет набор аппаратных компонентов, необходимых для развертывания архитектуры, и сетевая карта InfiniBand является одним из них. Адаптер InfiniBand также называется адаптером хост-канала HCA. HCA — это точка, в которой конечный узел InfiniBand (например, сервер или устройство хранения) подключается к сети InfiniBand. Архитекторы InfiniBand потратили много времени на то, чтобы архитектура могла реализовать больше, чем конкретная функция HCA, требуемая в одном аппаратном, микропрограммном или программном обеспечении, чтобы окончательный набор аппаратного, программного и микропрограммного обеспечения, представляющий функцию HCA, обеспечивал доступ к сетевым ресурсам для приложения. По сути, структура очереди, используемая приложением для доступа к оборудованию InfiniBand, отображается непосредственно в виртуальном адресе приложения. Тот же самый механизм преобразования адресов является средством доступа HCA к памяти от имени приложений пользовательского уровня. Часто приложения ссылаются на виртуальные адреса; HCA могут преобразовывать эти адреса в физические адреса для передачи информации.

Преимущества InfiniBand адаптер

  1. Сетевые карты InfiniBand обеспечивают высочайшую производительность и наиболее масштабируемое решение для межсетевого взаимодействия для серверов и систем хранения. В частности, в высокопроизводительных вычислениях, Web 2.0, облачных вычислениях, больших данных, финансовых услугах, виртуализированных центрах обработки данных и приложениях для хранения данных будет наблюдаться значительное повышение производительности, что приведет к сокращению времени выполнения и снижению общих затрат на процессы.
  2. Адаптеры InfiniBand — идеальное решение для кластеров высокопроизводительных вычислений, которым требуется высокая пропускная способность, высокая скорость передачи сообщений и низкая задержка для достижения высокой эффективности сервера и производительности приложений.
  3. Карта InfiniBand offзагружает обработку протокола и перемещение данных ЦП от ЦП к соединению, максимально повышая эффективность ЦП и выполняя сверхбыструю обработку моделирования с высоким разрешением, больших наборов данных и алгоритмов с высокой степенью параллелизма.

Как выбрать InfiniBand Cеть Карты

  1. Пропускная способность сети: 100G, 200G, 400G
  2. Количество адаптеров в одной машине
  3. Скорость порта: 100 Гбит/с (HDR100/EDR), 200 Гбит/с (HDR)
  4. Количество портов: 1/2
  5. Тип хост-интерфейса: PCIe3/4 x8/x16, OCP2.0/3.0
  6. Требуется ли функция Socket-Direct или Multi-host

InfiniBand против Ethernet

  • Пропускная способность: Поскольку эти два приложения отличаются друг от друга, требования к пропускной способности также различаются. Ethernet - это скорее соединение терминальных устройств, поэтому нет большой потребности в пропускной способности. InfiniBand используется для соединения серверов в высокопроизводительных вычислениях. При этом учитывается не только взаимосвязь, но и то, как снизить нагрузку на ЦП при высокоскоростной передаче по сети. Благодаря технологии RDMA, Сеть InfiniBand может добиться разгрузки ЦП при высокоскоростной передаче и улучшить использование сети. Следовательно, значительное увеличение скорости процессора не приведет к потере большего количества ресурсов для сетевой обработки и не замедлит развитие производительности HPC.
  • Задержка: В основном разделены на коммутатор и сетевой адаптер для сравнения. Для коммутатора: как второй уровень технологии в модели сетевой передачи, Ethernet-коммутаторы имеют длительный процесс обработки, который обычно составляет несколько мкс (более 200 нс при поддержке сквозной передачи), в то время как коммутаторы InfiniBand имеют очень простую обработку уровня 2. Технология Cut-Through может значительно сократить задержку пересылки до менее чем 100 нс, что намного быстрее, чем у Ethernet-коммутаторов. Для сетевых адаптеров: используя технологию RDMA, сетевые карты InfiniBand могут пересылать пакеты без прохождения через ЦП, что значительно ускоряет задержку инкапсуляции и декапсуляции пакетов (обычно задержка приема и отправки составляет 600 нс). Однако задержка передачи и отправки приложений TCP и UDP на основе Ethernet составляет около 10 мкс, с разницей более чем в десять раз.
  • Надежность: В области высокопроизводительных вычислений повторная передача потерянных пакетов оказывает большое влияние на общую производительность. Следовательно, необходим высоконадежный сетевой протокол для обеспечения характеристик сети без потерь на уровне механизма, чтобы достичь ее характеристик высокой надежности. InfiniBand — это полноценный сетевой протокол с собственными форматами уровней от 1 до 4. Пакеты отправляются и принимаются в сети на основе сквозного управления потоком. При передаче по сети InfiniBand не происходит накопления кэш-памяти, поэтому джиттер задержки сводится к минимуму, что создает идеальную чистую сеть. Сеть, построенная на базе Ethernet, не имеет механизма управления потоком планирования, что не только дорого обходится, но и требует большего энергопотребления. Кроме того, из-за отсутствия сквозного механизма управления потоком сеть будет появляться в несколько экстремальных случаях, что приводит к перегрузке кэша и потере пакетов, что приводит к значительным колебаниям производительности пересылки данных.
  • Networking: сеть Ethernet требует, чтобы каждый сервер в сети периодически отправлял пакеты, чтобы обеспечить обновление записей в реальном времени. Когда количество узлов в сети увеличивается до определенного уровня, генерируются широковещательные штормы, что приводит к серьезной трате пропускной способности сети. В то же время отсутствие механизма обучения записи в таблице в сети Ethernet приведет к петлевой сети, а Ethernet не имеет специального SDN, поэтому формат пакета или механизм пересылки необходимо изменить, чтобы соответствовать требованиям SDN во время сети. развертывания, что увеличивает сложность конфигурации сети. InfiniBand рождается с концепцией SDN. Каждая сеть InfiniBand уровня 2 имеет диспетчер подсети для настройки идентификатора узла (LocalID) в сети. Затем информация о пути пересылки равномерно вычисляется через плоскость управления и доставляется на коммутатор InfiniBand. Таким образом, сеть InfiniBand уровня 2 можно настроить без какой-либо настройки, избежать переполнения, а также избежать разрывов VLAN и кольцевой сети. Таким образом, можно легко развернуть большую сеть уровня 2 с десятками тысяч серверов.

Рекомендации по сетевой карте

Ethernet-карта ConnectX-5 (MCX512A-ACAT)

Сетевая интерфейсная карта ConnectX-5 Ethernet имеет до двух портов подключения 10/25GbE, задержку 750 нс, до 200 миллионов пакетов в секунду (Mpps) и комплекты разработки уровня данных (DPDK). Для рабочих нагрузок хранилища ConnectX-5 offпредлагает ряд инновационных ускорений, таких как аппаратное переключение сигнатур (T10-DIF), встроенные коммутаторы PCIe и цель NVMe over Fabric. offзагрузка. Карты адаптера ConnectX-5 также предоставляют расширенные возможности Open vSwitch. offнагрузка на телекоммуникационные и облачные центры обработки данных для обеспечения чрезвычайно высокой скорости передачи пакетов и пропускной способности при одновременном снижении потребления ресурсов ЦП, что повышает эффективность инфраструктуры центра обработки данных.

Ethernet-карта ConnectX-5 (MCX512A-ACAT)

Ethernet-карта ConnectX-6 (MCX623106AN-CDAT)

ConnectX-6 Dx SmartNIC поддерживает скорость передачи данных 1/10/25/40/50/100GbE, гибкие программируемые каналы для новых сетевых потоков, множественную адресацию с расширенными функциями QoS, IPsec и TLS, встроенную поддержку ускорения шифрования и ускорение шифрования для блокировки статического трафика. данные. Это самая безопасная и передовая облачная сетевая интерфейсная карта в отрасли для ускорения критически важных приложений центров обработки данных, таких как безопасность, виртуализация, SDN/NFV, большие данные, машинное обучение и хранение.

Ethernet-карта ConnectX-6 (MCX623106AN-CDAT)

Сетевая карта ConnectX-6 VPI IB (MCX653105A-ECAT-SP)

Карта ConnectX-6 VPI обеспечивает один порт, задержку менее 600 нс и 215 миллионов сообщений в секунду для подключения HDR100 EDR InfiniBand и 100GbE Ethernet. поддержка PCIe 3.0 и PCIe 4.0; расширенные функции хранения, включая шифрование на уровне блоков и контрольную сумму offнагрузка; за самую высокую производительность и наиболее гибкое решение, разработанное для удовлетворения растущих потребностей приложений центров обработки данных.

Сетевая карта ConnectX-6 VPI IB (MCX653105A-ECAT-SP)

Сетевая карта ConnectX-5 VPI IB (MCX556A-ECAT)

Карты адаптера ConnectX-5 InfiniBand offЭто высокопроизводительное и гибкое решение с двумя портами InfiniBand и Ethernet со скоростью 100 Гбит/с, малой задержкой и высокой скоростью передачи сообщений, а также встроенными коммутаторами PCIe и NVMe over Fabrics. offнагрузка. Эти интеллектуальные адаптеры с удаленным прямым доступом к памяти (RDMA) обеспечивают расширенные возможности приложений. offвозможности загрузки для высокопроизводительных вычислений (HPC), облачных гипермасштабируемых платформ и платформ хранения.

Сетевая карта ConnectX-5 VPI IB (MCX556A-ECAT)

Из упомянутых выше адаптеров InfiniBand и карт Ethernet легко увидеть, что они оба имеют свои характеристики и соответствующие области применения. Какой тип карты использовать, зависит не только от протоколов, поддерживаемых картой, но также от вашей сетевой среды и бюджета.

Оставьте комментарий

Наверх