Разработка технологий ДПУ

С развитием технологий облачных вычислений и виртуализации сетевые карты также развивались, и их можно разделить на четыре этапа с точки зрения функциональности и структуры оборудования.

Традиционная базовая сетевая карта (NIC)

Отвечает за передачу и прием пакетов данных с меньшим количеством аппаратного обеспечения. offвозможности загрузки. Аппаратное обеспечение реализует обработку пакетов на физическом уровне сети и уровне MAC с помощью аппаратной логики ASIC, а более поздние стандартные карты NIC также поддерживают такие функции, как проверка CRC. У него нет возможностей программирования.

Интеллектуальная сетевая карта (SmartNIC)

У него есть определенное аппаратное обеспечение плоскости данных. offвозможность загрузки, например оборудование OVS/vRouter offзагрузка. В аппаратной структуре используется FPGA или интегрированный процессор с FPGA и ядром процессора (здесь функция процессора слабая) для обеспечения аппаратного обеспечения плоскости данных. offпогрузка.

DPU на базе FPGA

Это интеллектуальная сетевая карта, которая поддерживает как плоскость данных, так и плоскость управления. offзагрузки, а также определенную степень программируемости плоскостей управления и данных. Что касается разработки аппаратной структуры, он добавляет процессор общего назначения на основе FPGA, например процессор Intel.

Одночиповый DPU

Это однокристальный программируемый чип DPU общего назначения, имеющий богатое аппаратное обеспечение. offвозможности ускорения загрузки и программирования, а также поддерживают различные сценарии облачных вычислений и функции унифицированного управления ресурсами. Что касается аппаратного обеспечения, он представляет собой однокристальную систему-на-чипе, обеспечивающую баланс между производительностью и энергопотреблением. Основные проблемы DPU на основе FPGA при проектировании аппаратного обеспечения связаны с площадью кристалла и энергопотреблением. Что касается площади, размер структуры интерфейса PCIe ограничивает площадь чипа на плате; Что касается энергопотребления, конструкция рассеивания тепла на плате тесно связана с энергопотреблением чипа и всей платы. Эти два фактора ограничивают непрерывное развитие решений FPGA. Решение DPU SoC основано на опыте программного и аппаратного обеспечения и достижениях от NIC до DPU на базе FPGA и представляет собой важный путь развития архитектуры центров обработки данных, основанной на DPU.

DPU, как типичный представитель программно-определяемых микросхем, основан на концепции «программно-определяемого с аппаратным ускорением» и представляет собой процессор общего назначения, в котором обработка данных является основной функцией чипа. Блок обработки общего назначения DPU используется для обработки задач плоскости управления, а выделенный блок обработки обеспечивает производительность обработки плоскости данных, тем самым достигая баланса между производительностью и универсальностью. Выделенный процессор DPU используется для устранения проблем с производительностью при виртуализации общей инфраструктуры, а процессор общего назначения обеспечивает универсальность DPU, что делает DPU широко применимым к различным сценариям облачной инфраструктуры и обеспечивает плавную миграцию программной среды виртуализации. в ДПУ.

Разработка и применение сетевых карт

Традиционная базовая сетевая карта, также известная как сетевой адаптер, является самым основным и важным устройством подключения в компьютерной сетевой системе. Его основная функция — преобразовать данные, которые необходимо передать, в формат, распознаваемый сетевым устройством. Благодаря развитию сетевых технологий традиционная базовая сетевая карта также имеет больше функций и изначально оснащена простым аппаратным обеспечением. offвозможности загрузки (такие как проверка CRC, TSO/UF0, LSO/LR0, VLAN и т. д.), поддержка SR-IOV и QoS управления трафиком. Пропускная способность сетевого интерфейса традиционной базовой сетевой карты также выросла с исходных 100M, 1000M до 10G, 25G и даже 100G.

Разработка и применение сетевых карт

В сети виртуализации облачных вычислений традиционная базовая сетевая карта обеспечивает сетевой доступ к виртуальной машине тремя основными способами.

(1) Сетевая карта получает трафик и пересылает его виртуальной машине через стек протоколов ядра операционной системы.

(2) Драйвер пользовательского режима DPDK берет на себя управление сетевой картой, позволяя пакетам данных обходить стек протоколов ядра операционной системы и напрямую копировать в память виртуальной машины.

(3) Используя технологию SR-IOV, PF физической сетевой карты виртуализируется в несколько виртуальных VF с функциями сетевой карты, а затем VF напрямую передается на виртуальную машину.

С использованием туннельных протоколов, таких как VxLAN, и технологий виртуальной коммутации, таких как OpenFlow, 0VS и т. д., сложность сетевой обработки постепенно возрастает, и требуется больше ресурсов ЦП. Поэтому родился SmartNIC.

Разработка и применение SmartNIC

SmartNIC, помимо функции передачи данных по сети, как и традиционная базовая сетевая карта, также предоставляет богатое аппаратное обеспечение. offвозможности ускорения загрузки, которые могут повысить скорость пересылки сети облачных вычислений и высвободить вычислительные ресурсы центрального процессора.

Разработка и применение SmartNIC

SmartNIC не имеет центрального процессора общего назначения, и для управления плоскостью управления ему необходим центральный процессор. Главный offОбъектом ускорения загрузки SmartNIC является плоскость данных, например плоскость данных Fastpath. offзагрузка виртуальных коммутаторов 0VS/vRouter, сеть RDMA offзагрузка, хранилище NVMe-oF offзагрузка и безопасность плоскости данных IPsec/TLS offпогрузка и т.д.

Однако, поскольку скорость сети в приложениях облачных вычислений продолжает расти, хост по-прежнему потребляет много ценных ресурсов ЦП для классификации, отслеживания и управления трафиком. Следующим направлением исследований для поставщиков облачных технологий стало достижение «нулевого потребления» центрального процессора.

Разработка и применение DPU на базе FPGA

По сравнению со SmartNIC, DPU на базе FPGA добавляет к аппаратной архитектуре процессор общего назначения, образуя архитектуру FPGA+CPU, которая облегчает ускорение и offзагрузка общей инфраструктуры, такой как сеть, хранилище, безопасность и управление. На этом этапе продуктом DPU в основном является FPGA+CPU. DPU на основе аппаратной архитектуры FPGA+CPU имеет хорошую программируемость программного и аппаратного обеспечения.

Разработка и применение DPU на базе FPGA.

На ранней стадии разработки DPU большинство производителей DPU выбрали эту схему. Эта схема имеет относительно короткое время разработки и быструю итерацию, а также может быстро завершить разработку индивидуальных функций, что удобно для производителей DPU для быстрого запуска продуктов и захвата рынка. Однако при переходе пропускной способности сети с 25G на 100G DPU на основе аппаратной архитектуры FPGA+CPU ограничен технологическим процессом чипа и структурой FPGA, что затрудняет достижение хорошего контроля над областью чипа и энергопотреблением при достижении более высокой пропускной способности. , что ограничивает постоянное развитие этой архитектуры DPU.

Разработка и применение сетевой карты DPU SoC

DPU SoC — это аппаратная архитектура на основе ASIC, которая сочетает в себе преимущества ASIC и ЦП и балансирует превосходную производительность специализированных ускорителей и программируемую гибкость процессоров общего назначения. Это однокристальное технологическое решение DPU, которое стимулирует развитие технологий облачных вычислений.

Как упоминалось в предыдущем абзаце, хотя DPU играет важную роль в облачных вычислениях, традиционные решения DPU в основном представлены в схемах на основе FPGA. При переходе сервера с 25G на сервер следующего поколения 100G его стоимость, энергопотребление, функциональность и другие аспекты сталкиваются с серьезными проблемами. Однокристальный процессор DPU SoC не только имеет огромные преимущества в стоимости и энергопотреблении, но также обладает высокой пропускной способностью и гибкими возможностями программирования. Он поддерживает не только управление приложениями и развертывание виртуальных машин и контейнеров, но и физические приложения.

Разработка и применение сетевой карты DPU SoC

Благодаря постоянному развитию технологии DPU программируемая SoC DPU общего назначения становится ключевым компонентом в построении центров обработки данных поставщиков облачных услуг. DPU SoC позволяет добиться экономичного и эффективного управления вычислительными ресурсами и сетевыми ресурсами в центре обработки данных. SoC DPU с богатыми функциями и программируемыми возможностями может поддерживать различные сценарии облачных вычислений и унифицированное управление ресурсами, а также оптимизировать использование вычислительных ресурсов центра обработки данных.

В проектирование, разработку и использование DPU гиганты микросхем и ведущие поставщики облачных услуг в стране и за рубежом вложили много ресурсов в исследования и разработки и добились хорошей экономической эффективности благодаря постоянным исследованиям и практике.

DPU в AWS (Облако Amazon)

AWS — ведущий в мире поставщик услуг и решений облачных вычислений. Система AWS Nitro DPU стала технической краеугольным камнем облачного сервиса AWS. AWS использует систему Nitro DPU для разделения и передачи функций сети, хранилища, безопасности и мониторинга на выделенное оборудование и программное обеспечение, а также предоставляет почти все ресурсы на сервере для обслуживания экземпляров, что значительно снижает затраты. Применение Nitro DPU в Amazon Cloud может заставить сервер зарабатывать на тысячи долларов больше в год. Система Nitro DPU в основном состоит из следующих частей.

Применение DPU в AWS (Amazon Cloud)

(1) Нитрокарта. Серия специализированного оборудования для сети, хранения и управления для повышения общей производительности системы.

(2) Чип безопасности Nitro. Перенесите функции виртуализации и безопасности на выделенное оборудование и программное обеспечение, уменьшите вероятность атак и создайте безопасную облачную платформу.

(3) Гипервизор Нитро. Облегченная программа управления гипервизором, которая может управлять распределением памяти и ЦП и обеспечивать производительность, неотличимую от «голого железа».

Система Nitro DPU обеспечивает функции ключа, сети, безопасности, сервера и мониторинга, высвобождает базовые сервисные ресурсы для виртуальных машин клиентов, а также позволяет AWS предоставлять больше типов инстансов без ОС и даже повышать производительность сети конкретных инстансов для 100Gbps.

NVIDIA ДПУ

NVIDIA — полупроводниковая компания, которая в основном разрабатывает и продает графические процессоры (GPU), широко используемые в области искусственного интеллекта и высокопроизводительных вычислений (HPC). В апреле 2020 года NVIDIA приобрела Mellanox, компанию по производству сетевых чипов и устройств, за 6.9 миллиарда долларов, а затем выпустила серию DPU BlueField.

DPU NVIDIA BlueField-3 (как показано на рисунке 7) унаследовал расширенные функции DPU BlueField-2 и является первым DPU, разработанным для искусственного интеллекта и ускоренных вычислений. BlueField-3 DPU обеспечивает до Сеть 400 Гбит/с соединение и может offзагружать, ускорять и изолировать, поддерживая программно-определяемые функции сети, хранения, безопасности и управления.

Intel IPU

Intel IPU — это современное сетевое устройство с усиленными ускорителями и соединениями Ethernet, которое может использовать тесно связанные выделенные программируемые ядра для ускорения функций инфраструктуры и управления ими. IPU обеспечивает полную инфраструктуру offнагрузки и действует как точка управления хостом для запуска инфраструктурных приложений, обеспечивая дополнительный уровень безопасности. Используя Intel IPU, все инфраструктурные сервисы могут быть offзагружаются с сервера на IPU, освобождая ресурсы ЦП сервера, а также предоставляя поставщикам облачных услуг независимую и безопасную точку управления.

Дорожная карта Intel

В 2021 году Intel анонсировала продукты IPU Oak Springs Canyon и Mount Evans на Дне архитектуры Intel. Среди них Oak Springs Canyon — это продукт IPU на базе FPGA, а IPU Mount Evans — это продукт IPU на базе ASIC.

IPU Intel Oak Springs Canyon оснащен процессором Intel Agilex FPGA и процессором Xeon-D. Intel Mount Evans IPU — это SoC (система на кристалле), разработанная совместно Intel и Google. Маунт-Эванс в основном разделен на две части: подсистему I0 и вычислительную подсистему. Сетевая часть использует ASIC для обработки пакетов, которая имеет гораздо более высокую производительность и меньшее энергопотребление, чем FPGA. Вычислительная подсистема использует 16 ядер ARM Neoverse N1, которые обладают чрезвычайно мощными вычислительными возможностями.

DPU в облаке Alibaba

Alibaba Cloud также постоянно изучает технологию DPU. На саммите Alibaba Cloud в 2022 году Alibaba Cloud offофициально выпустила процессор облачной инфраструктуры CIPU, основанный на архитектуре Shenlong. Предшественником CIPU является карта MoC (микросервер на карте), которая соответствует определению DPU с точки зрения функций и позиционирования. Карта MoC имеет независимые блоки ввода-вывода, хранения и обработки и выполняет работу по виртуализации сети, хранилища и устройств. Карты MoC первого и второго поколения решили узкую задачу виртуализации вычислений с нулевыми накладными расходами, а программное обеспечение по-прежнему реализует часть виртуализации, связанную с сетью и хранилищем. Карта MoC третьего поколения обеспечивает усиление некоторых функций сетевой пересылки, что значительно повышает производительность сети. Карта MoC четвертого поколения реализует все аппаратные возможности offнагрузка на сеть и хранилище, а также поддерживает возможности RDMA.

Alibaba Cloud CIPU, являясь процессорной системой центра обработки данных, разработанной для системы Feitian, имеет важное значение для Alibaba Cloud в создании нового поколения комплексных программных и аппаратных систем с архитектурой облачных вычислений.

DPU в Volcano Engine

Volcano Engine также постоянно исследует возможности самостоятельной разработки DPU. В его собственной разработке DPU используется технология мягкой и жесткой интегрированной виртуализации, целью которой является предоставление пользователям эластичных и масштабируемых высокопроизводительных вычислительных услуг. В продуктах эластичных вычислений Volcano Engine эластичный сервер второго поколения и облачный сервер третьего поколения оснащены процессорами DPU собственной разработки, которые были тщательно проверены в возможностях продукта и сценариях применения. Экземпляр EBM второго поколения Volcano Engine, который был offофициально выпущенный на рынок в 2022 году, он был первым, оснащенным DPU Volcano Engine собственной разработки. Он не только сохраняет преимущества стабильности и безопасности традиционных физических машин и может обеспечить надежную физическую изоляцию, но также обладает преимуществами эластичности и гибкости виртуальных машин. Это новое поколение высокопроизводительных облачных серверов с множеством преимуществ. Экземпляр ECS Volcano Engine третьего поколения, выпущенный в первой половине 2023 года, также сочетает в себе архитектуру новейшего DPU собственной разработки Volcano Engine и собственной разработки виртуального коммутатора и технологии виртуализации, а также производительность ввода-вывода сети и хранилища. был значительно улучшен.

Оставьте комментарий

Наверх