InfiniBand 네트워크란 무엇이며 이더넷과의 차이점은 무엇입니까?

InfiniBand 네트워크란 무엇입니까?

InfiniBand 아키텍처는 데이터 센터에 패브릭 통합을 제공합니다. 스토리지 네트워킹은 동일한 인프라에서 클러스터링, 통신 및 관리 패브릭과 동시에 실행되어 여러 패브릭의 동작을 보존할 수 있습니다.

InfiniBand는 높은 대역폭, 낮은 지연 및 높은 신뢰성을 갖춘 개방형 표준 네트워크 상호 연결 기술입니다. 이 기술은 IBTA(InfiniBand trade Alliance)에서 정의합니다. 이 기술은 슈퍼컴퓨터 클러스터 분야에서 널리 활용되고 있다. 동시에 인공 지능의 부상으로 GPU 서버에 선호되는 네트워크 상호 연결 기술이기도 합니다.

중앙 처리 장치(CPU)의 컴퓨팅 성능이 매우 빠른 속도로 증가함에 따라 HSI(High Speed ​​Interconnection)는 고성능 컴퓨터 개발의 핵심이 되었습니다. HSI는 PCI(Peripheral Component Interface)의 성능을 향상시키기 위해 제안된 새로운 기술입니다. 수년간의 개발 끝에 HPC(고성능 컴퓨팅)를 지원하는 HSI는 이제 주로 기가비트 이더넷과 InfiniBand이며 그 중 InfiniBand가 가장 빠르게 성장하는 HSI입니다. InfiniBand는 IBTA(InfiniBand Trade Association)의 감독하에 개발된 고성능, 저지연 기술입니다.

IBTA는 1999년 Future I/O Developers Forum과 NGI/O Forum이라는 두 산업 조직의 합병으로 설립되었습니다. HP, IBM, Intel, Mellanox, Oracle, QLogic, Dell, Bull 등으로 구성된 계획 및 운영 위원회의 지도하에 작동합니다. IBTA는 제품 적합성 및 상호 운용성 테스트를 전문으로 하며 IBTA 회원들은 InfiniBand 사양의 확립 및 업데이트를 진행하기 위해 노력해 왔습니다.

InfiniBand 표준은 2.5X 케이블(가장 일반적으로 사용되는 InfiniBand 케이블 유형)을 통해 10Gbits/초의 원시 데이터 속도를 허용하기 위해 레인당 4Gbits/초의 기본 속도로 단일 데이터 속도(SDR) 신호를 지원합니다. DDR(Double Data Rate) 및 QDR(Quad Data Rate) 신호를 통해 단일 레인을 5X 및 10Gbits/sec에서 40Gbits/sec의 잠재적인 최대 데이터 속도에 대해 각각 레인당 최대 4Gbits/sec 및 120Gbits/sec까지 확장할 수 있습니다. 12X 케이블 이상.

네트워킹 기술 비교

네트워킹 기술 비교

현재 최신 InfiniBand 제품은 Mellanox에서 생산하는 HDR로 네트워크에 최대 200Gbps의 종단 간 대역폭을 제공하고 고성능 컴퓨팅, 인공 지능 및 기타 분야에서 비교할 수 없는 네트워크 경험을 제공하며 클러스터의 컴퓨팅 가능성.

컴퓨터 클러스터 상호 연결 기술인 InfiniBand는 이더넷/광섬유 채널 및 구식 Omni-Path 기술에 비해 상당한 이점이 있으며 InfiniBand Trade Association(IBTA)에서 기본적으로 권장하는 네트워크 통신 기술입니다. 2014년부터 대부분의 TOP500 슈퍼컴퓨터가 InfiniBand 네트워킹 기술을 채택했습니다. 최근 몇 년 동안 AI/빅 데이터 관련 애플리케이션은 고성능 클러스터 배포를 달성하기 위해 대규모로 IB 네트워크를 채택했으며, 상위 62대 슈퍼컴퓨팅 센터의 100%가 InfiniBand 기술을 사용합니다(2022년 XNUMX월 데이터).

탑100 인피니밴드

InfiniBand 개요

InfiniBand는 프로세서와 I/O 장치 간의 데이터 흐름을 위한 통신 링크로, 최대 64,000개의 주소 지정 가능 장치를 지원합니다. InfiniBand 아키텍처(IBA)은 서버, 통신 인프라, 저장 장치 및 임베디드 시스템을 상호 연결하기 위한 지점 간 전환된 입력/출력 프레임워크를 정의하는 산업 표준 사양입니다.

InfiniBand는 광범위하고 낮은 대기 시간, 높은 대역폭 및 낮은 관리 비용으로 인해 수천 개의 상호 연결된 노드가 있는 단일 연결에서 여러 데이터 스트림(클러스터링, 통신, 스토리지, 관리)을 연결하는 데 이상적입니다. 가장 작은 완전한 IBA 장치는 서브넷이며 여러 서브넷이 라우터로 연결되어 대규모 IBA 네트워크를 형성합니다.

InfiniBand 시스템은 채널 어댑터, 스위치, 라우터, 케이블 및 커넥터로 구성됩니다. CA는 호스트 채널 어댑터(HCA)와 대상 채널 어댑터(TCA)로 구분됩니다. IBA 스위치는 원칙적으로 다른 표준 네트워크 스위치와 유사하지만 InfiniBand의 고성능 및 저비용 요구 사항을 충족해야 합니다. HCA는 서버 또는 저장 장치와 같은 IB 끝 노드가 IB 네트워크에 연결되는 장치 지점입니다. TCA는 저장 장치와 같은 임베디드 환경에서 주로 사용되는 특별한 형태의 채널 어댑터입니다.

InfiniBand 아키텍처는 그림에 나와 있습니다.

인피니밴드 아키텍처

200G InfiniBand HDR이란 무엇입니까?

InfiniBand는 SDR/DDR/QDR/FDR/EDR 전송을 지원하여 링크 대역폭을 늘립니다. 최근 Mellanox는 HDR을 지원하는 200G InfiniBand를 출시했습니다. 최근 출시된 멜라녹스 200G 인피니밴드 HDR을 지원합니다. 멜라녹스 200Gb / s HDR InfiniBand 네트워크는 초저 지연, 높은 데이터 처리량 및 지능형 네트워크 컴퓨팅 가속 엔진을 지원합니다. 사용자는 베어메탈 환경에서와 마찬가지로 클라우드에서 표준 Mellanox 소프트웨어 드라이버를 사용할 수 있습니다. RDMA 동사 지원으로 Mellanox HPC-X, MVAPICH2, Platform MPI, Intel MPI 등과 같은 모든 InfiniBand 기반 MPI 소프트웨어를 사용할 수 있습니다.

또한 사용자는 하드웨어를 활용할 수도 있습니다. off추가적인 성능 향상을 위한 MPI 클러스터 통신의 로드 기능은 비즈니스 애플리케이션의 효율성도 향상시킵니다. 200G InfiniBand에는 네트워크 내 컴퓨팅 가속 엔진, HDR InfiniBand 어댑터, HDR InfiniBand Quantum 스위치 및 200G 케이블링을 비롯한 광범위한 애플리케이션이 있습니다.

InfiniBand 애플리케이션

InfiniBand 애플리케이션

200G InfiniBand 케이블링의 경우 Mellanox 200Gbs 솔루션의 마지막 부분은 LinkX 케이블. 멜라녹스 off최대 200미터에 이르는 직접 연결 3G 구리 케이블과 HDR2 링크를 지원하는 100개의 100G 스플리터 브레이크아웃 케이블과 최대 200미터에 이르는 100G 활성 광 케이블이 있습니다. 200Gb/s 라인의 모든 LinkX 케이블은 표준 QSFP56 패키지로 제공됩니다.

InfiniBand 네트워크의 장점은 무엇입니까?

  • 직렬 고대역폭 링크

– SDR: 10Gb/초

– DDR: 20Gb/s

– QDR: 40Gb/s

– 초기화: 56Gb/s

– EDR: 100Gb/초

– HDR: 200Gb/s

- NDR: 400Gb/s

  • 매우 낮은 대기 시간

– 1 us 이하 신청 신청

  • 신뢰할 수 있는 무손실 자가 관리 패브릭

– 링크 레벨 흐름 제어

– HOL 차단 방지를 위한 혼잡 제어

  • 전체 CPU Off하중

– 하드웨어 기반의 안정적인 전송 프로토콜

– 커널 우회(사용자 수준 응용 프로그램이 하드웨어에 직접 액세스할 수 있음)

  • 원격 노드 액세스에 노출된 메모리 – RDMA 읽기 및 RDMA 쓰기

– 원자 연산

  • 서비스 품질

– 어댑터 수준의 독립 I/O 채널

– 링크 수준의 가상 레인

  • 클러스터 확장성/유연성

– 서브넷에서 최대 48K 노드, 네트워크에서 최대 2^128

– 끝 노드 간의 병렬 경로

– 다중 클러스터 토폴로지 가능

  • 단순화된 클러스터 관리

– 중앙 집중식 경로 관리자

– 대역 내 진단 및 업그레이드

이더넷 네트워크란 무엇입니까?

이더넷(Ethernet)은 제록스(Xerox)사가 만들고 제록스(Xerox), 인텔(Intel), DEC(DEC)사가 공동으로 개발한 베이스밴드(Baseband) LAN 규격 규격을 말한다. 일반 이더넷 표준은 30년 1980월 XNUMX일에 제정되었습니다. 기존 LAN에서 채택한 가장 일반적인 통신 프로토콜 표준입니다. 케이블을 통해 데이터를 전송하고 수신합니다. 이더넷 네트워크 LAN을 생성하고 여러 컴퓨터나 프린터, 스캐너 등과 같은 기타 장치를 연결하는 데 사용됩니다. 유선 네트워크에서는 광섬유 케이블을 사용하여 이 작업이 수행되는 반면, 무선 네트워크에서는 무선 네트워크 기술을 통해 수행됩니다. 이더넷 네트워크의 주요 유형은 고속 이더넷, 기가비트 이더넷, 10기가비트 이더넷 및 스위치 이더넷입니다.

현재 IEEE에서 조직한 IEEE 802.3 표준 기구는 100GE, 200GE, 400GE의 이더넷 인터페이스 표준을 발표했습니다. 이더넷 네트워크는 현재 가장 속도가 빠른 전송 기술입니다.

InfiniBand 대 이더넷: 차이점이 뭐야?

InfiniBand와 이더넷은 상호 연결 기술로서 고유한 특성과 차이점이 있습니다. 그들은 서로 다른 응용 분야에서 개발 및 발전하고 있으며 네트워크 세계에서 두 가지 필수 상호 연결 기술이 되었습니다.

이더넷 네트워크의 종류

이더넷 네트워크 유형

이더넷 네트워크 측면에서 볼 때 IP 기술과 함께 전 세계 인터넷 구축의 초석을 구성합니다. 모든 사람과 지능형 장치는 더 나은 호환성을 달성하려는 설계의 원래 의도와 관련된 모든 것의 상호 연결을 실현하기 위해 이더넷에 의존합니다. 서로 다른 시스템을 더 잘 상호 연결할 수 있으므로 이더넷은 탄생 이후 매우 강력한 적응력을 갖게 됩니다. 수십 년의 개발 끝에 인터넷의 표준이 되었습니다.

InfiniBand 네트워크 측면에서 고성능 컴퓨팅 시나리오에서 데이터 전송 병목 현상을 해결하기 위한 상호 연결 표준입니다. 그것은 공식화 이후 고급 응용 프로그램으로 자리 잡았습니다. 상호 연결은 주요 모순이 아니며 고성능 통신이 주요 진입점입니다. Infiniband는 최근에 출시된 새로운 유형의 연결입니다. 그것에 대한 좋은 점은 사용자에게 제공되는 속도입니다. 연결 속도는 궁극적으로 선택한 와이어에 따라 다르지만 최대 40Gbps 또는 그 이상까지 올라갈 수 있습니다.

따라서 이더넷 기술에 비해 인피니밴드 주로 대역폭, 지연, 네트워크 안정성 및 네트워킹 모드에서 위치가 다르기 때문에 이더넷과 본질적으로 다릅니다. InfiniBand는 CPU가 RDMA(Remote Direct Memory Access)에 참여하지 않고 데이터와 메시지를 전송하기 위해 스위치를 통해 노드 간에 개인 및 보호 채널을 직접 생성합니다. 어댑터의 한쪽 끝은 PCI Express 인터페이스를 통해 CPU에 연결되고 다른 쪽 끝은 InfiniBand 네트워크 포트를 통해 InfiniBand 서브넷에 연결됩니다. 이는 다른 네트워크 통신 프로토콜과 비교할 때 더 높은 대역폭, 더 낮은 대기 시간 및 향상된 확장성을 포함한 명백한 이점을 제공합니다.

InfiniBand 대 Omni-Path: Omni-Path에 대한 InfiniBand의 장점

NVIDIA가 InfiniBand 400G NDR 솔루션을 출시했지만 일부 고객은 여전히 ​​100G 솔루션을 사용하고 있습니다. 100G 고성능 네트워크의 경우 속도와 성능은 같지만 네트워크 구조가 크게 다른 두 가지 공통 솔루션인 Omni-Path와 InfiniBand가 있습니다. 예를 들어, 400노드 클러스터의 경우 InfiniBand에는 15개의 NVIDIA Quantum 8000 시리즈 스위치와 200개의 200G 분기 케이블, 200개의 200G 직접 케이블만 필요하지만 Omni-Path에는 24개의 스위치와 876개의 100G 직접 케이블(384노드)이 필요합니다. InfiniBand는 초기 장비 비용과 이후 운영 및 유지 보수 비용에서 매우 유리하며 전체 전력 소비가 환경 친화적 인 Omni-Path보다 훨씬 낮습니다.

Omni-Path에 비해 InfiniBand의 장점

InfiniBand HDR 제품 소개

EDR은 클라이언트 수요 측면에서 단계적으로 시장에서 퇴출되고 있으며 NDR 비율이 너무 높아 헤드 고객만 사용하려고 합니다. HDR은 HDR 100G 및 HDR 200G의 유연성으로 널리 사용됩니다.

HDR 스위치

HDR 스위치에는 두 가지 유형이 있습니다. 하나는 HDR CS8500입니다. 29U 스위치는 최대 800개의 HDR 200Gb/s 포트를 제공하며, 각 200GB 포트는 2X100G로 분할되어 1600개의 HDR100 100Gb/s 포트를 지원할 수 있습니다.

다른 유형은 QM8000 시리즈입니다. 1U 패널에는 40개의 200G QSFP56 포트가 있으며 80G HDR 네트워크 카드를 연결하기 위해 최대 100개의 HDR 100G 포트로 분할할 수 있습니다. 동시에 각 포트는 EDR도 지원하며 EDR의 네트워크 카드와 직접 연결됩니다. 200G HDR 포트는 100G까지만 감속할 수 있고 EDR 네트워크 어댑터에 연결할 수 있으며 2X100G로 분할하여 두 개의 EDR 네트워크 어댑터를 연결할 수 없습니다.

HDR CS8500

200G HDR 스위치에는 QM8700 및 QM8790의 두 가지 옵션이 있습니다. 두 모델의 유일한 차이점은 관리 모드입니다. QM8700은 대역 외 관리를 위한 제어 인터페이스를 제공하는 반면 QM8790은 관리를 위해 NVIDIA UFM®(Unified Fabric Manager) 플랫폼이 필요합니다.

QM8000 시리즈

QM8700 및 QM8790의 경우 스위치의 각 모델에 대해 두 가지 공기 흐름 옵션이 있습니다. 그 중 하나는 P8790C 공기 흐름(전면 및 후면 공기 흐름)용 2-HS2F입니다. 팬 모듈은 파란색으로 표시되어 있습니다. 표시를 인식하지 못하는 경우 스위치의 공기 흡입구와 배출구 위에 손을 띄워 식별할 수도 있습니다.

8790-HS2R은 C2P 기류(후면 전면 덕트) 팬 모듈의 빨간색 표시입니다. 여기서 P2C 및 C2P P는 전원 전원을 의미하고 C는 케이블(라인 인터페이스), P2C(Power to Cable), C2P(Cable to Power)를 의미합니다. 여기서 참조 시스템은 전면의 전원 전원 측, 후면의 케이블 라인 인터페이스 측입니다.

8790-HS2R은 C2P 기류(후면 전면 덕트) 팬 모듈의 빨간색 표시입니다.

QM8700 및 QM8790은 일반적으로 실제로 두 가지 방식으로 사용됩니다. 하나는 200G를 직접 사용하여 200G HDR NIC와 상호 연결하는 것입니다. 200G AOC/DAC; 다른 일반적인 용도는 스위치의 물리적 100G(200X2G) QSFP100 포트 하나가 가상 200G(4X50G) 포트 56개로 분할되는 2G ~ 100X2G 케이블을 사용하여 50G HDR NIC와 상호 연결하는 것입니다. 4X50G) 스위치의 QSFP56 포트는 100개의 가상 2G(50X1,2G) 포트로 분할되며 분할 후 포트의 기호는 x/y에서 x/Y/z로 변경됩니다. 여기서 "x/Y"는 이전을 나타냅니다. 분할 전 포트의 기호이고 "z"는 결과 단일 레인 포트(XNUMX)의 번호를 나타내며 각 하위 물리적 포트는 단일 포트로 처리됩니다.

QM8700 및 QM8790은 일반적으로 실제로 두 가지 방식으로 사용됩니다.

HDR 네트워크 어댑터

HDR 네트워크 어댑터는 스위치보다 훨씬 다양합니다. HDR100 네트워크 어댑터는 100G의 전송 속도를 지원합니다. 100개의 HDR200 포트는 2G에서 100x100G 케이블을 통해 HDR 스위치에 연결할 수 있습니다. 100G EDR 네트워크 카드와 달리 HDR100 네트워크 카드의 4G 포트는 25X2G NRZ 및 50X4G PAM200 전송을 모두 지원합니다. HDR NIC는 200G 전송 속도를 지원하며 XNUMXG 다이렉트 케이블을 통해 스위치에 연결할 수 있습니다. 두 가지 인터페이스 속도 외에도 서비스 요구 사항에 따라 각 속도의 단일 포트, 이중 포트 및 PCIe 네트워크 어댑터를 선택할 수 있습니다. FiberMall에서 제공하는 일반적인 InfiniBand HDR 네트워크 어댑터 모델은 다음과 같습니다.

FiberMall에서 제공하는 공통 InfiniBand HDR 네트워크 어댑터 모델

InfiniBand 네트워크 아키텍처는 간단하지만 솔루션 선택은 다양합니다. 100G 속도에는 100G EDR 솔루션과 100G HDR 솔루션이 모두 있습니다. 200 rate에는 HDR 및 200G NDR 두 가지 옵션도 있습니다. 다른 솔루션에 사용되는 네트워크 어댑터, 커넥터 및 스위치는 상당히 다릅니다.

InfiniBand 패킷 및 데이터 전송

패킷은 InfiniBand 데이터 전송의 기본 단위입니다. 정보가 InfiniBand 네트워크에서 효율적으로 전파되기 위해 정보는 채널 어댑터에 의해 여러 패킷으로 분할됩니다. 완전한 IBA 패킷은 아래 그림과 같이 Local Route Header, Global Route Header, Base Transport Header, Extended Transport Header, Payload(PYLD), Invariant CRC(ICRC) 및 Variant CRC(VCRC) 필드로 구성됩니다.

infiniband 데이터 패킷 형식

LRH: 8바이트, 스위치가 패킷을 전달할 때 로컬 소스 및 대상 포트를 결정하고 패킷 전송을 위한 서비스 클래스 및 가상 레인(VL)을 규제하는 데 사용됩니다.

HRM: 40바이트, 서브넷 간에 패킷을 라우팅하고 서브넷 간에 적절한 패킷 전송을 보장하는 데 사용됩니다. RFC 6에 정의된 IPv2460 헤더 사양을 사용하여 LRH의 LNH(Link Next Header) 필드에 의해 지정됩니다.

BTH: 12바이트, 대상 큐 쌍(QP), 표시 opcode, 패킷 일련 번호 및 분할을 지정합니다.

ETH: 4~28바이트로 안정적인 데이터그램 서비스를 제공합니다. 페이로드(PYLD): 0-4096바이트, 엔드투엔드 애플리케이션 데이터가 전송됩니다.

ICRC: 4바이트, 소스 주소에서 목적지 주소로 보낼 때 패킷에 변경되지 않은 채로 남아 있는 데이터를 캡슐화합니다.

VCRC: 2바이트, 링크 동안 가변 IBA 및 원시(raw) 패킷을 캡슐화합니다.

VCRC는 패브릭에서 재구성할 수 있습니다.

InfiniBand 계층화된 아키텍처

IBTA의 정의에 따르면 InfiniBand 아키텍처는 물리적 계층, 링크 계층, 네트워크 계층 및 전송 계층으로 구성되며 계층화된 아키텍처는 그림에 나와 있습니다.

infiniband 계층 구조

물리 계층: 물리적 계층은 링크 계층을 제공하고 이 두 계층 간의 논리적 인터페이스를 제공합니다. 물리적 계층은 포트 신호 커넥터, 물리적 연결(전기 및 광학), 하드웨어 관리, 전원 관리 및 코딩 라인과 같은 모듈로 구성되며 주요 역할은 다음과 같습니다.

(1) 물리적 연결 설정

(2) 물리적 연결이 유효한지 여부를 링크 계층에 알립니다.

(3) 물리적 연결 상태를 모니터링하고, 물리적 연결이 유효할 때 제어 신호 및 데이터를 링크 계층으로 전달하고, 링크 계층에서 오는 제어 및 데이터 정보를 전송합니다.

링크 레이어: 링크 계층은 패킷에서 링크 데이터의 송수신을 처리하고 어드레싱, 버퍼링, 흐름 제어, 오류 감지 및 데이터 교환과 같은 서비스를 제공합니다. 서비스 품질(QoS)은 주로 이 계층에 반영됩니다. 상태 기계는 링크 계층의 논리 연산을 외부에서 액세스 가능한 연산으로 정의하는 데 사용되며 내부 연산을 지정하지 않습니다.

네트워크 계층: 네트워크 계층은 유니캐스트 및 멀티캐스트 작업을 포함하여 IBA 서브넷 간의 패킷 라우팅을 담당합니다. 네트워크 계층은 다중 프로토콜 라우팅(예: 비 IBA 유형을 통한 IBA 라우팅)을 지정하지 않으며 원래 패킷이 IBA 서브넷 간에 라우팅되는 방법도 지정하지 않습니다.

전송 계층: 각 IBA 데이터에는 전송 헤더가 포함됩니다. 전송 헤더에는 지정된 작업을 수행하기 위해 끝 노드에 필요한 정보가 포함되어 있습니다. QP를 조작함으로써 전송 계층의 IBA 채널 어댑터 통신 클라이언트는 "보내기" 작업 대기열과 "수신" 작업 대기열을 형성합니다.

InfiniBand의 스위칭 메커니즘

InfiniBand에서 사용되는 Switched Fabric은 시스템 내결함성 및 확장성을 지향하는 스위치 기반 지점 간 상호 연결 아키텍처입니다.

IBA 스위치는 내부 서브넷 라우팅을 위한 기본 라우팅 빌딩 블록입니다(서브넷 간 라우팅 기능은 IBA 라우터에서 제공됨). 스위치의 상호 연결은 링크 간에 패킷을 릴레이하여 수행됩니다.

InfiniBand 스위치는 SMA(Subnet Manager Agent), PMA(Performance Manager Agent) 및 BMA(Baseboard Manager Agent)와 같은 기능을 구현합니다. SMA는 서브넷 관리자가 서브넷 관리 패킷을 통해 스위치 내부의 레코드 및 테이블 데이터를 얻을 수 있는 인터페이스를 제공하여 메시지 알림, SL(서비스 수준)에서 VL(가상 레인) 매핑, VL 중재, 멀티캐스트 전달 및 공급업체 특성과 같은 기능을 구현합니다. . PMA는 성능 관리자가 스위치의 데이터 처리량 및 오류 누적과 같은 성능 정보를 모니터링할 수 있는 인터페이스를 제공합니다. BMA는 베이스보드 관리자와 하단 선반 관리자 간의 통신 채널을 제공합니다.

InfiniBand 스위치에서 데이터 전달의 주요 기능은 다음과 같습니다.

(1) 출력 포트 선택: 패킷의 DLID(Destination Local Identifier)를 기반으로 스위치는 포워딩 테이블에서 출력 포트의 포트 번호를 찾습니다.

(2) 출력 VL 선택: SL과 VL을 지원하며 스위치는 SL-VL 매핑 테이블을 기반으로 우선 순위가 다른 패킷이 사용하는 출력 포트의 VL을 결정합니다.

(3) 데이터 흐름 제어: 신용 기반 링크 수준 흐름 제어 메커니즘이 사용됩니다.

(4) 유니캐스트, 멀티캐스트 및 브로드캐스트 지원: 스위치는 교환을 위해 멀티캐스트 패킷 또는 브로드캐스트 패킷을 여러 유니캐스트 패킷으로 변환할 수 있습니다.

(5) 파티셔닝: 동일한 파티션에 있는 호스트만 서로 통신할 수 있습니다. 각 파티션에는 고유한 파티션 키가 있으며 스위치는 패킷의 DLID가 키에 해당하는 파티션 내에 있는지 확인합니다.

(6) 에러 체크: 불일치 오류 검사, 인코딩 오류 검사, 프레이밍 오류 검사, 패킷 길이 검사, 패킷 헤더 버전 검사, 서비스 수준 유효성 검사, 흐름 제어 준수 및 최대 전송 단위 검사를 포함합니다.

(7) VL 중재: 서브넷 VL(관리 VL15 및 데이터 VL 포함)을 지원합니다. 스위치는 VL 중재를 사용하여 우선 순위가 높은 패킷이 더 잘 제공되도록 합니다.

현재 InfiniBand 스위치의 주요 제조업체는 Mallanox, QLogic, Cisco, IBM 등입니다.

호스트의 경우 전송 계층의 클라이언트 측은 클라이언트가 버퍼 또는 명령을 이러한 큐로 전달하고 하드웨어가 버퍼 데이터를 전달하는 Verbs 소프트웨어 계층입니다. QP가 설정되면 네 가지 IBA 전송 서비스 유형(신뢰할 수 있는 연결, 신뢰할 수 있는 자체 주소 지정 정보, 신뢰할 수 없는 자체 주소 지정 정보, 신뢰할 수 없는 연결) 또는 비IBA 프로토콜 캡슐화 서비스 중 하나를 통합합니다. 전송 서비스는 안정성 및 QP 전송 데이터의 작동 방식과 전송 대상을 설명합니다.

NVIDIA 엘리트 수준의 파트너로서 FiberMall은 완벽한 서비스를 제공할 수 있습니다. InfiniBand 솔루션 다양한 고객의 요구에 따라 당사의 수석 기술 엔지니어는 InfiniBand 고성능 네트워크 솔루션 설계 및 프로젝트 구현 서비스에 대한 풍부한 경험을 보유하고 있으며 다양한 애플리케이션 시나리오에 따라 최적의 솔루션을 제공할 수 있습니다. QM8700/QM8790 스위치, HDR NIC, AOC/DAC/광 모듈 포트폴리오 솔루션을 제공하여 고성능 및 확장성을 달성하고 HPC, AI 및 기타 애플리케이션에 대한 ROI를 저렴한 비용과 우수한 성능으로 개선할 수 있습니다.

코멘트 남김

위쪽으로 스크롤