이더넷 카드와 InfiniBand 어댑터의 차이점은 무엇입니까?

NIC는 컴퓨터와 서버에서 사용되는 네트워크 어댑터 또는 네트워크 인터페이스 카드라고도 하는 네트워크 인터페이스 컨트롤러입니다. 네트워크 연결 케이블(트위스트 페어 케이블, 광섬유 등)을 통해 스위치, 저장 장치, 서버 및 워크스테이션과 통신할 수 있습니다. 시장의 인기와 기술 역량이 증가함에 따라 이더넷 카드 및 InfiniBand 카드와 같은 다양한 유형의 네트워크 카드도 있습니다. 이 기사는 또한 가장 적합한 네트워크 카드를 선택하는 데 도움이 되기를 바라며 이더넷 카드와 InfiniBand 어댑터의 차이점에 중점을 둡니다.

이더넷 카드란 무엇입니까?

이더넷 카드는 마더보드 슬롯에 연결된 네트워크 어댑터이며 이더넷 프로토콜 표준을 지원합니다. 각 네트워크 어댑터에는 MAC 주소라고 하는 전역적으로 고유한 물리적 주소가 있습니다. 네트워크 어댑터의 MAC 주소를 기반으로 데이터를 대상 컴퓨터로 정확하게 보낼 수 있습니다. 이더넷 카드에는 많은 유형과 다양한 분류 방법이 있습니다. 대역폭, 네트워크 인터페이스 및 버스 인터페이스에 따라 나눌 수 있습니다. 광 인터페이스 이더넷 카드를 파이버 이더넷 카드(Fiber-Ethernet 어댑터)라고 합니다. 광섬유 이더넷 통신 프로토콜을 따르며 일반적으로 광섬유 케이블을 통해 광섬유 이더넷 스위치에 연결됩니다. 가장 널리 사용되는 네트워크 카드 유형입니다. 현재 Fiber-Ethernet 어댑터는 버스 인터페이스와 대역폭으로 분류할 수 있습니다.

버스 인터페이스 분류

이더넷 카드 버스 인터페이스 유형은 PCI, PCI-Express(약칭 PCI-E), USB 및 ISA로 분류할 수 있습니다. ISA/PCI는 초기 버스 인터페이스이며 기술이 더 성숙해짐에 따라 점차적으로 제거되고 있습니다. PCIe는 현재 가장 많이 사용되는 버스 인터페이스이며 산업 등급 응용 프로그램 및 서버 컴퓨터에서 매우 일반적입니다.

1. PCIe 카드는 어떻게 작동합니까?

PCIe는 버스보다 네트워크처럼 작동하는 직렬 연결입니다. 다른 소스의 데이터를 처리하는 다른 버스 인터페이스와 가장 분명한 차이점은 PCIe가 지점 간 연결을 위해 스위치를 통해 데이터 흐름을 제어한다는 것입니다. PCle 카드는 슬롯에 삽입되어 서로 통신하기 위한 논리적 연결(상호 연결 또는 링크)을 생성합니다. 일반적으로 두 PCle 포트 간의 지점 간 통신 채널을 지원하며 정상적인 PCI 요청 또는 인터럽트를 보내고 받는 작업을 수행할 수 있습니다.

2. PCIe 카드의 범주는 무엇입니까?

사양: 일반적으로 PCle 슬롯의 채널 수에 따라 PCle 카드 사양이 결정됩니다. 일반 PCle 카드의 물리적 사양은 x1, x4, x8, x16 및 x32입니다. 예를 들어, PClex8 카드는 카드에 XNUMX개의 채널이 있음을 의미합니다.

버전: PCIe는 기존 PCI 및 PCI-X 버스 표준을 대체하며 증가하는 고대역폭 수요를 충족하기 위해 지속적으로 수정됩니다. 최초의 PCIe 1.0(2.5GT/s) 버전은 2002년에 출시되었으며 이후 PCIe 2.0(5GT/s), PCIe 3.0(8GT/s), PCIe 4.0(16GT/s), PCIe 5.0(32GT/s), PCIe 6.0(64GT/s) 및 PCIe7.0(128GT/s)이 등장했습니다. 모든 PCIe 버전은 이전 버전과의 호환성을 지원합니다.

 

의 분류 B및 너비

인터넷 트래픽이 나날이 증가함에 따라 네트워크 장비는 10G, 25G, 40G 또는 최대 100G 데이터 전송을 달성하기 위해 더 높은 성능 요구 사항으로 지속적으로 반복하고 업데이트해야 하는 주요 ISP의 압박을 받고 있습니다. 이에 대한 몇 가지 기본 정보는 다음 섹션에서 자세히 설명합니다.

1. 10G 섬유 어댑터(이더넷 서버 어댑터)

10G 파이버 네트워크 어댑터 32/64비트 PCI 버스 네트워크 인터페이스 카드를 채택하고 10G 단일 모드 또는 다중 모드 광섬유를 지원하며 기업 및 캠퍼스 백본 네트워크 구성에 적합합니다. 동시에 10G 이더넷은 최대 100km를 전송할 수 있으며 이는 대도시 지역의 전송 요구 사항을 충족할 수 있습니다. MAN의 백본 레이어에 10G 네트워크를 배치하면 네트워크 구조를 크게 단순화하고 비용을 절감하며 유지 관리를 용이하게 할 수 있습니다. 종단 간 이더넷은 저비용, 고성능 및 풍부한 서비스 지원 기능을 갖춘 MAN을 구축하는 데 사용됩니다.

2. 25G 섬유 어댑터

25G 광섬유 어댑터 10개의 40Gbps 파이버 채널을 기반으로 25G 전송을 달성하기 위해 100Gb/s 단일 채널 물리 계층 기술을 사용하여 25G 이더넷의 낮은 대역폭과 28G 이더넷의 높은 비용을 보완합니다. SFP25 패키지는 SFP+ 패키지를 기반으로 하며 둘 다 크기가 동일하기 때문에 25G 파이버 어댑터 포트는 10G 및 10G 속도를 지원할 수 있습니다. 25G 네트워크 어댑터와 비교하여 100G 파이버 NIC의 더 큰 대역폭은 고성능 컴퓨팅 클러스터의 네트워크 요구를 충족하기 위해 25G 또는 더 빠른 속도의 네트워크 업그레이드에서 XNUMXG 파이버 어댑터는 필수 인프라 중 하나가 될 것입니다.

3. 40G 섬유 어댑터

40G 파이버 어댑터에는 40Gbps 전송 대역폭을 지원하는 40G QSFP+ 인터페이스가 있습니다. 또한 PCI-e x8 표준 슬롯을 지원하여 효율적이고 안정적인 작동을 보장합니다. 일반적으로 단일 및 이중 포트에서 사용 가능하며, 40G 파이버 NIC 엔터프라이즈 데이터 센터, 클라우드 컴퓨팅, 고성능 컴퓨팅 및 임베디드 환경을 위한 고성능 인터커넥트 솔루션입니다.

4G식이섬유 어댑터

현재 시장에서 가장 일반적인 100G 광섬유 네트워크 어댑터는 단일 포트 및 이중 포트입니다. 각 포트는 최대 100Gbit/s 이더넷을 제공하여 안정적인 전송의 적응형 라우팅을 보장하고 vSwitch/vRouter의 언로드 기능을 향상시킵니다. 100G 파이버 네트워크 카드 고성능의 유연한 솔루션을 제공하고, off다양한 혁신적인 off데이터 센터 네트워크 및 스토리지 연결의 효율성을 개선하기 위해 하드웨어의 로드 및 가속기.

서버와 스위치 간의 연결이 더 높은 대역폭으로 증가하고 있습니다. 25G 이더넷 카드는 25G 서버와 100G 스위치 사이의 중간 장치로 주류가 되었습니다. 그리고 데이터 센터가 전례 없는 속도로 400G로 성장함에 따라 서버와 스위치 간의 연결이 100G로 성장할 것이며, 100G 네트워크 카드도 데이터 센터에서 없어서는 안될 역할을 합니다.

100G 네트워크 카드는 또한 데이터 센터에서 없어서는 안될 역할을 합니다.

WInfiniBand 어댑터는 무엇입니까?

인피니밴드 네트워크

컴퓨터 네트워크 통신 표준인 InfiniBand는 높은 처리량 대역폭과 초저 네트워크 전송 지연이라는 장점으로 인해 HPC(고성능 컴퓨팅)에서 널리 사용됩니다. InfiniBand 네트워크는 스위치 네트워크를 통해 수평으로 확장하여 다양한 규모의 네트워킹 요구 사항에 적응할 수 있습니다. 2014년 현재 대부분의 TOP500 슈퍼컴퓨터는 InfiniBand 네트워크 기술을 사용합니다. 최근 몇 년 동안 AI/빅 데이터 관련 애플리케이션도 고성능 클러스터 배치를 달성하기 위해 InfiniBand 네트워크를 채택했습니다.

계층화된 프로토콜인 InfiniBand는 OSI XNUMX계층 프로토콜 모델과 유사한 계층화된 프로토콜 스택을 정의합니다. IB 스위치는 서버 노드에서 비공개 및 보호된 직접 채널을 생성합니다. 이 채널에서 데이터 및 메시지 전송에는 더 이상 CPU 처리가 필요하지 않지만 RDMA를 통해 직접 구현됩니다. 이와 같이 수신 및 송신 기능은 off처리를 위해 InfiniBand 어댑터에 로드됩니다. 물리적으로 InfiniBand 어댑터는 PCIe 인터페이스를 기반으로 CPU 메모리에 연결되어 다른 통신 프로토콜보다 더 높은 대역폭, 더 짧은 대기 시간 및 더 큰 확장성을 제공합니다.

nfiniband는 고성능 컴퓨팅에 널리 사용됩니다.

InfiniBand 어댑터

InfiniBand 아키텍처는 아키텍처를 배포하는 데 필요한 일련의 하드웨어 구성 요소를 정의하며 InfiniBand 네트워크 카드는 그 중 하나입니다. InfiniBand 어댑터는 HCA – 호스트 채널 어댑터라고도 합니다. HCA는 InfiniBand 엔드 노드(예: 서버 또는 저장 장치)가 InfiniBand 네트워크에 연결되는 지점입니다. InfiniBand 설계자는 HCA 기능을 나타내는 하드웨어, 소프트웨어 및 펌웨어의 최종 컬렉션이 액세스를 제공할 수 있도록 아키텍처가 단일 하드웨어, 펌웨어 또는 소프트웨어에 필요한 특정 HCA 기능 이상을 구현할 수 있도록 많은 시간을 보냈습니다. 응용 프로그램의 네트워크 리소스에. 실제로 응용 프로그램에서 InfiniBand 하드웨어에 액세스하는 데 사용하는 대기열 구조는 응용 프로그램의 가상 주소에 직접 나타납니다. 동일한 주소 변환 메커니즘은 HCA가 사용자 수준 애플리케이션을 대신하여 메모리에 액세스하는 수단입니다. 종종 응용 프로그램은 가상 주소를 참조합니다. HCA는 정보 전송을 위해 이러한 주소를 물리적 주소로 변환할 수 있습니다.

의 장점 인피니밴드 어댑터

  1. InfiniBand 네트워크 카드는 서버 및 스토리지 시스템을 위한 최고의 성능과 가장 확장 가능한 상호 연결 솔루션을 제공합니다. 특히 HPC, Web 2.0, 클라우드 컴퓨팅, 빅 데이터, 금융 서비스, 가상화 데이터 센터 및 스토리지 애플리케이션에서 성능이 크게 향상되어 완료 시간이 단축되고 전체 프로세스 비용이 절감됩니다.
  2. InfiniBand 어댑터는 높은 서버 효율성과 애플리케이션 생산성을 달성하기 위해 고대역폭, 높은 메시지 속도 및 짧은 대기 시간이 필요한 HPC 클러스터에 이상적인 솔루션입니다.
  3. InfiniBand 카드 offCPU의 프로토콜 처리 및 데이터 이동을 CPU에서 상호 연결까지 로드하여 CPU의 효율성을 극대화하고 고해상도 시뮬레이션, 대용량 데이터 세트 및 고도로 병렬화된 알고리즘의 초고속 처리를 수행합니다.

InfiniBand 선택 방법 네트워크 카드

  1. 네트워크 대역폭: 100G, 200G, 400G
  2. 단일 시스템의 어댑터 수
  3. 포트 속도: 100Gb/s(HDR100/EDR), 200Gb/s(HDR)
  4. 포트 수: 1/2
  5. 호스트 인터페이스 유형: PCIe3/4 x8/x16, OCP2.0/3.0
  6. Socket-Direct 또는 다중 호스트 기능이 필요한지 여부

InfiniBand 대 이더넷

  • 대역폭: 두 응용 프로그램이 다르기 때문에 대역폭 요구 사항도 다릅니다. 이더넷은 터미널 장치 상호 연결에 가깝고 대역폭에 대한 수요가 높지 않습니다. InfiniBand는 고성능 컴퓨팅에서 서버를 상호 연결하는 데 사용됩니다. 상호 연결뿐만 아니라 고속 네트워크 전송 시 CPU 부하를 줄이는 방법도 고려합니다. RDMA 기술의 이점, InfiniBand 네트워크 고속 전송에서 CPU 언로딩을 달성하고 네트워크 활용도를 향상시킬 수 있습니다. 따라서 CPU 속도가 크게 증가해도 네트워크 처리에 더 많은 리소스가 희생되지 않고 HPC 성능 개발이 느려지지 않습니다.
  • 숨어 있음: 크게 비교를 위해 스위치와 네트워크 어댑터로 나뉩니다. 스위치의 경우: 네트워크 전송 모델의 두 번째 기술 계층인 이더넷 스위치는 일반적으로 몇 미국(200ns 이상 컷스루 지원)에 긴 처리 프로세스가 있는 반면 InfiniBand 스위치는 매우 간단한 레이어 2 처리를 수행합니다. Cut-Through 기술은 포워딩 지연을 이더넷 스위치보다 훨씬 빠른 100ns 미만으로 크게 단축할 수 있습니다. 네트워크 어댑터의 경우: RDMA 기술을 사용하여 InfiniBand 네트워크 카드는 CPU를 거치지 않고 패킷을 전달할 수 있으므로 패킷 캡슐화 및 캡슐화 해제 지연 속도가 크게 빨라집니다(일반적으로 수신 및 전송 지연은 600ns). 그러나 이더넷 기반의 TCP 및 UDP 애플리케이션의 송수신 지연은 약 10us로 XNUMX배 이상의 차이가 있습니다.
  • 신뢰성: 고성능 컴퓨팅 분야에서 패킷 손실 재전송은 전체 성능에 큰 영향을 미칩니다. 따라서 높은 신뢰성 특성을 달성하기 위해 메커니즘 수준에서 네트워크의 무손실 특성을 보장하기 위해 높은 신뢰성의 네트워크 프로토콜이 필요합니다. InfiniBand는 자체 레이어 1에서 레이어 4 형식을 가진 완전한 네트워크 프로토콜입니다. 패킷은 종단 간 흐름 제어를 기반으로 네트워크에서 송수신됩니다. InfiniBand 네트워크를 통한 전송에는 캐시 축적이 없으므로 지연 지터를 최소화하여 이상적인 순수 네트워크를 만듭니다. 이더넷으로 구성된 네트워크는 스케줄링 흐름 제어 메커니즘이 없기 때문에 비용이 많이 들 뿐만 아니라 전력 소모도 더 큽니다. 또한 종단 간 흐름 제어 메커니즘이 없기 때문에 약간 극단적인 경우 네트워크가 나타나 캐시 혼잡 및 패킷 손실이 발생하여 데이터 전달 성능이 크게 변동합니다.
  • 네트워킹: 이더넷 네트워킹은 항목의 실시간 업데이트를 보장하기 위해 네트워크의 각 서버가 주기적으로 패킷을 보내야 합니다. 네트워크의 노드 수가 일정 수준으로 증가하면 브로드캐스트 스톰이 발생하여 네트워크 대역폭의 심각한 낭비가 발생합니다. 동시에 이더넷 네트워크의 테이블 항목 학습 메커니즘이 부족하면 루프 네트워크가 발생하고 이더넷에는 SDN 특수 기능이 없으므로 네트워크 중에 SDN의 요구 사항을 충족하도록 패킷 형식이나 전달 메커니즘을 변경해야 합니다. 따라서 네트워크 구성의 복잡성이 증가합니다. InfiniBand는 SDN의 개념으로 탄생했습니다. 각 계층 2 InfiniBand 네트워크에는 네트워크의 노드 ID(LocalID)를 구성하는 서브넷 관리자가 있습니다. 그러면 제어 평면을 통해 전달 경로 정보가 균일하게 계산되어 InfiniBand 스위치에 전달됩니다. 이러한 방식으로 Layer 2 InfiniBand 네트워크는 구성 없이 구성될 수 있으며 플러딩이 방지되고 VLAN 및 링 네트워크 중단이 방지됩니다. 따라서 수만 대의 서버가 있는 대규모 Layer 2 네트워크를 쉽게 구축할 수 있습니다.

네트워크 카드 권장 사항

ConnectX-5 이더넷 카드(MCX512A-ACAT)

ConnectX-5 이더넷 네트워크 인터페이스 카드는 최대 10개의 25/750GbE 연결 포트, 200ns의 지연 시간, 최대 5억 패킷(Mpps) 및 DPDK(Data Plane Development Kit)를 제공합니다. 스토리지 워크로드의 경우 ConnectX-XNUMX off하드웨어의 서명 스위칭(T10-DIF), 내장형 PCIe 스위치 및 NVMe over Fabric 타겟과 같은 다양한 혁신적인 가속 기능 제공 off로딩. ConnectX-5 어댑터 카드는 고급 Open vSwitch도 제공합니다. off통신 및 클라우드 데이터 센터에 로드하여 매우 높은 패킷 속도와 처리량을 유도하는 동시에 CPU 리소스 소비를 줄임으로써 데이터 센터 인프라의 효율성을 높입니다.

ConnectX-5 이더넷 카드(MCX512A-ACAT)

ConnectX-6 이더넷 카드(MCX623106AN-CDAT)

ConnectX-6 Dx SmartNIC는 1/10/25/40/50/100GbE의 전송 속도, 새로운 네트워크 흐름을 위한 유연한 프로그래밍 가능 파이프, 고급 QoS를 통한 멀티호밍, IPsec 및 TLS 인라인 암호화 가속 지원 및 정적 차단을 위한 암호화 가속을 지원합니다. 데이터. 보안, 가상화, SDN/NFV, 빅 데이터, 기계 학습 및 스토리지와 같은 미션 크리티컬 데이터 센터 애플리케이션을 가속화하기 위한 업계에서 가장 안전하고 진보된 클라우드 네트워크 인터페이스 카드입니다.

ConnectX-6 이더넷 카드(MCX623106AN-CDAT)

ConnectX-6 VPI IB 네트워크 카드(MCX653105A-ECAT-SP)

ConnectX-6 VPI 카드는 HDR600 EDR InfiniBand 및 215GbE 이더넷 연결을 위해 단일 포트, 100ns 미만의 대기 시간 및 초당 100억 3.0만 메시지를 제공합니다. PCIe 4.0 및 PCIe XNUMX 지원; 블록 수준 암호화 및 체크섬을 포함한 고급 스토리지 기능 off짐; 데이터 센터 애플리케이션의 증가하는 요구 사항을 충족하도록 설계된 최고의 성능과 가장 유연한 솔루션입니다.

ConnectX-6 VPI IB 네트워크 카드(MCX653105A-ECAT-SP)

ConnectX-5 VPI IB 네트워크 카드(MCX556A-ECAT)

ConnectX-5 InfiniBand 어댑터 카드 off듀얼 포트 100Gb/s InfiniBand 및 이더넷 연결 포트, 짧은 대기 시간, 높은 메시지 속도, 내장형 PCIe 스위치 및 NVMe over Fabrics를 갖춘 유연한 고성능 솔루션, off짐. 이러한 지능형 RDMA(Remote Direct Memory Access) 지원 어댑터는 고급 애플리케이션을 제공합니다. off고성능 컴퓨팅(HPC), 클라우드 하이퍼스케일 및 스토리지 플랫폼을 위한 로드 기능.

ConnectX-5 VPI IB 네트워크 카드(MCX556A-ECAT)

위에서 언급한 InfiniBand 어댑터와 이더넷 카드를 보면 둘 다 고유한 특성과 해당 응용 분야가 있음을 쉽게 알 수 있습니다. 배포할 카드 유형은 카드에서 지원하는 프로토콜뿐만 아니라 네트워크 환경 및 예산에 따라 다릅니다.

코멘트 남김

위쪽으로 스크롤