Mellanox® InfiniBand 어댑터는 데이터 센터 환경에 필요한 초고속 대기 시간과 높은 대역폭을 제공하기 때문에 고성능 네트워킹 솔루션에 필요합니다. IT 전문가와 네트워크 설계자는 InfiniBand 어댑터의 기술 사양, 기능적 이점 및 배포 시나리오에 대한 심층적인 개요를 제공하는 이 문서에서 이점을 얻을 수 있습니다. 확장 가능한 아키텍처를 지원하는 동시에 데이터 전송 속도를 높이고 계산 효율성을 개선함으로써 이 문서가 독자에게 네트워크에 대한 충분한 이해를 제공하여 더 나은 결정을 내릴 수 있기를 바랍니다. 따라서 현재 시스템을 개선하든 최신 시스템을 구현하든 이 매뉴얼은 Mellanox® InfiniBand 어댑터 기반 고속 네트워킹과 관련된 복잡한 문제를 해결하는 데 도움이 될 것입니다.
Mellanox® InfiniBand 어댑터란 무엇인가요?

InfiniBand 어댑터 기술 이해
고속 통신 인터페이스는 InfiniBand Adapter입니다. 데이터 센터에서 서버와 스토리지 시스템 간에 데이터를 이동하는 데 도움이 됩니다. 전환 패브릭 토폴로지는 여러 장치 연결을 허용하여 기존 이더넷 네트워크가 제공할 수 있는 것보다 더 높은 대역폭과 더 낮은 지연 시간을 제공합니다. InfiniBand는 안정적인 연결 지향 및 연결 없는 통신을 지원하므로 다양한 용도에 적용할 수 있습니다. 어댑터는 고성능 컴퓨팅(HPC) 애플리케이션과 상당한 데이터 처리 요구 사항을 충족하기 위해 10Gbps에서 최대 200Gbps 이상의 데이터 전송 속도에 맞게 설계되었습니다. 또한 이 하드웨어 오프로드 기능 세트는 컴퓨팅 효율성을 향상시켜 시스템이 무거운 데이터 작업을 처리할 때 CPU를 오프로드할 수 있도록 합니다.
Mellanox® 어댑터의 주요 특징
단일 및 이중 포트 옵션으로 제공되는 Mellanox® 어댑터는 다양한 기능을 갖추고 있어 매우 역동적이며 이해하기 어렵습니다.
- 대역폭: 10Gbps에서 200Gbps 사이의 속도를 지원하므로 데이터 전송이 필요한 애플리케이션에서 작동할 수 있습니다.
- 지연 시간: 스위치 구조는 정보를 전송할 때 지연을 최소화하여 응답 시간을 훨씬 더 빠르게 만듭니다. 특히 FDR 또는 EDR 설정에서 그렇습니다.
- 확장성: 수천 개의 노드로 구성된 네트워크를 구축할 수 있으므로 대규모에 적합합니다. 데이터 센터.
- 하드웨어 오프로드: Mellanox® 어댑터에 통합된 복잡한 오프로드 메커니즘은 데이터 처리를 용이하게 하고, CPU 오버헤드를 줄이며, 시스템 리소스 활용도를 극대화합니다.
- 다양한 연결성: 이 어댑터는 InfiniBand 또는 이더넷 프로토콜을 지원하고 기존 네트워크 인프라를 통합하여 배포 유연성을 제공합니다.
- 개선된 신뢰성 측정: 오류 수정 방법과 함께 강력한 오류 감지 알고리즘은 중요한 정보가 손실 없이 목적지에 도달하도록 보장합니다. 이는 하드웨어 오류 등으로 인해 데이터가 도중에 삭제되어서는 안 되는 미션 크리티컬 앱에 매우 중요합니다.
- 고급 관리 도구: 이러한 장치와 함께 제공되는 네트워크 성능 모니터링 및 관리 소프트웨어 도구를 사용하면 이러한 시스템 내에서 운영 효율성 수준을 최적화하기 위한 사전 유지 관리 활동을 수행할 수 있습니다.
이러한 특성은 Mellanox® 어댑터를 확립하는데 필요한 것 중 하나입니다. 고성능 네트워킹 솔루션 현재 및 미래의 요구에 적합합니다.
Mellanox®와 다른 브랜드의 차이점
여러 가지 특징이 Mellanox® 어댑터를 고성능 컴퓨팅 애플리케이션을 위한 다른 브랜드와 차별화합니다. 첫째, Mellanox®의 데이터 대역폭은 최대 200Gbps로 대부분의 경쟁사보다 높기 때문에 데이터 집약적 환경에 더 적합합니다. 둘째, 낮은 지연 시간의 스위치 패브릭 아키텍처를 이길 수 있는 대안은 없으며, 이는 더 빠른 데이터 검색 및 처리를 가능하게 합니다. 셋째, Mellanox® 솔루션의 확장성 덕분에 성능을 희생하지 않고도 수천 개의 노드를 지원하는 대규모 데이터 센터 구현에 쉽게 적용할 수 있습니다. 또한 이러한 어댑터를 차별화하는 것은 하드웨어 오프로드 기능으로, CPU 작업 부하를 크게 줄이고 전체 시스템 효율성을 최적화합니다. 또한 InfiniBand 및 이더넷 프로토콜에 대한 이중 지원은 더 큰 배포 유연성을 제공하는 반면, 많은 어댑터는 하나의 프로토콜에만 집중합니다. 마지막으로 Mellanox®에서 사용하는 것과 같은 고급 관리 도구는 안정성 기능과 결합하여 고성능 네트워크 설치 내에서 더 나은 성능 모니터링을 보장합니다.
Mellanox® InfiniBand 어댑터를 설치하고 구성하는 방법?

단계별 설치 가이드
- 준비: 설치 전에 서버의 전원을 끄고 플러그를 뽑습니다. 드라이버와 안티 정전 팔찌를 모으세요.
- 어댑터 삽입: 서버 케이스를 열고 PCIe 슬롯을 찾습니다. 필요한 경우 이미 있는 카드를 제거하여 새 단일 포트 OSFP 어댑터를 위한 공간을 만듭니다. Mellanox® InfiniBand 어댑터를 PCIe 슬롯에 맞춰 카드의 노치가 꼭 맞는지 확인합니다. 단단히 고정될 때까지 부드럽게 누릅니다.
- 어댑터 고정: 나사를 이용해 이 구성 요소를 섀시에 단단히 고정합니다. 이렇게 하면 작동 중 안정성이 보장됩니다.
- 섀시 재조립: 서버를 재시작하고 다른 모든 것을 다시 연결하여 모두 올바르게 연결하면 부팅이나 이후 작동 중에 문제가 발생하지 않습니다.
- 서버에 다시 전원을 켜기: 전원 공급 장치를 시스템 장치에 다시 연결하고 켠 다음 부팅 과정 전반에 걸쳐 오류 신호가 나타나는지 주의 깊게 살펴보세요.
- 드라이버 설치: 서버가 시작되면 Mellanox®용 최신 드라이버 모음을 해당 공인 웹사이트에서 다운로드하고 운영 체제에 맞는 지침에 따라 설치를 진행하여 이더넷 어댑터 카드의 모든 기능을 활성화해야 합니다.
- 구성: 필요한 경우 네트워크 설정에 액세스하고 충돌하는 모든 인터페이스를 비활성화합니다. 네트워크 요구 사항에 따라 해당되는 경우 서브넷을 포함하여 IP 주소 지정 체계 요구 사항에 따라 Mellanox® 어댑터를 구성합니다.
- 테스트: 이 장치가 예상대로 작동하는지 여부를 증명하기 위해 연결성을 확인하여 테스트를 수행합니다. 명령줄 유틸리티로 네트워크 성능을 확인하고 대기 시간 벤치마크도 확인합니다.
이러한 단계를 따르면 Mellanox® InfiniBand 어댑터를 올바르게 설치하고 구성하여 네트워킹을 통해 고성능 컴퓨팅에 적합한 환경을 최적화할 수 있습니다.
최적의 성능을 위한 구성 팁
Mellanox® InfiniBand 어댑터의 성능을 극대화하려면 다음 구성 권장 사항을 따르세요.
- 점보 프레임 활성화: 최대 전송 단위(MTU) 크기를 변경하여 점보 프레임을 활성화합니다. 이를 통해 더 큰 데이터 패킷을 보낼 수 있으므로 처리량이 엄청나게 증가하고 CPU 오버헤드가 줄어듭니다.
- 대기열 쌍 최적화: 부하에 따라 충분한 대기열 쌍을 설정합니다. 이렇게 하면 데이터 관리 효율성이 향상되고 병렬 처리를 수행하는 능력이 향상됩니다.
- 최신 펌웨어 사용: Infiniband 어댑터에 사용할 수 있는 최신 펌웨어 업데이트를 설치했는지 항상 확인하세요. 이러한 업데이트에는 버그 수정, 기능 지원 및 성능 개선이 포함됩니다.
- 네트워크 매개변수 조정: 버퍼 설정 및 TCP 창 크기와 같은 시스템 전체 네트워크 매개변수를 애플리케이션에 가장 적합한 방식으로 조정하는 것이 좋습니다. 이를 통해 지연 시간이 줄어들어 전체 처리량이 향상될 수 있습니다.
- RDMA 활용: 적용 가능한 경우 RDMA(원격 직접 메모리 액세스)를 활성화하여 CPU를 사용하지 않고도 호스트 간에 데이터를 이동할 수 있게 하여 전송 속도를 높이고, 지연 시간을 줄이며 대역폭을 늘립니다.
이러한 전략을 사용하면 Mellanox® InfiniBand 어댑터 성능을 최적화하고 고성능 컴퓨팅 환경의 효율성을 향상시킬 수 있습니다.
일반적인 문제 해결
- 어댑터가 감지되지 않음: Mellanox® InfiniBand 어댑터가 시스템에서 인식되지 않으면 PCIe 슬롯에 올바르게 삽입되었는지, 모든 전원 연결이 안전한지 확인하십시오. 또한 관련 드라이버와 해당 업데이트가 설치되었는지 확인하십시오. 드라이버에 대한 자세한 내용은 Mellanox 지원 페이지를 방문하십시오.
- 지연 문제: 듀얼 포트 설정은 잘못된 네트워크 설정이나 불충분한 대기열 쌍으로 인해 높은 지연을 일으킬 수 있습니다. MTU 값을 확인하고 필요한 경우 점보 프레임을 활성화합니다. 또한 트래픽 부하를 모니터링하는 동안 네트워크 버퍼의 잠재적 병목 현상을 조정해야 할 수 있습니다.
- 성능 저하: 처리량 감소 문제를 해결하려면 펌웨어 버전이 최신인지 확인하고 호스트 시스템의 네트워크 매개변수를 최적화합니다. 하드웨어 성능 문제는 성능 모니터링 도구를 사용하여 소프트웨어 구성 문제와 구별할 수 있으므로 시기적절한 조정이 가능합니다.
이러한 일반적인 구성과 업데이트 가이드라인을 단계적으로 적용하면 집중적인 작업 부하에서 Mellanox® InfiniBand 어댑터의 안정성을 개선하는 데 도움이 됩니다.
Mellanox® InfiniBand 어댑터를 사용하는 주요 이점은 무엇입니까?

높은 대역폭 및 낮은 대기 시간 성능
Mellanox® InfiniBand 어댑터는 듀얼 포트 구성을 갖춘 고성능 컴퓨팅(HPC) 환경에 필수적인 고대역폭과 낮은 대기 시간을 제공하는 기능으로 잘 알려져 있습니다. 이 어댑터는 최대 200Gbps 데이터 속도를 지원하도록 설계되었으며, 이는 기존 이더넷 솔루션에서 달성할 수 있는 수치보다 훨씬 높습니다. 즉, 오프로드 및 원격 직접 메모리 액세스(RDMA) 지원과 같은 기능을 사용하여 대량의 데이터를 빠르게 처리할 수 있으며, CPU가 모든 전송을 처리함으로써 발생하는 지연을 줄여 전반적인 시스템 성능을 향상시킵니다. InfiniBand의 고유한 아키텍처는 기존 구조와 완벽하게 통합되므로 속도나 안정성을 희생하지 않고도 시스템을 확장할 수 있습니다. 조직은 이러한 기능을 활용하여 데이터 집약적 작업을 처리할 때 효율성을 높여 언제든지 더 빠른 계산을 수행해야 합니다.
증가하는 네트워크 요구에 대한 확장성
Mellanox® InfiniBand 어댑터는 더 광범위한 네트워크의 변화하는 요구 사항에 맞춰 뛰어난 확장성을 제공합니다. 이 설계는 대역폭을 쉽게 할당하고 추가 카드를 추가할 수 있게 해줍니다. 조직은 긴 다운타임이나 성능 속도 저하 없이 네트워크를 확장할 수 있습니다. 이러한 어댑터는 또한 광대하고 상호 연결된 시스템을 만들 수 있게 하여 더 무거운 작업 부하와 트래픽을 관리하기 쉽게 만들고 요구 사항이 증가함에 따라 성능 수준이 유지되도록 보장합니다. 또한 대규모 지역에서 데이터 라우팅 효율성을 향상시키는 멀티홉 토폴로지를 지원하여 현재 및 예상되는 미래 네트워크 문제에 강력하게 대응합니다. 기업은 Mellanox® InfiniBand 기술을 사용하면 너무 많은 조정 없이 새로운 기술을 활용할 수 있습니다. 이를 통해 인프라가 노후화되지 않도록 보호할 수 있기 때문입니다.
다양한 시스템과의 향상된 호환성
Mellanox® InfiniBand 어댑터는 광범위한 컴퓨팅 환경을 염두에 두고 제작되었으므로 다양한 운영 체제 및 애플리케이션 프레임워크와 함께 작동할 수 있습니다. 이러한 다재다능함은 고성능 컴퓨팅 클러스터인지 여부에 관계없이 엔터프라이즈급 서버와 같은 다른 시스템과 잘 통합되는 드라이버 및 소프트웨어 라이브러리를 사용하여 달성됩니다. 이러한 어댑터는 또한 다른 인기 있는 소프트웨어 에코시스템 중에서 오픈 MPI를 지원하여 다양한 장치가 이기종 설정 내에서 통신할 수 있도록 합니다. 또한 지원하는 산업 표준 프로토콜을 통해 조직은 너무 많은 변경 없이 서로 다른 구성의 하드웨어 구성 요소를 연결할 수 있습니다. 이러한 호환성은 시스템 통합과 관련된 위험을 최소화하는 동시에 배포를 가속화하여 기업이 고대역폭 네트워킹 솔루션으로 전환하기 쉽게 만듭니다. Mellanox® InfiniBand를 사용하면 회사는 운영 효율성을 개선하고 변화하는 기술 지형 속에서 필요한 적응성을 유지할 수 있습니다.
Mellanox® InfiniBand 어댑터와 함께 자주 사용되는 제품은 무엇입니까?

트랜시버 및 케이블
네트워크 환경에서 최상의 결과를 얻으려면 대부분의 경우 Mellanox® InfiniBand 어댑터는 우수한 품질의 트랜시버 및 케이블과 결합됩니다. Mellanox® QSFP와 같은 트랜시버는 어댑터와 스위치 간의 인터페이스 역할을 하여 데이터 센터의 요구 사항을 준수하는 거리에서 데이터가 전송되도록 합니다. 적절한 케이블 선택은 신호 무결성 보존 및 대기 시간 감소에 필수적이며, 특히 고속 애플리케이션에서 필수적입니다. 따라서 수동 구리 및 활성 광 케이블은 다른 유형 중에서도 신중하게 선택해야 합니다. 또한 이러한 요소는 엄격한 산업 표준을 충족하도록 제조되어 InfiniBand 네트워크 시스템 내의 다른 장치와 호환되고 효율성을 향상시킵니다. 이 두 가지를 통해 조직은 현재 추세에 따라 증가된 작업 부하의 복잡성을 지원할 수 있는 강력한 기반을 구축할 수 있습니다.
보완 네트워크 어댑터
일반적으로 조직이 Mellanox® InfiniBand 솔루션에 대한 보완적 네트워크 어댑터를 검색할 때 네트워크를 개선하는 많은 고속 옵션을 고려합니다. 예를 들어, RDMA(Remote Direct Memory Access) 및 오프로드 기능은 Mellanox ConnectX® 시리즈에서 지원되며, 이 시리즈는 처리량이 높은 환경에서 데이터 전송을 최적화할 수 있는 다른 고급 기능을 갖추고 있습니다. 게다가 Intel의 이더넷 포트폴리오에는 필요한 모든 네트워크 아키텍처에 통합할 수 있는 다양한 어댑터가 포함되어 있습니다. 또 다른 옵션은 Mellanox® 시스템과 잘 작동하는 HP 네트워킹 솔루션을 구현하여 다양한 운영 요구 사항을 충족할 수 있는 통합 인프라를 만드는 것입니다. 이러한 어댑터는 많은 데이터 집약적 애플리케이션을 동시에 처리해야 하는 네트워킹 환경에서 확장성과 효율성을 보장합니다.
기타 고성능 컴퓨팅 구성 요소
고성능 컴퓨팅(HPC) 환경에서 최상의 성능을 얻으려면 다양한 부분을 통합하는 것이 필수적입니다. 가장 중요한 구성 요소 중 일부에는 기존 스토리지 미디어보다 빠른 데이터 액세스 시간을 제공하는 NVMe(Non-Volatile Memory Express) SSD와 같은 고속 스토리지 시스템이 포함됩니다. 또한 액체 또는 침지와 같은 고급 냉각 기술은 열 출력을 효과적으로 처리하여 무거운 컴퓨팅 작업 부하 중에도 지속적인 성능을 제공할 수 있습니다. 또한 GPU(그래픽 처리 장치) 및 TPU(텐서 처리 장치)를 포함한 최첨단 프로세서 아키텍처를 배포하면 병렬 처리 기능이 가속화되어 딥 러닝 작업이나 복잡한 시뮬레이션 실행에 매우 유용합니다. 이러한 구성 요소를 함께 사용하면 매우 집약적인 계산을 처리하도록 설계된 HPC 시스템의 처리량과 응답성을 높이는 자동화된 환경을 형성합니다.
Mellanox® InfiniBand 어댑터는 NVIDIA 기술과 호환됩니까?

향상된 컴퓨팅 성능을 위한 NVIDIA GPU와의 통합
NVIDIA GPU는 고성능 컴퓨팅 환경에서 Mellanox InfiniBand 어댑터와 잘 작동합니다. 이는 Infiniband 기술의 높은 처리량과 낮은 대기 시간 기능이 통합된 시스템을 통해 GPU 간 데이터 전송 가속을 실현하여 계산을 증가시키며, 머신 러닝이나 시뮬레이션과 같이 많은 처리 능력이 필요한 작업에 유용합니다. NVLink를 Mellanox InfiniBand와 함께 사용하면 대역폭이 증가하고 병목 현상이 줄어들어 시스템 간 병렬 컴퓨팅 중에 많은 시간을 절약할 수 있습니다. AI와 데이터 과학은 항상 발전하고 있으므로 대규모 애플리케이션은 최상의 성능을 발휘해야 합니다. 따라서 이러한 결합된 기능은 빅데이터 요구 사항과 관련하여 최적의 성능과 확장성을 보장할 수 있어야 합니다.
NVIDIA 소프트웨어로 성능 최적화
NVIDIA 기술을 사용할 때 최상의 성능을 얻으려면 NVIDIA에서 제공하는 소프트웨어 제품군을 사용해야 합니다. NVIDIA는 GPU에서 병렬 컴퓨팅으로 수행되는 작업을 최적화하기 위해 NVIDIA CUDA, cuDNN 및 TensorRT와 같은 소프트웨어 프레임워크를 만들었습니다. CUDA(Compute Unified Device Architecture)를 사용하면 개발자는 NVIDIA GPU를 범용 처리에 최대한 활용하여 데이터와 관련된 작업 부하를 크게 가속화할 수 있습니다. cuDNN은 GPU를 가속에 사용하는 딥 신경망용 라이브러리로, 학습과 추론을 최적화하여 모든 머신 러닝 애플리케이션의 필수적인 부분이 됩니다. TensorRT는 이전보다 많은 계층을 융합하거나 더 정밀하게 보정해야 하는 딥 러닝 모델에서 더 나은 런타임 속도를 제공하여 이를 개선합니다. 건전한 인프라 설계 원칙과 함께 올바르게 사용함으로써 이러한 조직은 NVIDIA에 대한 투자를 최대한 활용하는 동시에 다양한 애플리케이션에서 높은 수준의 계산 효율성을 보장할 수 있습니다.
참조 출처
자주 묻는 질문
질문: Mellanox® InfiniBand 어댑터란 무엇인가요?
A: Mellanox® InfiniBand Adapter는 시장에서 가장 빠른 네트워크 속도와 유연성을 제공하는 기술입니다. 이를 통해 데이터 센터, HPC 및 클라우드 인프라는 네트워크 처리량과 애플리케이션 성능 효율성을 높일 수 있습니다.
질문: Mellanox® InfiniBand 어댑터 설명서는 어디서 찾을 수 있나요?
A: 이러한 어댑터에 대한 설명서는 제조업체의 공식 웹사이트나 지원 섹션에서 제공됩니다. 또는, 더 구체적인 모델 관련 설명서를 원하시면 저희에게 연락하실 수 있습니다.
질문: ConnectX-6 VPI 어댑터 카드를 사용하면 어떤 이점이 있나요?
A: ConnectX-6 VPI 어댑터 카드는 듀얼 포트로 업계 기록을 세웠습니다. QSFP56, PCI Express 4.0 x16 슬롯과 호환되는 동시에 이더넷 및 InfiniBand 연결을 지원합니다. 이러한 기능으로 인해 HPC 및 데이터 센터 애플리케이션에 이상적입니다.
질문: Mellanox® InfiniBand 어댑터는 이더넷과 InfiniBand 네트워크에 모두 연결할 수 있나요?
A: 네, 그렇습니다. 이는 VPI(Virtual Protocol Interconnect) 어댑터가 Infiniband 패브릭을 기반으로 하는 애플리케이션을 포함하여 다양한 애플리케이션에 필요한 고성능 수준을 제공하면서도 이더넷이나 FCoE(Fibre Channel over Ethernet)와 같은 다양한 유형의 네트워크를 지원하기 때문입니다.
질문: ConnectX-7 VPI 어댑터가 제공하는 주요 기능은 무엇입니까?
A: 이 어댑터의 주요 특징으로는 HDR100, NDR 및 200GbE 네트워킹 기능 지원, 듀얼 포트 연결 옵션, 높은 처리량 속도가 포함되어 있어 까다로운 데이터 센터에 견고한 솔루션이 필요한 고성능 컴퓨팅 환경에서 사용하기에 적합합니다.
질문: Mellanox® 어댑터 카드를 PCIe4.0 x16 슬롯에 연결하면 어떤 이점이 있나요?
답변: PCIe4.0 x16 슬롯은 더 빠른 속도와 짧은 지연 시간을 제공하여 Mellanox® 어댑터 카드의 성능을 크게 향상시켜 대량 데이터 처리와 고속 네트워킹에 사용할 수 있습니다.
질문: Mellanox® 어댑터 카드와의 연결과 관련하여 무엇을 할 수 있나요?
답변: Mellanox® 어댑터 카드는 단일 포트 QSFP56, 듀얼 포트 QSFP56, 광학 및 구리 연결과 같은 연결 인터페이스를 제공하며 이더넷 및 InfiniBand 프로토콜과 함께 작동할 수 있습니다.
질문: Mellanox® 어댑터 카드와 함께 Linux 운영 체제를 사용할 수 있나요?
A: 네, Linux 배포판은 Mellanox® 어댑터 카드가 설치된 머신에서 실행할 수 있습니다. 이러한 카드는 좋은 드라이버와 소프트웨어 지원을 갖추고 있어 최상의 성능 수준에서 작동할 수 있습니다.
질문: Mellanox® 어댑터 카드의 이름과 관련하여 "단일 포트"와 "듀얼 포트"는 무엇을 의미합니까?
A: "단일 포트" 또는 "듀얼 포트"라는 용어는 어댑터 카드에서 사용 가능한 네트워크 인터페이스의 수를 설명합니다. 단일 포트 카드에는 포트가 하나뿐인 반면 듀얼 포트 카드에는 포트가 두 개 있어 중복성과 대역폭 용량이 더 높아집니다.
질문: 내 요구 사항에 맞는 Mellanox® 어댑터 카드의 특정 모델을 어떻게 알 수 있나요?
A: 귀하의 필요에 가장 적합한 Melon 어댑터 카드를 식별하려면 원하는 처리량, 네트워크 유형(Ethernet 또는 InfiniBand), 호환 슬롯(예: PCI Express x16) 및 포트가 하나인지 두 개인지와 같은 요소를 고려해야 합니다. 자세한 사양과 지침을 제공하는 설명서와 함께 제품 설명을 확인할 수도 있습니다.
관련 상품:
-
NVIDIA Mellanox MCX653105A-ECAT-SP ConnectX-6 InfiniBand/VPI 어댑터 카드, HDR100/EDR/100G, 단일 포트 QSFP56, PCIe3.0/4.0 x16, 긴 브래킷 $965.00
-
NVIDIA Mellanox MCX653106A-ECAT-SP ConnectX-6 InfiniBand/VPI 어댑터 카드, HDR100/EDR/100G, 듀얼 포트 QSFP56, PCIe3.0/4.0 x16, 긴 브래킷 $828.00
-
NVIDIA Mellanox MCX653105A-HDAT-SP ConnectX-6 InfiniBand/VPI 어댑터 카드, HDR/200GbE, 단일 포트 QSFP56, PCIe3.0/4.0 x16, 긴 브래킷 $1400.00
-
NVIDIA Mellanox MCX653106A-HDAT-SP ConnectX-6 InfiniBand/VPI 어댑터 카드, HDR/200GbE, 듀얼 포트 QSFP56, PCIe3.0/4.0 x16, 긴 브래킷 $1600.00
-
NVIDIA Mellanox MCX75510AAS-NEAT ConnectX-7 InfiniBand/VPI 어댑터 카드, NDR/400G, 단일 포트 OSFP, PCIe 5.0x 16, 긴 브래킷 $1650.00
-
NVIDIA Mellanox MCX75310AAS-NEAT ConnectX-7 InfiniBand/VPI 어댑터 카드, NDR/400G, 단일 포트 OSFP, PCIe 5.0x 16, 긴 브래킷 $2200.00