イーサネット カードと InfiniBand アダプターの違いは何ですか?

NIC はネットワーク インターフェイス コントローラーであり、ネットワーク アダプターまたはネットワーク インターフェイス カードとも呼ばれ、コンピューターやサーバーで使用されます。 ネットワーク接続ケーブル (ツイストペアケーブル、光ファイバーなど) を介して、スイッチ、ストレージデバイス、サーバー、およびワークステーションと通信できます。 市場の人気と技術力の向上に伴い、イーサネット カードや InfiniBand カードなど、さまざまな種類のネットワーク カードも登場しています。 この記事では、最適なネットワーク カードの選択に役立つことを期待して、イーサネット カードと InfiniBand アダプターの違いにも焦点を当てます。

イーサネットカードとは?

イーサネット カードは、マザーボード スロットに差し込まれるネットワーク アダプタであり、イーサネット プロトコル標準をサポートします。 各ネットワーク アダプタには、MAC アドレスと呼ばれるグローバルに一意の物理アドレスがあります。 ネットワーク アダプタの MAC アドレスに基づいて、宛先のコンピュータにデータを正確に送信できます。 イーサネット カードには多くの種類があり、さまざまな分類方法があります。 それらは、帯域幅、ネットワーク インターフェイス、およびバス インターフェイスに従って分けることができます。 光インタフェースのイーサネットカードは、ファイバーイーサネットカード (ファイバーイーサネットアダプター) と呼ばれます。 光ファイバー イーサネット通信プロトコルに準拠し、通常は光ファイバー ケーブルを介して光ファイバー イーサネット スイッチに接続されます。 これは、最も広く使用されているタイプのネットワーク カードです。 現在、ファイバー イーサネット アダプターは、バス インターフェイスと帯域幅によって分類できます。

バス インターフェイスの分類

イーサネット カードのバス インターフェイスの種類は、PCI、PCI-Express (略して PCI-E)、USB、および ISA に分類できます。 ISA/PCI は初期のバス インターフェイスであり、テクノロジが成熟するにつれて徐々に廃止されています。 PCIe は現在最も使用されているバス インターフェイスであり、産業グレードのアプリケーションやサーバー コンピューターで非常に一般的です。

1. PCIe カードはどのように機能しますか?

PCIe は、バスというよりもネットワークのように機能するシリアル アタッチメントです。 さまざまなソースからのデータを処理する他のバス インターフェイスとの最も明白な違いは、PCIe がポイント ツー ポイント接続のためにスイッチを介してデータの流れを制御することです。 PCle カードをスロットに挿入し、互いに通信するための論理接続 (相互接続またはリンク) を生成します。 一般に、XNUMX つの PCle ポート間のポイントツーポイント通信チャネルをサポートし、通常の PCI 要求または割り込みを送受信するアクションを実行できます。

2. PCIe カードのカテゴリは何ですか?

仕様: 通常、PCle スロットのチャネル数によって、PCle カードの仕様が決まります。 一般的な PCle カードの物理仕様は、x1、x4、x8、x16、および x32 です。 たとえば、PClex8 カードは、カードに XNUMX つのチャネルがあることを意味します。

バージョン: PCIe は、古い PCI および PCI-X バス標準に取って代わり、高帯域幅に対する高まる需要を満たすために絶えず変更されています。 最初の PCIe 1.0 (2.5GT/s) バージョンは 2002 年にリリースされ、その後、PCIe 2.0 (5GT/s)、PCIe 3.0 (8GT/s)、PCIe 4.0 (16GT/s)、PCIe 5.0 (32GT/s)、 PCIe 6.0 (64GT/s)、PCIe7.0 (128GT/s) が登場。 すべての PCIe バージョンで後方互換性がサポートされています。

 

の分類 Bと幅

インターネット トラフィックが日々増加するにつれて、ネットワーク機器は、主要な ISP から、10G、25G、40G、または最大 100G のデータ転送を達成するために、より高いパフォーマンス要件で絶えず反復および更新するというプレッシャーにさらされています。 それらに関するいくつかの基本的な情報については、次のセクションで詳しく説明します。

1. 10Gファイバー アダプタ(イーサネットサーバー アダプタ)

10G 光ファイバー ネットワーク アダプター 32/64 ビット PCI バス ネットワーク インターフェイス カードを採用し、10G シングルモードまたはマルチモード ファイバーをサポートし、企業およびキャンパスのバックボーン ネットワーク構築に適しています。 同時に、10G イーサネットは最大 100 キロメートルまで伝送でき、大都市圏の伝送要件を満たすことができます。 MAN のバックボーン レイヤーに 10G ネットワークを展開すると、ネットワーク構造が大幅に簡素化され、コストが削減され、メンテナンスが容易になります。 エンド ツー エンドのイーサネットを使用して、低コスト、高性能、豊富なサービス サポート機能を備えた MAN を構築します。

2. 25Gファイバー アダプタ

25G ファイバーアダプター 10G イーサネットの低帯域幅と 40G イーサネットの高コストを補うために、25Gb/s シングル チャネル物理層テクノロジを使用して、100 つの 25Gbps ファイバー チャネルに基づく 28G 伝送を実現します。 SFP25 パッケージは SFP+ パッケージに基づいており、どちらも同じサイズであるため、25G ファイバー アダプター ポートは 10G と 10G の速度をサポートできます。 25G ネットワーク アダプターと比較して、100G ファイバー NIC のより広い帯域幅は、高性能コンピューティング クラスターのネットワーク ニーズを満たすために、25G またはさらに高速なネットワーク アップグレードにおいて、XNUMXG ファイバー アダプターは不可欠なインフラストラクチャの XNUMX つになります。

3. 40Gファイバー アダプタ

40G ファイバーアダプターには、40Gbps の伝送帯域幅をサポートする 40G QSFP+ インターフェイスがあります。 また、PCI-e x8 標準スロットをサポートし、効率的で安定した動作を保証します。 通常、シングルポートとデュアルポートで利用できます。 40G ファイバー NIC は、エンタープライズ データ センター、クラウド コンピューティング、ハイ パフォーマンス コンピューティング、組み込み環境向けの最高性能の相互接続ソリューションです。

4 100Gファイバ アダプタ

現在、市場で最も一般的な 100G ファイバー ネットワーク アダプターは、シングル ポートとデュアル ポートです。 各ポートは最大 100 ギガビット/秒のイーサネットを提供でき、信頼性の高い伝送の適応ルーティングを保証し、vSwitch/vRouter のアンロード機能を強化します。 100G ファイバー ネットワーク カード 高性能で柔軟なソリューションを提供し、 offさまざまな革新的な offハードウェアの負荷とアクセラレータを使用して、データセンター ネットワークとストレージ接続の効率を向上させます。

サーバーとスイッチ間の接続は、より高い帯域幅に増加しています。 25Gサーバーと25Gスイッチの中間デバイスとして、100Gイーサネットカードが主流になりました。 また、データセンターが前例のない速度で 400G に成長するにつれて、サーバーとスイッチ間の接続は 100G に成長し、100G ネットワーク カードもデータセンターで不可欠な役割を果たします。

100G ネットワーク カードも、データ センターで不可欠な役割を果たします。

WInfiniBandアダプターって何ですか?

インフィニバンドネットワーク

InfiniBand は、コンピュータ ネットワーク通信標準として、高スループット帯域幅と超低ネットワーク伝送遅延という利点により、ハイ パフォーマンス コンピューティング (HPC) で広く使用されています。 InfiniBand ネットワークは、さまざまな規模のネットワーク要件に適応するために、スイッチ ネットワークを通じて水平方向に拡張できます。 2014 年の時点で、TOP500 に入るスーパーコンピューターのほとんどは InfiniBand ネットワーク テクノロジーを使用しています。 近年では、AI/ビッグデータ関連アプリケーションにもInfiniBandネットワークが採用され、高性能なクラスター展開が実現されています。

階層化プロトコルとして、InfiniBand は OSI XNUMX 層プロトコル モデルと同様の階層化プロトコル スタックを定義します。 IB スイッチは、サーバー ノード上にプライベートで保護されたダイレクト チャネルを作成します。 このチャネルでは、データとメッセージの送信に CPU 処理は必要なくなり、RDMA を通じて直接実装されます。 このように、受信機能と送信機能は次のようになります。 off処理のために InfiniBand アダプターにロードされます。 物理的には、InfiniBand アダプタは PCIe インターフェイスに基づいて CPU メモリに接続し、他の通信プロトコルよりも高い帯域幅、低い遅延、優れた拡張性を提供します。

nfiniband は高性能コンピューティングで広く使用されています

InfiniBand アダプター

InfiniBand アーキテクチャは、そのアーキテクチャを展開するために必要な一連のハードウェア コンポーネントを定義しており、InfiniBand ネットワーク カードもその XNUMX つです。 InfiniBand アダプターは、HCA (ホスト チャネル アダプター) とも呼ばれます。 HCA は、InfiniBand エンド ノード (サーバーやストレージ デバイスなど) が InfiniBand ネットワークに接続するポイントです。 InfiniBand アーキテクトは、HCA 機能を表すハードウェア、ソフトウェア、およびファームウェアの最終的なコレクションがアクセスを提供できるように、単一のハードウェア、ファームウェア、またはソフトウェアで必要とされる特定の HCA 機能以上のアーキテクチャを確実に実装できるようにすることに多大な時間を費やしました。アプリケーションのネットワーク リソースに接続します。 実際、アプリケーションが InfiniBand ハードウェアにアクセスするために使用するキュー構造は、アプリケーションの仮想アドレスに直接表示されます。 同じアドレス変換メカニズムは、HCA がユーザーレベルのアプリケーションに代わってメモリにアクセスするための手段です。 多くの場合、アプリケーションは仮想アドレスを参照します。 HCA は、情報転送のためにこれらのアドレスを物理アドレスに変換する機能を備えています。

のメリット  アダプタ

  1. InfiniBand ネットワーク カードは、サーバーとストレージ システムに最高のパフォーマンスと最もスケーラブルな相互接続ソリューションを提供します。 特に HPC、Web 2.0、クラウド コンピューティング、ビッグ データ、金融サービス、仮想化データ センター、ストレージ アプリケーションではパフォーマンスが大幅に向上し、完了時間が短縮され、プロセス全体のコストが削減されます。
  2. InfiniBand アダプターは、高いサーバー効率とアプリケーションの生産性を実現するために、高帯域幅、高メッセージ レート、低遅延を必要とする HPC クラスターにとって理想的なソリューションです。
  3. インフィニバンドカード offCPU のプロトコル処理とデータ移動を CPU から相互接続にロードし、CPU の効率を最大化し、高解像度シミュレーション、大規模なデータ セット、および高度に並列化されたアルゴリズムの超高速処理を実行します。

InfiniBand の選択方法 ネットワーク カード

  1. ネットワーク帯域幅: 100G、200G、400G
  2. XNUMX 台のマシンのアダプターの数
  3. ポートレート: 100Gb/s (HDR100/EDR)、200Gb/s (HDR)
  4. ポート数:1/2
  5. ホストインターフェースタイプ: PCIe3/4 x8/x16、OCP2.0/3.0
  6. Socket-Directまたはマルチホスト機能が必要かどうか

InfiniBand とイーサネット

  • 帯域幅: XNUMX つのアプリケーションが異なるため、帯域幅の要件も異なります。 イーサネットは、どちらかというと端末デバイスの相互接続であり、帯域幅に対する高い需要はありません。 InfiniBand は、高性能コンピューティングでサーバーを相互接続するために使用されます。 相互接続だけでなく、高速ネットワーク伝送時のCPU負荷をどのように軽減するかも考慮しています。 RDMAテクノロジーの恩恵を受け、 インフィニバンドネットワーク 高速伝送での CPU アンロードを実現し、ネットワーク使用率を向上させることができます。 したがって、CPU 速度が大幅に向上しても、ネットワーク処理のために多くのリソースが犠牲になることはなく、HPC パフォーマンスの開発が遅くなることはありません。
  • レイテンシ: 主にスイッチとネットワーク アダプタに分けて比較します。 スイッチの場合: ネットワーク伝送モデルのテクノロジの 200 番目のレイヤーとして、イーサネット スイッチには通常数マイクロ秒 (カットスルーをサポートする 2 ナノ秒以上) の長い処理プロセスがありますが、インフィニバンド スイッチには非常に単純なレイヤー 100 処理があります。 カットスルー テクノロジーは、転送遅延を 600 ナノ秒未満に大幅に短縮できます。これは、イーサネット スイッチよりもはるかに高速です。 ネットワーク アダプターの場合: RDMA テクノロジを使用すると、InfiniBand ネットワーク カードは CPU を経由せずにパケットを転送できます。これにより、パケットのカプセル化とカプセル化解除の遅延が大幅に高速化されます (通常、送受信の遅延は 10 ナノ秒です)。 ただし、Ethernet をベースにした TCP および UDP アプリケーションの送受信遅延は約 XNUMXus で、XNUMX 倍以上の差があります。
  • 信頼性の向上: ハイ パフォーマンス コンピューティングの分野では、パケット損失の再送信が全体のパフォーマンスに大きな影響を与えます。 したがって、ネットワークの高信頼性を実現するためには、ネットワークのロスレス性をメカニズムレベルで保証する、信頼性の高いネットワークプロトコルが必要です。 InfiniBand は、独自のレイヤー 1 からレイヤー 4 フォーマットを持つ完全なネットワーク プロトコルです。 パケットは、エンド ツー エンドのフロー制御に基づいてネットワーク上で送受信されます。 InfiniBand ネットワークの伝送ではキャッシュの蓄積がないため、遅延ジッターが最小限に抑えられ、理想的なピュア ネットワークが構築されます。 イーサネットで構築されたネットワークは、スケジューリングフロー制御機構を持たないため、コストが高くなるだけでなく、消費電力も大きくなります。 また、エンドツーエンドのフロー制御メカニズムがないため、ネットワークがやや極端な場合に発生し、キャッシュの輻輳やパケット損失が発生し、データ転送のパフォーマンスが大きく変動します。
  • ネットワーキング: イーサネット ネットワーキングでは、エントリのリアルタイム更新を保証するために、ネットワーク内の各サーバーが定期的にパケットを送信する必要があります。 ネットワーク内のノード数が一定のレベルまで増加すると、ブロードキャスト ストームが生成され、ネットワーク帯域幅の深刻な浪費につながります。 同時に、イーサネット ネットワークのテーブル エントリ学習メカニズムの欠如は、ループ ネットワークにつながります。また、イーサネットには特別な SDN がないため、ネットワーク中に SDN の要件を満たすようにパケット形式または転送メカニズムを変更する必要があります。そのため、ネットワーク構成の複雑さが増します。 InfiniBand は、SDN の概念から生まれました。 各レイヤー 2 InfiniBand ネットワークには、ネットワーク内のノード ID (LocalID) を構成するためのサブネット マネージャーがあります。 その後、転送経路情報は、コントロール プレーンを介して一律に計算され、InfiniBand スイッチに配信されます。 このようにして、レイヤ 2 InfiniBand ネットワークを構成せずに構成でき、フラッディングが回避され、VLAN とリング ネットワークの切断が回避されます。 したがって、数万台のサーバーを含む大規模なレイヤー 2 ネットワークを簡単に展開できます。

ネットワーク カードの推奨事項

ConnectX-5 イーサネット カード (MCX512A-ACAT)

ConnectX-5 イーサネット ネットワーク インターフェイス カードは、最大 10 つの 25/750GbE 接続ポート、200ns の遅延、最大 5 億パケット/秒 (Mpps)、およびデータ プレーン開発キット (DPDK) を備えています。 ストレージ ワークロードの場合、ConnectX-XNUMX offハードウェアのシグネチャ スイッチング (T10-DIF)、組み込みの PCIe スイッチ、NVMe over Fabric ターゲットなど、さまざまな革新的なアクセラレーションを提供します。 off読み込み中。 ConnectX-5 アダプター カードは、高度な Open vSwitch も提供します off通信およびクラウド データ センターへのロードにより、CPU リソースの消費を削減しながら非常に高いパケット レートとスループットを実現し、データ センター インフラストラクチャの効率を高めます。

ConnectX-5 イーサネット カード (MCX512A-ACAT)

ConnectX-6 イーサネット カード (MCX623106AN-CDAT)

ConnectX-6 Dx SmartNIC は、1/10/25/40/50/100GbE の転送速度、新しいネットワーク フロー用の柔軟なプログラマブル パイプ、高度な QoS、IPsec、および TLS インライン暗号化アクセラレーション サポートによるマルチホーミングと静的ブロックのための暗号化アクセラレーションをサポートします。データ。 これは、セキュリティ、仮想化、SDN/NFV、ビッグ データ、機械学習、ストレージなどのミッション クリティカルなデータ センター アプリケーションを高速化するための、業界で最も安全で高度なクラウド ネットワーク インターフェイス カードです。

ConnectX-6 イーサネット カード (MCX623106AN-CDAT)

ConnectX-6 VPI IB ネットワーク カード (MCX653105A-ECAT-SP)

ConnectX-6 VPI カードは、HDR600 EDR InfiniBand および 215GbE イーサネット接続に対して、単一ポート、サブ 100 ナノ秒の遅延、および毎秒 100 億 3.0 万のメッセージを提供します。 PCIe 4.0 および PCIe XNUMX のサポート。 ブロックレベルの暗号化やチェックサムなどの高度なストレージ機能 offロード; データセンター アプリケーションの増大するニーズを満たすように設計された、最高のパフォーマンスと最も柔軟なソリューションを実現します。

ConnectX-6 VPI IB ネットワーク カード (MCX653105A-ECAT-SP)

ConnectX-5 VPI IB ネットワーク カード (MCX556A-ECAT)

ConnectX-5 InfiniBand アダプタ カード offデュアル ポート 100Gb/s InfiniBand およびイーサネット接続ポート、低遅延、高メッセージ レート、組み込み PCIe スイッチおよび NVMe over Fabrics を備えた、高性能で柔軟なソリューションです。 offロード。 これらのインテリジェントなリモート ダイレクト メモリ アクセス (RDMA) 対応アダプターは、高度なアプリケーションを提供します。 offハイパフォーマンス コンピューティング (HPC)、クラウド ハイパースケール、およびストレージ プラットフォームのロード機能。

ConnectX-5 VPI IB ネットワーク カード (MCX556A-ECAT)

上記の InfiniBand アダプタとイーサネット カードから、それぞれに独自の特性と対応するアプリケーション領域があることが容易にわかります。 どのタイプのカードを展開するかは、カードがサポートするプロトコルだけでなく、ネットワーク環境と予算によっても異なります。

コメント

上へスクロール