AIチップから究極のCPOポジショニングバトルまで:NVIDIA vs. Broadcomの技術ロードマップ対決

人工知能(AI)と機械学習が牽引する時代において、世界のデータトラフィックは指数関数的に増加しています。データセンターのサーバーとスイッチは、200Gや400Gの接続から、800G、1.6T、そして潜在的には3.2Tの速度へと急速に移行しています。

市場調査会社TrendForceは、400Gを超える光トランシーバーモジュールの世界出荷台数が2023年には6.4万台、2024年には約20.4万台、2025年には31.9万台に達し、前年比56.5%の成長を遂げると予測しています。AIサーバーの需要は800Gおよび1.6Tモジュールの拡大を牽引し続け、従来型サーバーのアップグレードも牽引力となっています。 400G光トランシーバ 要件。

さらに調査によると、2026年には1.6T光モジュールの需要が予想を大幅に上回り、総出荷台数は11万台に達すると予測されています。主な牽引役は、NVIDIAとGoogleからの強力な調達に加え、Meta、Microsoft、AWSからの貢献です。

広帯域、低損失、長距離伝送を可能にする光通信は、ラック内およびラック間の相互接続における主要なソリューションとしてますます重要になってきており、光トランシーバモジュールはデータセンター接続における重要なコンポーネントとして位置付けられています。TrendForceは、将来のAIサーバーのデータ伝送には、膨大な量の高速光トランシーバモジュールが必要になると強調しています。これらのモジュールは、光ファイバー伝送のために電気信号を光信号に変換し、受信した光信号を再び電気信号に変換します。

01 光トランシーバモジュールと光通信、シリコンフォトニクスの関係とは?

元の図の最初の2つの図に基づくと、現在市販されているプラ​​ガブル光トランシーバは最大速度を実現します。 800G次のフェーズでは、オンボードオプティクス(OBO)と呼ばれる、ASICチップパッケージの周囲に搭載された光エンジン(Optical Engine、OE)が、最大1.6Tの伝送をサポートします。

業界は、光コンポーネントをASICと一体化したCo-Packaged Optics(CPO)への進化を目指しています。この技術により、3.2Tを超える最大12.8Tの速度が可能になります。最終的な目標は「光I/O」であり、12.8Tを超える伝送速度で光ネットワークと同等の完全な機能を実現します。

図をよく見ると、光通信モジュール(以前はプラグ式で、黄色のブロックで示されていました)がASICにますます近づいていることがわかります。この近接性により、電気信号経路が短縮され、より高い帯域幅が実現します。シリコンフォトニクスプロセス技術は、光コンポーネントをチップ上に直接統合します。

現在市販されているプラ​​ガブル光トランシーバは最大800Gの速度を実現している。

02 光通信需要の爆発的な増加:業界は3つのサーバーアーキテクチャ拡張に注目

AIアプリケーションのブームにより、高速光通信の需要が劇的に増加しています。サーバーでは、主にスケールアップ(垂直方向のスケーリング)とスケールアウト(水平方向のスケーリング)が重視されており、それぞれ異なる伝送ニーズと技術的課題に対応しています。最近、NVIDIAは「スケールアクロス」というコンセプトを発表し、業界の検討事項に新たな次元をもたらしました。

拡大する

Scale-Upは、ラック内高速相互接続(図の黄色の部分)に重点を置いており、伝送距離は通常10メートル未満です。超低レイテンシの要件には、光電変換による遅延と消費電力を回避するため、「銅線相互接続」が適しています。現在のソリューションとしては、NVIDIAのNVLink(独自アーキテクチャ)と、AMDなどが主導するオープンスタンダードのUALinkがあります。

注目すべきは、NVIDIAが今年NVLink Fusionを発表し、NVLinkテクノロジーを初めて外部チップベンダーに開放したことです。これにより、NVLinkは単一サーバーノードからラックスケールアーキテクチャへと拡張され、UALinkとの競合に対抗する形となる可能性があります。

従来スケールアウト市場に重点を置いてきたBroadcomは、イーサネットを介してスケールアップ市場にも参入します。同社は最近、スケールアップ・イーサネット(SUE)規格に準拠した複数のチップを発表しました。この開発は、後述するNVIDIAとBroadcomの将来的な競争の基盤を築くものとなります。

規格外

スケールアウトは、サーバー間の大規模な並列コンピューティング(図の青い部分)を可能にし、高スループットのデータと無限のスケーラビリティを実現します。ここでは光通信が主流であり、InfiniBandやイーサネットなどの主要な相互接続技術が光モジュール市場を牽引しています。

InfiniBand と Ethernet は 2 つの主要な陣営を形成しています。前者は NVIDIA と Microsoft が支持し、後者は Broadcom、Google、AWS が支持しています。

InfiniBandにおけるリーダーシップは、エンドツーエンドのイーサネットおよびInfiniBandインテリジェントインターコネクトプロバイダーとしてNVIDIAが2019年に買収したMellanoxに由来しています。最近、中国政府はNVIDIAによるこの買収が独占禁止法に違反していると判断しました。NVIDIAは数多くのInfiniBand製品を提供するだけでなく、NVIDIA Spectrum-Xなどのイーサネットソリューションも提供しており、両方の市場を掌握しています。

反対派のIntel、AMD、Broadcomなどは、InfiniBandに対抗する強化されたイーサネット伝送スタックを開発するために、2023年7月にUltra Ethernet Consortium (UEC)を結成しました。

TrendForceのアナリストChu Yu-chao氏は、スケールアウトが牽引する光通信モジュール市場が将来のデータ伝送の中核戦場となると述べています。

スケールアクロス

NVIDIAは新たなソリューションとして、数キロメートルを超える長距離データセンター間接続を実現する「Scale-Across」を提案し、複数のデータセンター間接続を実現するイーサネットベースのSpectrum-XGS Ethernetを発表しました。

Spectrum-XGSは、AIコンピューティングにおけるスケールアップとスケールアウトに続く第三の柱として機能します。Spectrum-X Ethernetのパフォーマンスとスケールを拡張し、分散データセンターの相互接続、大規模データセットのAIモデルへのストリーミング、そしてセンター内のGPU間通信の調整を実現します。

このソリューションは、スケールアウトとクロスドメイン拡張を組み合わせ、スケールアクロスと連携して、距離に基づいて負荷分散とアルゴリズムを柔軟に調整します。

NVIDIA の創業者兼 CEO であるジェンスン フアンは、「スケールアップとスケールアウトの機能を基に、スケールアクロスを追加して、都市、国、大陸をまたいでデータセンターを接続し、大規模なスーパー AI ファクトリーを構築します」と述べています。

業界のトレンドでは、スケールアップとスケールアウトが熾烈な競争領域となっており、NVIDIAとBroadcomが市場シェアを争っています。NVIDIAのScale-Acrossは、数キロメートルから数千キロメートルに及ぶデータセンター間伝送をターゲットとしています。Broadcomは同等のソリューションを提供しています。

03 AIチップ伝送からCPOポジショニング戦争:NVIDIAとBroadcomはいったい何を競っているのか?

NVIDIA VS ブロードコム

光通信と 3 つのデータセンター拡張アーキテクチャを理解すると、市場が AMD だけでなく、AI チップのリーダーである NVIDIA と通信チップの大手 Broadcom との競争にも注目していることが明らかになります。

AI 業界の競争はチップを超えてシステムレベルのソリューションにまで広がっています。

BroadcomとNVIDIAの最初の接点は「カスタムAIチップ」(ASIC)です。NVIDIAのGPUは高価であるため、Google、Meta、Amazon、Microsoftなどのクラウドサービスプロバイダー(CSP)は、主にASICの専門知識を持つBroadcomと提携し、自社でAIチップを開発しています。

主要CSP自社開発チップ

CSPグーグルAWSMetaMicrosoft
製品TPU v6 トリリウムトレイニウム v2 、 トレイニウム v3MTIA、MTIA v2マイア、マイアv2
共同パッケージパートナーBroadcom、United Developers (TPU v7e)Marvell (Trainium v​​2)、ChipCore-KY (Trainium v​​3)ブロードコムCreative Intent (Maia v2)、Marvell (Maia v2 Advanced Edition)

2 番目でより重要な交差点は、「ネットワーク接続テクノロジー」です。

スケールアップ分野では、NVLink と CUDA の堀で保護された Broadcom が今年 Tomahawk Ultra ネットワーク スイッチ チップをリリースし、市場に参入して NVLink の優位性に挑戦します。

Tomahawk Ultraは、BroadcomのScale-Up Ethernet(SUE)イニシアチブの一環であり、NVSwitchの代替として位置付けられています。TSMCの5nmプロセスで製造されたNVLink Switchの4倍のチップを接続できます。

Broadcom は UALink コンソーシアムに参加していますが、イーサネットに基づく SUE を推進しており、NVLink に対する UALink との競争・協力の力学に疑問が生じています。

Broadcomに対抗するため、NVIDIAはNVFusionを導入し、MediaTek、Marvell、Astera LabsなどのパートナーとNVLinkエコシステムを介してカスタムAIチップの協業を開始しました。このセミオープンなアプローチは、エコシステムを強化しながらカスタマイズを可能にします。

NVIDIA NVLINK

スケールアウト分野では、イーサネットのベテランである Broadcom が、スケールアウトと長距離をターゲットにした Tomahawk 6 や Jericho4 などの製品で優位に立っています。

NVIDIAは、より広範なスケールアウトカバレッジを実現するQuantum InfiniBandスイッチとSpectrum Ethernetプラットフォームで対抗します。InfiniBandはオープンですが、そのエコシステムはNVIDIAによるMellanox買収によって大きく制御されており、顧客の柔軟性が制限されています。

Broadcom-Tomahawk-UltraおよびTomahawk-6スケール

Broadcom のイメージによれば、3 つの製品が 2 つのサーバー拡張アーキテクチャにまたがっています。

長距離スケールアクロスではリーダーシップは不透明ですが、NVIDIAはSpectrum-XGSでリードしています。これは、効率的な長距離データ移動を実現する新しいネットワークアルゴリズムを採用しており、 スケールアップとスケールアウト.

BroadcomのJericho4はScale-Acrossに準拠し、ロスレスRoCE伝送により100kmを超えるサイト間接続に対応します。これは前世代の4倍の容量です。Tomahawkシリーズは、1km(約0.6マイル)未満のデータセンター内ラック接続に対応します。

拡張アーキテクチャNVIDIAブロードコムAMD
拡大する障害の解決: NVLink(密閉型アーキテクチャ)、NVFusion(半密閉型)UALink(オープンアーキテクチャ)、SUEUALink(オープンアーキテクチャ)
 ソリューションスキーム: NVLinkプラットフォーム、NVSwitchプラットフォーム、NVFusionソリューションスキームトマホーク ウルトラ、トマホーク 6 (TH6)Infinity Fabric(UALinkにすでに統合済み)
規格外障害の解決: InfiniBandの障害、既存のイーサネット製品UEC(イーサネット障害物)電通大
 ソリューションスキーム: Quantum InfiniBandプラットフォーム、Spectrum-X/Spectrum Z、Too-ネットワークスイッチングプラットフォームトマホーク 6、ジェリコ 4 
スケールアクロスソリューションスキーム: スペクトラム-XGSジェリコ4 

04 NVIDIA と Broadcom の CPO ソリューションとは?

ネットワーク伝送競争が激化するにつれ、光ネットワークの競争も激化します。NVIDIAとBroadcomはCPO光通信のイノベーションを追求し、TSMCとGlobalFoundriesは関連プロセスを開発しています。

NVIDIAの戦略では、光インターコネクトはアドオンモジュールではなく、SoCの一部と捉えています。今年のGTCでは、Quantum-X Photonics InfiniBandスイッチ(年末発売)とSpectrum-X Photonics Ethernetスイッチ(2026年発売)を発表しました。

両プラットフォームとも、TSMCのCOUPEとSoIC-Xパッケージを採用し、65nmフォトニック集積回路(PIC)と電子集積回路(EIC)を統合しています。これにより、プラットフォームの統合性が向上し、効率性と拡張性が高まります。

Broadcomは、サードパーティのクライアント向けに包括的かつ拡張性の高いサプライチェーンソリューションを提供しています。CPOにおける同社の成功は、半導体と光技術の統合に関する深い専門知識に支えられています。

Broadcomは、第3世代の200G/レーンCPOを発表しました。65nm PICと7nm EICによる3Dチップスタッキングを採用しています。

図に示すように、光トランシーバーモジュールは、レーザーダイオード(光源)、変調器(電気から光への変換)、および光検出器という主要コンポーネントで構成されています。変調器はレーンごとの速度を決定します。

フォトニックエンジンモジュールの内部コンポーネント

コンポーネント名演算
光検出器(PD、フォトディテクタ)光信号を受信します。
導波管(ウェーブガイド)光の伝播のための経路を提供します。
光変調器(光変調器)電気信号入力条件下では、電気信号を光信号に変換します。
トランスインピーダンスアンプ(TIA、トランスインピーダンスアンプ)電流信号を増幅し、同時に電流信号を電圧に変換します。
ドライバIC(ドライバIC)光変調器に必要な電気信号を提供します。
スイッチ(スイッチ)ルーティング、電気信号の切り替えを処理し、どのトラックから出力するかを割り当てます。

NVIDIA は、コンパクトだがエラーと温度の影響を受けやすく、統合に課題があるマイクロリング モジュレータ (MRM) を選択しました。

Broadcom は、成熟したマッハツェンダ変調器 (MZM) を使用しながら MRM を開発し、3nm プロセス試験を達成し、チップスタッキングによる CPO をリードしています。

フォトニクスの核となるのは変調器である

AI推論の拡大に伴い、焦点は「コンピューティング能力の競争」から「データ伝送速度」へと移っています。効率性とレイテンシの壁を打破する上で、Broadcomのネットワーク/スイッチ重視か、NVIDIAのエンドツーエンドソリューションのどちらが優位に立つかが、AI競争の次のリーダーを決めるでしょう。

上へスクロール