NVIDIA、Blackwell B200 GPU、Quantum-X800 Q3400 InfiniBand スイッチ、ConnectX-8 SuperNIC を発表

5 年後、世界的に有名な AI コンピューティング テクノロジ イベントである年次 NVIDIA GTC カンファレンスは、対面形式に大幅に戻りました。本日、NVIDIA の創設者兼 CEO であるジェンスン ファンは、最新の画期的な AI チップである Blackwell GPU を発表する 2 時間の基調講演を行いました。

開設

このカンファレンス中、NVIDIA はトップの AI 専門家と業界リーダーを一堂に集め、業界に大きな影響力を持っていることを示しました。このイベントには、1 万人を超える参加者が集まり、前例のないほどの参加者が集まりました。 

1 万人を超える参加者

現地時間の 18 月 1 日午後 00 時 (北京では 4 月 00 日午前 19 時) に、GTC の最も期待されている基調講演が開催されます。 off順調に始まりました。 AI をテーマにした短編映画の後、ジェンセン ファンが象徴的な黒のレザー ジャケットを着てメイン ステージに登場し、観客と交流しました。

黄젠セン

同氏はまず、コンピューティングの高速化における NVIDIA の 30 年にわたる歩みを振り返り、革新的な CUDA コンピューティング モデルの開発、初の AI スーパーコンピューター DGX の OpenAI への提供、そして当然のことながら生成 AI への焦点の移行などのマイルストーンを強調しました。

NVIDIA の 30 年にわたる歩み

主要な EDA 企業との重要なパートナーシップを発表した後、同氏はトレーニングの計算能力需要の急増を促進する AI モデルの急速な進化について議論し、より大型の GPU の必要性を強調しました。同氏は「アクセラレーテッド・コンピューティングは臨界点に達し、汎用コンピューティングはその勢いを失った」と述べ、さまざまな業界におけるアクセラレーテッド・コンピューティングの大幅な進歩を強調した。その後、GPU やスーパー チップからスーパーコンピューターやクラスター システムに至るまでの一連の主要コンポーネントが大画面で急速に点滅し、ジェンセン フアン氏が重大な発表を行いました。まったく新しい主力 AI チップである Blackwell GPU が登場しました。

Blackwell GPUが登場

GPU 分野におけるこの最新のイノベーションは、構成とパフォーマンスの両方において、前世代の Hopper GPU を上回っています。 Jensen Huang は Blackwell GPU と Hopper GPU を比較し、Blackwell のサイズが大幅に大きいことを紹介しました。この比較の後、彼はユーモアたっぷりにホッパーを安心させた。「大丈夫だよ、ホッパー。とてもいい子だよ、いい子だよ。いい娘。"ブラックウェルのパフォーマンスは本当に素晴らしいです! FP8 であっても、新しい FP6 および FP4 であっても、精度、対応可能なモデル スケールおよび HBM 帯域幅はすべて、前世代の Hopper を上回っています。

ブラックウェルGPU

Pascal アーキテクチャから Blackwell アーキテクチャに移行するまでの 8 年間で、NVIDIA は AI コンピューティングのパフォーマンスを 1000 倍に向上させました。

NVIDIA は AI コンピューティングのパフォーマンスを 1000 倍に向上させました

Jensen Huang の真の野心は、兆パラメータ レベルの GPU 計算を最適化できる最も強力な AI インフラストラクチャを作成することにあるため、これはほんの始まりにすぎません。全体として、NVIDIA は今年の GTC カンファレンスで 6 つの主要な発表を発表しました。

  1. Blackwell GPU の導入: 以前の FP2.5 と比較して、トレーニング パフォーマンスが 4 倍、FP5 の精度推論パフォーマンスが 8 倍強化されました。相互接続速度が Hopper の速度の 576 倍にアップグレードされた第 XNUMX 世代 NVLink。最大 XNUMX 個の GPU まで拡張可能で、数兆パラメータの混合専門家モデルの通信ボトルネックに対処します。
  2. Blackwell アーキテクチャの導入: 兆パラメータ レベルの GPU 計算用に最適化。最大スループットを備えた新しい X800 シリーズ ネットワーク スイッチを発売 800Gb / s; GB200スーパーチップ、GB200 NVL72システム、DGX B200システム、次世代AIスーパーコンピューターDGX SuperPODを導入しました。
6つの重大発表
  • 数十のエンタープライズ生成 AI マイクロサービスのリリース。GPU を使用してカスタム AI モデルを簡単に展開するためのソフトウェアをパッケージ化して配信する新しい方法を提供します。
  • TSMC と Synopsys による画期的なリソグラフィ計算プラットフォーム cuLitho の発表: cuLitho は、強化された生成 AI アルゴリズムを使用してリソグラフィ計算を 40 ~ 60 倍高速化し、2nm 以降のより高度なプロセスの開発に大幅なサポートを提供します。
  • 人型ロボットのベースモデル「プロジェクトGR00T」と新型人型ロボットコンピュータ「Jetson Thor」を発売。 Isaac ロボット プラットフォームの大幅なアップグレードにより、身体化されたインテリジェンスの進歩が推進されました。ジェンセン フアン氏は、ディズニー リサーチ社の XNUMX 台の小型 NVIDIA ロボットとも対話しました。
  • Apple との協力により、Omniverse プラットフォームを Apple Vision Pro に統合し、産業用デジタル ツイン ソフトウェア ツール用の Omniverse Cloud API を提供します。

新しい AI チップの登場: 20.8 億個のトランジスタ、2.5 倍のトレーニング パフォーマンス、5 倍の推論パフォーマンス

生成 AI の新時代に入り、AI コンピューティング需要の爆発的な増加により、Blackwell GPU が台頭し、前任者の Hopper GPU を超えて AI 競争の焦点となっています。 NVIDIA GPU アーキテクチャの各世代には科学者の名前が付けられており、新しいアーキテクチャである Blackwell は、アフリカ系アメリカ人初の全米科学アカデミー会員であり、著名な統計学者および数学者である David Blackwell に敬意を表しています。ブラックウェルは複雑な問題を単純化することで知られており、「動的計画法」や「更新定理」などの彼の独立した発明は、さまざまな科学および工学分野に幅広く応用されています。

デビッド・ブラックウェル
デビッド・ブラックウェル

Huang 氏は、生成 AI がこの時代を特徴づけるテクノロジーであり、Blackwell がこの新たな産業革命を推進するエンジンであると述べました。 Blackwell GPU は 6 つのコア テクノロジーを誇ります。

生成 AI はテクノロジーを定義するものです
  1. 「世界で最も強力なチップ」と呼ばれる: カスタム TSMC 20.8NP プロセスを使用して 4 億個のトランジスタを統合し、ユニファイド メモリ アーキテクチャ + デュアルコア構成を備えた「チップレット」設計のコンセプトに従い、リソグラフィ テンプレートによって制限された 10 つの GPU ダイを 192TB/s のチップ間 NVHyperfuse インターフェイスを介して接続して形成します。 3GB HBM8e メモリ、20TB/s メモリ帯域幅、および最大 XNUMXPFLOPS のシングルカード AI トレーニング能力を備えた統合 GPU。
世界で最も強力なチップ

前世代の Hopper と比較して、Blackwell の 12.8 つのダイの統合により、Hopper GPU に比べて 100 億個のトランジスタが追加され、サイズが大きくなりました。対照的に、以前の H80 は 3 GB HBM3.35 メモリと 200 TB/秒の帯域幅しか備えていませんでしたが、H141 は 3 GB の HBM4.8e メモリと XNUMX TB/秒の帯域幅を備えていました。

  • 第二世代変圧器エンジン: 新しいマイクロテンソル スケーリング サポートと高度なダイナミック レンジ管理アルゴリズムを TensorRT-LLM および NeMo Megatron フレームワークと組み合わせて、Blackwell に FP4 精度の AI 推論機能を装備し、専門家混合モデルの高精度を維持しながら二重の計算とモデル スケールをサポートします。
第二世代変圧器エンジン

新しい FP4 精度の下では、Blackwell GPU の AI パフォーマンスは Hopper の XNUMX 倍に達します。 NVIDIA は CUDA コアのパフォーマンスを明らかにしていません。アーキテクチャの詳細はまだ明らかにされていません。

Blackwell GPUのAIパフォーマンスはHopperの5倍に達する
  • 第 5 世代 NVLink: 兆パラメータおよび混合エキスパート モデルのパフォーマンスを高速化するために、新しい NVLink 各 GPU に 1.8TB/秒の双方向帯域幅を提供し、複雑で大規模な言語モデルに適した最大 576 個の GPU 間のシームレスな高速通信をサポートします。
第 5 世代 NVLink

単一の NVLink スイッチ チップは、TSMC 50NP プロセスを使用する 4 億個のトランジスタで構成され、1.8 つの NVLink を XNUMXTB/秒で接続します。

単一の NVLink スイッチ チップは 50 億個のトランジスタで構成されています
  • RASエンジン: Blackwell GPU には、信頼性、可用性、保守性を確保する専用エンジンが組み込まれていると同時に、AI ベースの予知メンテナンスを利用して信頼性の問題を診断および予測するチップレベルの機能を組み込んで、システムの稼働時間を最大化し、数週間にわたって継続的に実行される大規模な AI 導入の拡張性を強化します。数ヶ月間も中断することなく稼働できるため、運用コストが削減されます。
  • セキュアAI: 高度な機密コンピューティング機能は、新しいローカル インターフェイス暗号化プロトコルをサポートし、パフォーマンスを損なうことなく AI モデルと顧客データを保護します。
  • 減圧エンジン: 最新の形式をサポートしてデータベース クエリを高速化し、データ分析やデータ サイエンス タスクに最高のパフォーマンスを提供します。 AWS、Dell、Google、Meta、Microsoft、OpenAI、Oracle、Tesla、xAI はすべて Blackwell 製品を採用する予定です。 Tesla と xAI の CEO である Musk 氏は、「現時点で AI の分野において、NVIDIA ハードウェアより優れたものはありません。」と率直に述べました。

過去のリリースでシングルチップのパフォーマンスを重視したのとは著しく異なり、Blackwell シリーズは、GPU コード名の区別が曖昧で、システム全体のパフォーマンスに重点を置いており、ほとんどがまとめて「Blackwell GPU」と呼ばれています。このリリース前の市場の噂によると、B100 の価格は約 30,000 ドル、B200 は約 35,000 ドルになる可能性があります。この価格設定戦略を考慮すると、前世代と比較して価格の上昇は 50% 未満ですが、トレーニングのパフォーマンスは 2.5 倍向上し、費用対効果が大幅に向上しました。このように価格がわずかに上昇しても、トレーニングのパフォーマンスが大幅に向上し、価格が比較的安定している場合。 Blackwell シリーズ GPU の市場競争力は恐るべきものとなるでしょう。

兆パラメータレベルのGPUコンピューティングに最適化された新しいネットワークスイッチとAIスーパーコンピュータの紹介

Blackwell プラットフォームには、基本的な HGX B100 に加えて、NVLink スイッチ、GB200 スーパーチップ コンピューティング ノード、および X800 シリーズ ネットワーク スイッチが含まれています。

ブラックウェルプラットフォーム

このうちX800シリーズは、兆パラメータレベルのAI生成タスクをサポートすることを目的とした、大規模なAI運用に特化した新設計のネットワークスイッチです。 NVIDIA の Quantum-X800 InfiniBand ネットワークと Spectrum-X800 Ethernet は、最大 800Gb/s のスループット能力を備えた世界初のエンドツーエンド プラットフォームの 5 つであり、前世代の製品と比較して交換帯域幅容量が 9 倍増加しています。ネットワークの計算能力は、NVIDIA の第 14.4 世代 SHARP テクノロジによって XNUMX 倍に強化され、XNUMXTFLOPS のネットワーク計算パフォーマンスを実現しました。早期導入企業には、Microsoft Azure、Oracle Cloud Infrastructure、Coreweave などが含まれます。

X800シリーズは新設計のネットワークスイッチです

Spectrum-X800 プラットフォームはマルチテナント向けに特別に設計されており、各テナントの AI ワークロードのパフォーマンスを分離できるため、生成 AI クラウド サービスと大規模企業ユーザーのネットワーク パフォーマンスが最適化されます。エヌビディア offネットワーク アクセラレーション通信ライブラリ、ソフトウェア開発キット、管理ソフトウェアを含む包括的なソフトウェア ソリューションです。 GB200 Grace Blackwell スーパーチップは、数兆パラメータ規模の生成 AI タスク用のプロセッサとして設計されています。このチップは、900 GB/秒の第 2 世代 NVLink-CXNUMXC 相互接続テクノロジを使用して、XNUMX つの Blackwell GPU を XNUMX つの NVIDIA Grace CPU に接続します。ただし、NVIDIA は Blackwell GPU の正確なモデルを指定していません。

このチップは 2 つの Blackwell GPU を 1 つの NVIDIA Grace CPU に接続します。

Huang 氏は GB200 スーパーチップを紹介し、コンパクトなスペースでこのような高い計算密度に対応できる初めてのものであることを強調し、相互接続されたメモリと「幸せな家族」に似た協調的なアプリケーション開発を強調しました。

Huang 氏は GB200 スーパーチップを展示しました

各 GB200 スーパーチップ コンピューティング ノードは、200 つの GB14.4 スーパーチップを収容できます。 XNUMX つの NVLink スイッチ ノードで XNUMX つの NVLink スイッチをサポートでき、合計帯域幅 XNUMXTB/秒を実現します。

各 GB200 スーパーチップ コンピューティング ノードには 200 つの GBXNUMX スーパーチップを収容できます

Blackwell コンピューティング ノードは 80 つの Grace CPU と XNUMX つの Blackwell GPU で構成され、XNUMXPFLOPS の AI パフォーマンスを実現します。

Blackwell コンピューティング ノードは 80 つの Grace CPU と XNUMX つの Blackwell GPU で構成され、XNUMXPFLOPS の AI パフォーマンスを実現します。

Huang 氏は、GPU とネットワーク機能が強化され、マルチノード アーキテクチャ、液冷、ラックレベル システムを備えた新しいコンピューティング ユニット、NVIDIA GB200 NVL72 の発売を発表しました。

NVIDIA GB200 NVL72

GB200 NVL72 は「巨大 GPU」のように機能し、シングルカード GPU と同様に動作しますが、AI トレーニング パフォーマンスは 720PFLOPS に達し、AI 推論パフォーマンスはピークで 1.44EFLOPS に達します。 30TB の高速メモリを誇り、最大 27 兆のパラメータを持つ大規模な言語モデルを処理でき、最新の DGX SuperPOD の主要コンポーネントとして機能します。

GB200 NVL72

GB200 NVL72 は、第 36 世代 NVLink テクノロジーを介して相互接続され、BlueField-200 DPU を含む 72 * GB200 スーパーチップ (36 * B3 GPU と XNUMX * Grace CPU で構成される) で構成できます。

GB200 NVL72 は 36 個の GB200 スーパーチップで構成可能

Jensen Huang 氏は、現在世界中で利用できる EFLOPS レベルのマシンはわずかであると述べました。このマシンは、重さ 600,000 ポンドの 3000 個の部品で構成されており、「単一ラック内の EFLOPS AI システム」を表しています。同氏は、以前に H1.8 で GPT-MoE-100T モデルをトレーニングするには 90 日を要し、約 8000 個の GPU が 15MW の電力を消費する必要があったと共有しました。一方、GB200 NVL72 を使用する場合、必要なのは 2000 個の GPU と 4MW の電力だけです。

GPT-MoE-1.8T

兆パラメータのモデルを実行する場合、GB200 は多次元の最適化を経て、個々の GPU トークンのスループット レートが H30 FP200 精度の最大 8 倍になりました。

H30 FP200 精度の最大 8 倍のレート

大規模な言語モデル推論タスクに関して、GB200 NVL72 は、同数の H30 と比較して 100 倍のパフォーマンス向上を実現し、コストと消費電力は前世代の 1/25 です。

GB200 NVL72 は 30 倍のパフォーマンス向上を実現

AWS、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructure などの主要なクラウド プロバイダーは、GB200 NVL72 へのアクセスをサポートしています。さらに、NVIDIA は、AI モデルのトレーニング、微調整、推論タスク用の統合 AI スーパーコンピューティング プラットフォームである DGX B200 システムを導入しました。 DGX B200 システムは、空冷を備えた伝統的なラックマウント設計を特徴とする DGX シリーズの第 200 世代に相当します。 144 基の B4 GPU と 1.4 基の第 64 世代 Intel Xeon プロセッサーが搭載されており、FP7 精度で 3PFLOPS の AI パフォーマンスを実現するとともに、大規模な XNUMXTB GPU メモリ容量と XNUMXTB/s のメモリ帯域幅により、兆パラメータ モデルのリアルタイム推論速度を最大 XNUMX 倍実現します。前任者よりも高速です。このシステムには、XNUMX つの ConnectX-XNUMX NIC と XNUMX つの BlueField-XNUMX DPU を備えた高度なネットワーキングが組み込まれており、各接続に最大帯域幅を提供します。 400Gb / s Quantum-2 InfiniBand および Spectrum-X イーサネット プラットフォームを通じて AI パフォーマンスの向上を促進します。 NVIDIA はまた、次世代のデータセンター グレードの AI スーパーコンピューターである DGX SuperPOD を導入しました。これは、兆パラメータ モデルを処理できる DGX GB200 システムを利用し、大規模な生成 AI トレーニングと推論ワークロードの継続的な動作を保証します。 200 台以上の DGX GB11.5 システムで構築されたこの新世代 DGX SuperPOD は、FP4 精度で 240EFLOPS の AI 計算能力を実現する効率的な水冷ラックレベル拡張アーキテクチャと、ラック経由でさらに拡張できる 200 TB の高速メモリ ストレージを備えています。レベルの強化。各 DGX GB200 システムには、100 個の GB200 スーパーチップが搭載されています。大規模な言語モデル推論タスクを実行する HXNUMX ユニットと比較して、GBXNUMX スーパーチップは offパフォーマンスが最大 45 倍向上します。

Huang 氏は、データセンターを将来の「AI 工場」として構想し、業界全体が Blackwell の進歩に向けて準備を進めています。

Huang 氏はデータセンターを将来の AI 工場として構想しています

コパイロットのカスタマイズと展開のための数十のエンタープライズレベルの生成 AI マイクロサービスの開始

NVIDIA は、数十のエンタープライズ レベルの生成 AI マイクロサービスを導入することで、CUDA と生成 AI エコシステムに基づいて構築された利点を拡大し続けています。これらのサービスを使用すると、開発者は、NVIDIA CUDA GPU インストール上で生成 AI コパイロットを作成および展開できます。

NVIDIA CUDA GPU のインストール

Huang 氏は、生成 AI がアプリケーションのプログラミング方法を変革し、ソフトウェアの作成から AI モデルの組み立て、タスクの指定、作業成果物の例の提供、計画のレビュー、中間結果の提供へと移行していると述べました。 NVIDIA NIM は、NVIDIA のアクセラレーテッド コンピューティング ライブラリと生成 AI モデルから構築された、NVIDIA の推論マイクロサービスのリファレンスとして機能します。これらのマイクロサービスは業界標準の API をサポートし、NVIDIA の大規模 CUDA インストール上で動作し、新しい GPU 向けに最適化されています。

Huang 氏は、生成 AI がアプリケーションのプログラミング方法を変革しつつあると述べました。

企業はこれらのマイクロサービスを利用して、自社の知的財産に対する完全な所有権と制御を保持しながら、自社のプラットフォーム上でカスタム アプリケーションを作成および展開できます。 NIM マイクロサービス offNVIDIA の推論ソフトウェアでサポートされる事前構築済みの運用 AI コンテナにより、開発者は展開時間を数週間から数分に短縮できます。 NIM マイクロサービスは、NVIDIA、AI21、Adept、Cohere、Getty Images、Shutterstock のモデルに加え、Google、Hugging Face、Meta、Microsoft、Mistral AI、Stability AI のオープン モデルをデプロイできます。

NIM マイクロサービス

ユーザーは、Deepset、LangChain、LlamaIndex などの一般的な AI フレームワークと統合された、Amazon SageMaker、Google Kubernetes Engine、Microsoft Azure AI の NIM マイクロサービスにアクセスできるようになります。 AI アプリケーションを高速化するために、企業は、カスタム音声および翻訳 AI 用の NVIDIA Riva、経路最適化用の NVIDIA cuOpt、高解像度の気候および気象シミュレーション用の NVIDIA Earth-2 などの CUDA-X マイクロサービスを活用できます。カスタム モデル開発用の一連の NVIDIA NeMo マイクロサービスが間もなくリリースされる予定です。

一連の NVIDIA NeMo マイクロサービス

開発者は、ai.nvidia.com で NVIDIA マイクロサービスを自由に試用できます。企業は、NVIDIA の AI Enterprise 5.0 プラットフォームを使用して、本番グレードの NIM マイクロサービスを展開できます。

生成 AI アルゴリズムの進歩: 半導体業界のトッププレーヤーと協力してフォトリソグラフィー コンピューティングに新たな革命を起こす

昨年の GTC カンファレンスで、NVIDIA は、半導体製造業界を対象とした 40 年間の極秘研究の末、画期的な開発を発表しました。革新的なフォトリソグラフィー コンピューティング ライブラリ cuLitho を活用して、フォトリソグラフィーの計算を 60 ~ 2 倍高速化し、XNUMXnm 以上の生産の物理的限界を超えました。先進的なチップ。このプロジェクトの協力者は、世界的な AI チップ大手の NVIDIA、半導体ファウンドリの大手 TSMC、EDA 大手の Synopsys といった半導体業界の主要企業です。

EDA大手シノプシス

コンピューター リソグラフィーはチップ製造の基礎です。現在、cuLitho の高速プロセスを基盤として、生成 AI アルゴリズムによってワークフローの速度がさらに 2 倍になりました。具体的には、ウェーハ製造プロセスの多くの変更には光近接効果補正 (OPC) が必要であり、計算の複雑さが増大し、開発のボトルネックを引き起こしています。 cuLitho のアクセラレーテッド コンピューティングと生成 AI は、これらの問題を軽減できます。生成 AI を適用すると、従来の物理的に厳密な方法で最終マスクを導出する前に、光回折問題に対処するほぼ完璧なマスク ソリューションやアプローチを作成できるため、OPC プロセス全体が 350 倍高速化されます。チップ製造プロセスにおいて、コンピューター リソグラフィーは、CPU に年間数十億時間を費​​やす最も集中的なワークロードです。 CPU ベースの方法と比較して、cuLitho の GPU 高速化フォトリソグラフィー計算は、チップ製造プロセスを大幅に強化します。計算を高速化することで、100 台の NVIDIA H40,000 システムが 45 台の CPU システムを置き換えることができ、スループット レートが大幅に向上し、コスト、スペース要件、消費電力を削減しながら生産速度を向上させることができます。 「私たちは TSMC に NVIDIA cuLitho を導入しています」と TSMC 社長の Wei Zhejia 氏は述べ、GPU アクセラレーション コンピューティングを TSMC のワークフローに統合することで達成された大幅なパフォーマンスの飛躍を強調しました。 60 社間の共有ワークフローで cuLitho をテストしたところ、カーブ プロセスでは XNUMX 倍の高速化が達成され、従来のマンハッタン プロセスでは XNUMX 倍近くの改善が達成されました。

新しいヒューマノイドロボットベースモデルとコンピュータの紹介: Isaac Robot Platform メジャーアップデート

NVIDIA は、生成 AI に加えて、身体化されたインテリジェンスにも前向きであり、ヒューマノイド ロボットのユニバーサル ベース モデル プロジェクト GR00T と、Thor SoC をベースにした新しいヒューマノイド ロボット コンピュータ Jetson Thor を発表しました。ジェンセン・フアン氏は、「汎用人型ロボットの基本モデルの開発は、今日の AI 分野で最もエキサイティングなトピックの 00 つです。」と述べています。 GRXNUMXT を搭載したロボットは、人間の行動を観察することで自然言語を理解し、迅速な学習調整、柔軟性、その他のスキルを模倣して現実世界に適応し対話することができます。 Huang Renxun 氏は、このようなロボットが複数でさまざまなタスクを完了する方法を実証しました。

人型ロボット汎用ベースモデル プロジェクトGR00T

Jetson Thor は、パフォーマンス、消費電力、サイズが最適化されたモジュラー アーキテクチャを備えています。この SoC には、GR00T のようなマルチモーダル生成 AI モデルを実行するための Transformer エンジンを備えた次世代 Blackwell GPU が含まれています。 NVIDIA は、1X、Agility Robotics、Apptronik、Boston Dynamics、Figure AI、Fourier Intelligence、Sanctuary AI、Unitree Robotics、XPENG Robotics などの大手ヒューマノイド ロボット企業向けに包括的な AI プラットフォームを開発しています。

さらに、NVIDIA は、生成 AI ベース モデル、シミュレーション ツール、AI ワークフロー インフラストラクチャを含む Isaac ロボット プラットフォームに大幅なアップグレードを行いました。これらの新機能は次の四半期に展開される予定です。 NVIDIA はまた、一連のベース モデルや Isaac Perceptor などの GPU アクセラレーション ライブラリとともに、柔軟性とモジュラー AI 機能を備えたロボット アーム用の Isaac Manipulator など、事前トレーニングされたロボット モデル、ライブラリ、リファレンス ハードウェアの範囲をリリースしました。 offマルチカメラセットアップ、3D再構成、奥行き認識などの高度な機能を備えています。

Omniverse プラットフォームの最新開発: Apple Vision Pro への進出、クラ​​ウド API の導入

NVIDIA は、Omniverse プラットフォームと Apple Vision Pro の統合を発表しました。

NVIDIA は、Omniverse プラットフォームと Apple Vision Pro の統合を発表しました。

産業用デジタル ツイン アプリケーションをターゲットとする NVIDIA は、 offAPI 形式の Omniverse Cloud。開発者は、この API を利用して、インタラクティブな産業用デジタル ツイン コンテンツを VR ヘッドセットにストリーミングできます。

NVIDIA は、 offAPI 形式のオムニバース クラウド

API を活用することで、開発者は Omniverse のコア テクノロジーを既存のデジタル ツイン設計および自動化ソフトウェア アプリケーションに直接統合したり、ロボットや自動運転車などの自律型マシンをテストおよび検証するためのシミュレーション ワークフローに簡単に統合したりできます。ジェンスン・フアン氏は、すべての製造製品にはデジタル ツインが搭載され、オムニバースは物理的に現実的なデジタル ツインを構築および操作できるオペレーティング システムであると考えています。彼は、「オムニバースと生成 AI はどちらも、最大 50 兆ドル相当の重工業市場をデジタル化するために必要な基礎テクノロジーである」と信じています。

オムニバースと生成 AI はどちらも基盤テクノロジーです

5 つの新しい Omniverse Cloud API は、個別に使用することも、組み合わせて使用​​することもできます: USD レンダー (OpenUSD データの完全にレイトレースされた RTX レンダリングを生成)、USD ライト (ユーザーが OpenUSD データを変更および操作できるようにします)、USD クエリ (シーン クエリをサポートし、インタラクティブ シーン)、USD Notify (USD の変更を追跡し、更新情報を提供)、オムニバース チャネル (シーンを超えたコラボレーションのためにユーザー、ツール、世界を接続)。

5 つの新しい Omniverse Cloud API は個別に使用することも、組み合わせて使用​​することもできます

Omniverse Cloud API は、NVIDIA A10 GPU 上のセルフホスト API、または NVIDIA OVX にデプロイされたホスト サービスとして、今年後半に Microsoft Azure で利用可能になる予定です。

結論: メインイベントは終了しますが、ショーは続けなければなりません

上記の重要な発表に加えて、Huang 氏は講演の中でさらなる展開についても共有しました。NVIDIA は、電気通信分野における無線通信技術の開発を促進するために、生成 AI とオムニバースを活用した 6G 研究クラウド プラットフォームを立ち上げました。 NVIDIA の Earth-2 気候デジタル ツイン クラウド プラットフォームは、気候と天気の予測を加速するインタラクティブな高解像度シミュレーションに利用できるようになりました。彼は、AI の最大の影響はヘルスケアにあると信じています。 NVIDIA は、新しいタイプの生物学的ソフトウェアを導入しながら、イメージング システム会社、遺伝子シーケンサー メーカー、大手手術ロボット会社とすでに協力しています。

彼は、AI の最大の影響はヘルスケアにあると信じています。

自動車業界では、世界最大の自動運転会社 BYD が、将来の電気自動車に、Blackwell アーキテクチャに基づく NVIDIA の次世代自動運転車 (AV) プロセッサ DRIVE Thor を搭載する予定です。 DRIVE Thor は早ければ来年にも量産が開始され、その性能は最大 1000 TFLOPS に達すると予想されています。

DRIVE Thor 量産開始予定

Huang 氏は、「NVIDIA の本質は、コンピューター グラフィックス、物理学、人工知能の交差点にあります。」と述べました。講演の締めくくりとして、同氏は、New Industry、Blackwell Platform、NIM、NEMO、NVIDIA AI Foundry、Omniverse、Isaac Robotics の 5 つの重要なポイントについて概説しました。

NVIDIA の本質は、コンピューター グラフィックス、物理学、人工知能の交差点にあります。

今日は、NVIDIA が AI、大規模モデル、メタバース、ロボット、自動運転、ヘルスケア、量子コンピューティングなどの最先端テクノロジーを中心にお祭り騒ぎを繰り広げながら、AI ハードウェアとソフトウェアの限界を押し上げる新たなマイルストーンを迎えます。

ジェンスン・ファンの基調講演は間違いなく GTC カンファレンスのハイライトでしたが、興奮はただ興奮していました off オンサイト参加者とリモート参加者の両方に!

NVIDIA の最新の進歩とフロンティア テクノロジにおける注目のトピックをカバーする 1000 を超えるセッションが、講演、トレーニング セッション、ラウンドテーブル ディスカッションを通じて展開されます。多くの出席者は、時間の制約によりすべてのセッションに参加できないことに不満を表明しましたが、GTC 2024 が AI 業界の技術交流に提供するプラットフォームであることを認めました。この期間中の新製品のリリースと技術の共有は、学術研究や関連産業チェーンにプラスの影響を与えることが期待されます。新しい Blackwell アーキテクチャの技術的な詳細については、さらに詳しく調査する必要があります。

コメント

上へスクロール