NVIDIA dévoile le GPU Blackwell B200, le commutateur InfiniBand Quantum-X800 Q3400 et ConnectX-8 SuperNIC

Cinq ans plus tard, l'événement de renommée mondiale sur la technologie informatique de l'IA, la conférence annuelle NVIDIA GTC, a fait un retour significatif au format en personne. Aujourd'hui, le fondateur et PDG de NVIDIA, Jensen Huang, a prononcé un discours d'ouverture de deux heures dévoilant la dernière puce d'IA révolutionnaire : le GPU Blackwell.

ouverture

Au cours de cette conférence, NVIDIA a démontré son influence impressionnante sur le secteur en réunissant les meilleurs experts en IA et leaders du secteur. L'événement a connu une participation sans précédent avec plus de dix mille participants en personne. 

plus de dix mille participants en personne

Le 18 mars à 1h00 heure locale (4h00 le 19 mars à Pékin), le discours d'ouverture le plus attendu de GTC officiellement commencé. Après un court métrage sur le thème de l'IA, Jensen Huang a fait son entrée sur la scène principale vêtu de son emblématique veste en cuir noir, interagissant avec le public.

Jensen Huang

Il a commencé par réfléchir aux 30 années de parcours de NVIDIA dans l'accélération de l'informatique, en soulignant des étapes importantes telles que le développement du modèle informatique révolutionnaire CUDA, la livraison du premier supercalculateur d'IA DGX à OpenAI, puis en se concentrant naturellement sur l'IA générative.

Le parcours de NVIDIA depuis 30 ans

Après avoir annoncé d'importants partenariats avec de grandes sociétés d'EDA, il a évoqué l'évolution rapide des modèles d'IA qui entraîne une augmentation de la demande de puissance de calcul pour la formation, soulignant la nécessité de GPU plus grands. Il a déclaré que « l’informatique accélérée a atteint un point critique et que l’informatique à usage général a perdu son élan », soulignant les progrès significatifs en matière d’informatique accélérée dans divers secteurs. Par la suite, une série de composants clés, depuis les GPU et superpuces jusqu'aux superordinateurs et systèmes de cluster, ont flashé rapidement sur grand écran avant que Jensen Huang ne fasse l'annonce majeure : la toute nouvelle puce IA phare – le GPU Blackwell est arrivée !

Le GPU Blackwell est arrivé

Cette dernière innovation dans le domaine des GPU surpasse son prédécesseur Hopper GPU en termes de configuration et de performances. Jensen Huang a comparé les GPU Blackwell et Hopper, mettant en valeur la taille nettement plus grande de Blackwell. Suite à cette comparaison, il a rassuré Hopper avec humour en disant : « C'est bon, Hopper. Tu es très bon, bon garçon. Bonne fille." La performance de Blackwell est effectivement exceptionnelle ! Qu'il s'agisse du FP8 ou des nouvelles précisions FP6 et FP4, ainsi que de l'échelle du modèle et de la bande passante HBM qui peuvent s'y adapter, le tout surpassant la génération Hopper précédente.

GPU Blackwell

En 8 ans, de l'architecture Pascal à l'architecture Blackwell, NVIDIA a multiplié par 1000 XNUMX les performances informatiques de l'IA !

NVIDIA a multiplié par 1000 XNUMX les performances de calcul de l’IA

Ce n'est qu'un début, car la véritable ambition de Jensen Huang réside dans la création de l'infrastructure d'IA la plus puissante, capable d'optimiser les calculs GPU au niveau de plusieurs milliards de paramètres. Dans l'ensemble, NVIDIA a dévoilé six annonces majeures lors de la conférence GTC de cette année :

  1. Introduction du GPU Blackwell : performances d'entraînement augmentées de 2.5 fois, performances d'inférence de précision FP4 améliorées de 5 fois par rapport au FP8 précédent ; NVLink de cinquième génération amélioré avec une vitesse d'interconnexion deux fois supérieure à celle de Hopper ; évolutif jusqu'à 576 GPU pour résoudre les goulots d'étranglement de communication dans les modèles experts mixtes comportant des milliards de paramètres.
  2. Introduction de l'architecture Blackwell : optimisée pour les calculs GPU au niveau de plusieurs milliards de paramètres ; a lancé de nouveaux commutateurs réseau de la série X800 avec un débit allant jusqu'à 800Gb / s; a introduit la super puce GB200, le système GB200 NVL72, le système DGX B200 et le supercalculateur DGX SuperPOD AI de nouvelle génération.
six annonces majeures
  • Lancement de dizaines de microservices d'IA génératifs d'entreprise offrant une nouvelle façon de conditionner et de fournir des logiciels pour un déploiement facile de modèles d'IA personnalisés à l'aide de GPU.
  • Annonce de la plateforme révolutionnaire de calcul de lithographie cuLitho par TSMC et Synopsys : cuLitho accélère le calcul de lithographie de 40 à 60 fois en utilisant des algorithmes d'IA génératifs améliorés pour fournir un support significatif au développement de processus en 2 nm et plus avancés.
  • Lancement du modèle de base de robot humanoïde Project GR00T et du nouvel ordinateur robot humanoïde Jetson Thor ; des améliorations significatives de la plate-forme robotique Isaac entraînant des progrès en matière d'intelligence incarnée. Jensen Huang a également interagi avec une paire de petits robots NVIDIA de Disney Research.
  • Collaboration avec Apple pour intégrer la plateforme Omniverse dans Apple Vision Pro et fournir l'API Omniverse Cloud pour les outils logiciels de jumeaux numériques industriels.

Une nouvelle puce IA émerge : 20.8 milliards de transistors, performances d'entraînement 2.5x, performances d'inférence 5x

A l’aube d’une nouvelle ère d’IA générative, la croissance explosive des demandes informatiques en matière d’IA a conduit à l’émergence du GPU Blackwell, dépassant son prédécesseur Hopper GPU en tant que point central de la concurrence en matière d’IA. Chaque génération d'architecture GPU NVIDIA porte le nom d'un scientifique, et la nouvelle architecture, Blackwell, rend hommage à David Blackwell, premier membre afro-américain de l'Académie nationale des sciences et éminent statisticien et mathématicien. Blackwell était connu pour simplifier des problèmes complexes et ses inventions indépendantes telles que la « programmation dynamique » et le « théorème du renouvellement » ont eu de nombreuses applications dans divers domaines scientifiques et techniques.

David Blackwell
David Blackwell

Huang a déclaré que l’IA générative est la technologie déterminante de cette époque, Blackwell étant le moteur de cette nouvelle révolution industrielle. Le GPU Blackwell dispose de six technologies principales :

l'IA générative est la technologie déterminante
  1. Surnommée « la puce la plus puissante au monde »: intègre 20.8 milliards de transistors à l'aide d'un processus TSMC 4NP personnalisé, suivant le concept de conception « chiplet » avec une architecture de mémoire unifiée + configuration dual-core, connectant deux puces GPU limitées par des modèles de lithographie via une interface NVHyperfuse inter-puces de 10 To/s pour former un GPU unifié avec 192 Go de mémoire HBM3e, une bande passante mémoire de 8 To/s et une puissance d'entraînement IA sur carte unique jusqu'à 20 PFLOPS.
La puce la plus puissante au monde

Par rapport à la génération Hopper précédente, l'intégration de deux puces par Blackwell se traduit par une taille plus grande avec 12.8 milliards de transistors supplémentaires par rapport au GPU Hopper. En revanche, le précédent H100 ne disposait que de 80 Go de mémoire HBM3 et de 3.35 To/s de bande passante, tandis que le H200 disposait de 141 Go de mémoire HBM3e et de 4.8 To/s de bande passante.

  • Moteur de transformateur de deuxième génération: combinant une nouvelle prise en charge de la mise à l'échelle des micro-tenseurs et des algorithmes avancés de gestion de la plage dynamique avec les frameworks TensorRT-LLM et NeMo Megatron pour équiper Blackwell de capacités d'inférence d'IA avec une précision FP4, prenant en charge le double calcul et l'échelle du modèle tout en conservant une haute précision pour les modèles experts mixtes.
Moteur de transformateur de deuxième génération

Avec la nouvelle précision FP4, les performances d'IA du GPU Blackwell atteignent cinq fois celles de Hopper. NVIDIA n'a pas divulgué les performances de ses cœurs CUDA ; plus de détails sur l'architecture doivent encore être révélés.

Les performances IA du GPU Blackwell atteignent cinq fois celles de Hopper
  • NVLink de cinquième génération: Pour accélérer les performances des modèles à mille milliards de paramètres et à experts mixtes, le nouveau NVLink fournit à chaque GPU une bande passante bidirectionnelle de 1.8 To/s, prenant en charge une communication transparente à haut débit entre jusqu'à 576 GPU adaptés aux grands modèles de langage complexes.
NVLink de cinquième génération

Une seule puce NVLink Switch comprend 50 milliards de transistors utilisant le processus TSMC 4NP, connectant quatre NVLinks à 1.8 To/s.

Une seule puce NVLink Switch comprend 50 milliards de transistors
  • Moteur RAS: Le GPU Blackwell comprend un moteur dédié garantissant la fiabilité, la disponibilité et la maintenabilité tout en incorporant des fonctionnalités au niveau de la puce utilisant une maintenance prédictive basée sur l'IA pour diagnostiquer et prédire les problèmes de fiabilité afin de maximiser la disponibilité du système, d'améliorer l'évolutivité pour les déploiements d'IA à grande échelle fonctionnant en continu pendant des semaines ou même des mois sans interruption, réduisant ainsi les coûts opérationnels.
  • IA sécurisée: Les capacités informatiques confidentielles avancées protègent les modèles d'IA et les données des clients sans compromettre les performances en prenant en charge les nouveaux protocoles de chiffrement d'interface locale.
  • Moteur de décompression: Prise en charge des derniers formats pour accélérer les requêtes de base de données, offrant des performances optimales pour les tâches d'analyse et de science des données. AWS, Dell, Google, Meta, Microsoft, OpenAI, Oracle, Tesla et xAI sont tous prêts à adopter les produits Blackwell. Musk, PDG de Tesla et de xAI, a déclaré sans ambages : « Actuellement, dans le domaine de l'IA, il n'y a rien de mieux que le matériel NVIDIA. »

Notamment différente de l'accent mis sur les performances d'une seule puce dans les versions précédentes, la série Blackwell se concentre davantage sur les performances globales du système avec une distinction floue dans les noms de code des GPU, la plupart étant collectivement appelés « GPU Blackwell ». Selon les rumeurs du marché avant cette publication, le B100 pourrait coûter environ 30,000 200 $, tandis que le B35,000 pourrait coûter environ 50 2.5 $ ; compte tenu de cette stratégie de tarification où les prix ont augmenté de moins de XNUMX % par rapport aux générations précédentes, mais les performances de formation se sont améliorées de XNUMX fois, ce qui indique une rentabilité nettement plus élevée. Si les prix restent relativement stables avec des augmentations de prix aussi modestes mais des améliorations substantielles des performances de la formation ; la compétitivité sur le marché des GPU de la série Blackwell sera formidable.

Introduction de nouveaux commutateurs réseau et de supercalculateurs IA optimisés pour le calcul GPU au niveau de milliards de paramètres

La plate-forme Blackwell, en plus du HGX B100 de base, comprend le commutateur NVLink, les nœuds de calcul de la superpuce GB200 et les commutateurs réseau de la série X800.

La plateforme Blackwell

Parmi ceux-ci, la série X800 est un nouveau commutateur réseau conçu pour les opérations d'IA à grande échelle, visant à prendre en charge des tâches d'IA génératives de plusieurs milliards de paramètres. Le réseau Quantum-X800 InfiniBand et Spectrum-X800 Ethernet de NVIDIA comptent parmi les premières plates-formes de bout en bout au monde avec des capacités de débit allant jusqu'à 800 Gb/s, offrant une capacité de bande passante d'échange 5 fois supérieure à celle des produits de la génération précédente. La puissance de calcul du réseau a été multipliée par 9 grâce à la technologie SHARP de quatrième génération de NVIDIA, ce qui donne lieu à des performances de calcul réseau de 14.4 TFLOPS. Les premiers utilisateurs incluent Microsoft Azure, Oracle Cloud Infrastructure et Coreweave, entre autres.

la série X800 est un commutateur réseau de conception nouvelle

La plate-forme Spectrum-X800 est spécialement conçue pour le multi-tenant, permettant une isolation des performances pour les charges de travail d'IA de chaque locataire, optimisant ainsi les performances du réseau pour les services cloud d'IA génératifs et les utilisateurs des grandes entreprises. Nvidia offpropose une solution logicielle complète comprenant des bibliothèques de communication d'accélération réseau, des kits de développement logiciel et un logiciel de gestion. La superpuce GB200 Grace Blackwell est conçue comme un processeur pour des tâches d'IA générative à l'échelle de plusieurs milliards de paramètres. Cette puce connecte deux GPU Blackwell à un processeur NVIDIA Grace à l'aide de la technologie d'interconnexion NVLink-C900C de cinquième génération à 2 Go/s. Cependant, NVIDIA n'a pas précisé le modèle exact du GPU Blackwell.

Cette puce connecte deux GPU Blackwell à un processeur NVIDIA Grace

Huang a présenté la superpuce GB200, la soulignant comme la première du genre à accueillir une densité de calcul aussi élevée dans un espace compact, mettant l'accent sur sa mémoire interconnectée et son développement d'applications collaboratives semblable à une « famille heureuse ».

Huang a présenté la superpuce GB200

Chaque nœud de calcul de superpuce GB200 peut héberger deux superpuces GB200. Un seul nœud de commutateur NVLink peut prendre en charge deux commutateurs NVLink, atteignant une bande passante totale de 14.4 To/s.

Chaque nœud de calcul de superpuce GB200 peut héberger deux superpuces GB200

Un nœud de calcul Blackwell comprend deux processeurs Grace et quatre GPU Blackwell, offrant des performances d'IA de 80 PFLOPS.

Un nœud de calcul Blackwell comprend deux processeurs Grace et quatre GPU Blackwell, offrant des performances d'IA de 80 PFLOPS.

Avec des capacités GPU et réseau améliorées, Huang a annoncé le lancement d'une nouvelle unité informatique – la NVIDIA GB200 NVL72 – dotée d'une architecture multi-nœuds, d'un refroidissement liquide et de systèmes au niveau rack.

le NVIDIA GB200 NVL72

Le GB200 NVL72 fonctionne comme un « GPU géant », fonctionnant de la même manière qu'un GPU à carte unique, mais avec des performances d'entraînement IA atteignant 720 PFLOPS et des performances d'inférence IA culminant à 1.44 EFLOPS. Il dispose de 30 To de mémoire rapide et peut gérer de grands modèles de langage avec jusqu'à 27 XNUMX milliards de paramètres, constituant un élément clé du dernier DGX SuperPOD.

Le GB200 NVL72

Le GB200 NVL72 peut être configuré avec 36 * superpuces GB200 (comprenant 72 * GPU B200 et 36 * CPU Grace), interconnectées via la technologie NVLink de cinquième génération et incluant le DPU BlueField-3.

Le GB200 NVL72 peut être configuré avec 36 superpuces GB200

Jensen Huang a noté que dans le monde, seules quelques machines de niveau EFLOPS sont actuellement disponibles ; cette machine se compose de 600,000 3000 pièces pesant 1.8 100 livres et représente un « système EFLOPS AI dans un seul rack ». Il a expliqué que la formation précédente des modèles GPT-MoE-90T avec H8000 nécessitait 15 jours et environ 200 72 GPU consommant 2000 MW d'énergie ; alors que l'utilisation actuelle du GB4 NVLXNUMX ne nécessite que XNUMX XNUMX GPU et XNUMX MW de puissance.

GPT-MoE-1.8T

Pour les exécutions de modèles comportant des milliards de paramètres, le GB200 a subi des optimisations multidimensionnelles, ce qui a permis d'obtenir des débits de jetons individuels GPU jusqu'à 30 fois supérieurs à ceux de la précision du H200 FP8.

taux jusqu'à 30 fois supérieurs à ceux de la précision du H200 FP8

En termes de tâches d'inférence de modèles de langage volumineux, le GB200 NVL72 offre des performances 30 fois supérieures par rapport au même nombre de H100, à 1/25 du coût et de la consommation d'énergie de son prédécesseur.

Le GB200 NVL72 offre des performances multipliées par 30

Les principaux fournisseurs de cloud tels qu'AWS, Google Cloud, Microsoft Azure et Oracle Cloud Infrastructure, entre autres, prennent en charge l'accès au GB200 NVL72. De plus, NVIDIA a présenté le système DGX B200, une plate-forme de supercalcul IA unifiée pour les tâches de formation, de réglage et d'inférence de modèles d'IA. Le système DGX B200 représente la sixième génération de la série DGX, doté d'une conception traditionnelle montée en rack avec refroidissement par air ; il comprend huit GPU B200 et deux processeurs Intel Xeon de cinquième génération offrant des performances d'IA de 144 PFLOPS avec une précision FP4, ainsi qu'une énorme capacité de mémoire GPU de 1.4 To et une bande passante mémoire de 64 To/s permettant des vitesses d'inférence en temps réel pour des modèles comportant des milliards de paramètres jusqu'à quinze fois. plus rapide que son prédécesseur. Le système intègre une mise en réseau avancée avec huit cartes réseau ConnectX-7 et deux DPU BlueField-3 fournissant à chaque connexion une bande passante allant jusqu'à 400Gb / s facilitant des performances d’IA plus élevées grâce aux plates-formes Ethernet Quantum-2 InfiniBand et Spectrum-X. NVIDIA a également présenté le supercalculateur d'IA de nouvelle génération pour centres de données – DGX SuperPOD, utilisant des systèmes DGX GB200 capables de gérer des modèles comportant des milliers de milliards de paramètres, garantissant un fonctionnement continu pour les charges de travail d'entraînement et d'inférence d'IA générative à grande échelle. Construit à partir de huit systèmes DGX GB200 ou plus, ce DGX SuperPOD de nouvelle génération est doté d'une architecture d'extension efficace au niveau du rack refroidi par liquide offrant une puissance de calcul IA de 11.5 EFLOPS avec une précision FP4 ainsi qu'un stockage de mémoire rapide de 240 To qui peut être encore étendu via un rack. améliorations de niveau. Chaque système DGX GB200 héberge trente-six superpuces GB200. Comparée aux unités H100 exécutant de grandes tâches d'inférence de modèles de langage, la superpuce GB200 offers jusqu'à une multiplication par 45 des performances.

Huang considère les centres de données comme de futures « usines d’IA », l’ensemble du secteur se préparant aux avancées de Blackwell.

Huang considère les centres de données comme de futures usines d'IA

Lancement de dizaines de microservices d'IA générative au niveau de l'entreprise pour la personnalisation et le déploiement de copilotes

NVIDIA continue d'étendre ses avantages basés sur CUDA et l'écosystème d'IA générative en introduisant des dizaines de microservices d'IA générative au niveau de l'entreprise. Ces services permettent aux développeurs de créer et de déployer des copilotes IA génératifs sur les installations GPU NVIDIA CUDA.

Installations de GPU NVIDIA CUDA

Huang a déclaré que l'IA générative transforme la façon dont les applications sont programmées, passant de l'écriture de logiciels à l'assemblage de modèles d'IA, en spécifiant les tâches, en fournissant des exemples de produits de travail, en examinant les plans et les résultats intermédiaires. NVIDIA NIM sert de référence pour les microservices d'inférence de NVIDIA, construits à partir des bibliothèques de calcul accéléré et des modèles d'IA génératifs de NVIDIA. Ces microservices prennent en charge les API standard de l'industrie, fonctionnent sur les installations CUDA à grande échelle de NVIDIA et sont optimisés pour les nouveaux GPU.

Huang a déclaré que l'IA générative transforme la façon dont les applications sont programmées

Les entreprises peuvent utiliser ces microservices pour créer et déployer des applications personnalisées sur leurs plateformes tout en conservant la propriété et le contrôle complets de leur propriété intellectuelle. Microservices NIM offCe sont des conteneurs d'IA de production prédéfinis pris en charge par le logiciel d'inférence de NVIDIA, permettant aux développeurs de réduire les temps de déploiement de quelques semaines à quelques minutes. Les microservices NIM peuvent déployer des modèles de NVIDIA, AI21, Adept, Cohere, Getty Images et Shutterstock, ainsi que des modèles ouverts de Google, Hugging Face, Meta, Microsoft, Mistral AI et Stability AI.

Microservices NIM

Les utilisateurs auront accès aux microservices NIM d'Amazon SageMaker, Google Kubernetes Engine et Microsoft Azure AI, intégrés aux frameworks d'IA populaires tels que Deepset, LangChain et LlamaIndex. Pour accélérer les applications d'IA, les entreprises peuvent tirer parti des microservices CUDA-X, notamment NVIDIA Riva pour une IA vocale et de traduction personnalisée, NVIDIA cuOpt pour l'optimisation des chemins, NVIDIA Earth-2 pour des simulations climatiques et météorologiques haute résolution. Une série de microservices NVIDIA NeMo pour le développement de modèles personnalisés devrait être publiée prochainement.

Une série de microservices NVIDIA NeMo

Les développeurs peuvent tester librement les microservices NVIDIA sur ai.nvidia.com. Les entreprises peuvent déployer des microservices NIM de niveau production à l'aide de la plateforme AI Enterprise 5.0 de NVIDIA.

Faire progresser les algorithmes d'IA générative : collaborer avec les meilleurs acteurs de l'industrie des semi-conducteurs pour déclencher une nouvelle révolution dans le calcul de la photolithographie

Lors de la conférence GTC de l'année dernière, NVIDIA a dévoilé un développement révolutionnaire après quatre années de recherche secrète destinée à l'industrie de la fabrication de semi-conducteurs : tirer parti de la bibliothèque informatique révolutionnaire de photolithographie cuLitho pour accélérer les calculs de photolithographie de 40 à 60 fois, dépassant les limites physiques de production de 2 nm et plus. puces avancées. Les collaborateurs de ce projet sont des acteurs clés de l'industrie des semi-conducteurs : le géant mondial des puces d'IA NVIDIA, la principale fonderie de semi-conducteurs TSMC et le géant de l'EDA Synopsys.

Synopsys, le géant de l'EDA

La lithographie computationnelle est fondamentale pour la fabrication de puces. Aujourd'hui, en s'appuyant sur les processus accélérés de cuLitho, la vitesse du flux de travail a encore été doublée grâce aux algorithmes d'IA générative. Plus précisément, de nombreux changements dans les processus de fabrication des plaquettes nécessitent une correction de proximité optique (OPC), ce qui augmente la complexité des calculs et provoque des goulots d'étranglement en matière de développement. Le calcul accéléré et l'IA générative de cuLitho peuvent atténuer ces problèmes. L'application de l'IA générative peut créer des solutions ou des approches de masque presque parfaites pour résoudre les problèmes de diffraction de la lumière avant de dériver le masque final grâce à des méthodes traditionnelles physiquement rigoureuses, accélérant ainsi de 2 fois l'ensemble du processus OPC. Dans les processus de fabrication de puces, la lithographie informatique constitue la charge de travail la plus intensive, consommant des milliards d'heures par an sur les processeurs. Par rapport aux méthodes basées sur le processeur, le calcul de photolithographie accéléré par GPU de cuLitho améliore considérablement les processus de fabrication des puces. En accélérant les calculs, 350 systèmes NVIDIA H100 peuvent remplacer 40,000 45 systèmes CPU, augmentant considérablement les débits et accélérant la production tout en réduisant les coûts, les besoins en espace et la consommation d'énergie. « Nous déployons NVIDIA cuLitho chez TSMC », a déclaré le président de TSMC, Wei Zhejia, soulignant l'augmentation significative des performances obtenue grâce à l'intégration du calcul accéléré par GPU dans le flux de travail de TSMC. Lors du test de cuLitho sur des flux de travail partagés entre les deux sociétés, ils ont obtenu une accélération de 60 fois dans les processus courbes et une amélioration de près de XNUMX fois dans les processus traditionnels de Manhattan.

Introduction du nouveau modèle de base de robot humanoïde et de l'ordinateur : mise à jour majeure de la plate-forme robotique Isaac

En plus de l'IA générative, NVIDIA est également optimiste quant à l'intelligence incarnée et a dévoilé le modèle de base universel du robot humanoïde Project GR00T et le nouvel ordinateur robot humanoïde Jetson Thor basé sur le SoC Thor. Jensen Huang a déclaré : « Le développement d'un modèle de base de robot humanoïde universel est aujourd'hui l'un des sujets les plus passionnants dans le domaine de l'IA. » Les robots alimentés par GR00T peuvent comprendre le langage naturel, imiter la coordination, la flexibilité et d'autres compétences d'apprentissage rapide en observant le comportement humain pour s'adapter et interagir avec le monde réel. Huang Renxun a démontré comment plusieurs de ces robots peuvent accomplir diverses tâches.

Modèle de base universel de robot humanoïde Projet GR00T

Jetson Thor présente une architecture modulaire optimisée pour les performances, la consommation d'énergie et la taille. Ce SoC comprend un GPU Blackwell de nouvelle génération avec un moteur Transformer pour exécuter des modèles d'IA génératifs multimodaux comme GR00T. NVIDIA développe une plate-forme d'IA complète pour les principales sociétés de robots humanoïdes telles que 1X, Agility Robotics, Apptronik, Boston Dynamics, Figure AI, Fourier Intelligence, Sanctuary AI, Unitree Robotics et XPENG Robotics.

De plus, NVIDIA a apporté des améliorations significatives à la plate-forme robotique Isaac, notamment des modèles de base d'IA générative, des outils de simulation et une infrastructure de flux de travail d'IA. Ces nouvelles fonctionnalités seront déployées au prochain trimestre. NVIDIA a également publié une gamme de modèles de robots pré-entraînés, de bibliothèques et de matériel de référence tels que Isaac Manipulator pour les bras robotiques dotés de flexibilité et de capacités d'IA modulaires, ainsi qu'une série de modèles de base et de bibliothèques accélérées par GPU comme Isaac Perceptor. offproposant des fonctionnalités avancées telles que les configurations multi-caméras, la reconstruction 3D et la perception de la profondeur.

Dernier développement d'Omnverse Platform : évolution vers Apple Vision Pro et introduction de l'API Cloud

NVIDIA a annoncé l'intégration de la plateforme Omniverse avec Apple Vision Pro.

NVIDIA a annoncé l'intégration de la plateforme Omniverse avec Apple Vision Pro.

Ciblant les applications industrielles de jumeaux numériques, NVIDIA va offIl s'agit d'Omnverse Cloud sous la forme d'une API. Les développeurs peuvent utiliser cette API pour diffuser du contenu interactif de jumeau numérique industriel sur des casques VR.

NVIDIA va offheu Omniverse Cloud sous la forme d’une API

En tirant parti de l'API, les développeurs peuvent facilement intégrer la technologie de base d'Omniverse directement dans les applications logicielles existantes de conception et d'automatisation de jumeaux numériques ou dans les flux de travail de simulation pour tester et valider des machines autonomes telles que des robots ou des voitures autonomes. Jensen Huang estime que tous les produits fabriqués auront des jumeaux numériques et qu'Omnverse est un système d'exploitation capable de construire et d'exploiter des jumeaux numériques physiquement réalistes. Il estime que « l’IA omniverse et générative sont deux technologies fondamentales nécessaires pour numériser un marché industriel lourd d’une valeur pouvant atteindre 50 XNUMX milliards de dollars ».

L’IA omniverse et générative sont toutes deux des technologies fondamentales

Les cinq nouvelles API Omniverse Cloud peuvent être utilisées individuellement ou en combinaison : USD Render (génère un rendu RTX entièrement par lancer de rayons des données OpenUSD), USD Write (permet aux utilisateurs de modifier et d'interagir avec les données OpenUSD), USD Query (prend en charge les requêtes de scène et scènes interactives), USD Notify (suivi des modifications USD et fourniture de mises à jour) et Omniverse Channel (connectant les utilisateurs, les outils et le monde pour une collaboration entre scènes).

Les cinq nouvelles API Omniverse Cloud peuvent être utilisées individuellement ou en combinaison

L'API Omniverse Cloud sera disponible sur Microsoft Azure plus tard cette année en tant qu'API auto-hébergée sur les GPU NVIDIA A10 ou en tant que service hébergé déployé sur NVIDIA OVX.

Conclusion : le Main Event se termine mais le spectacle doit continuer

En plus des annonces importantes mentionnées ci-dessus, Huang a partagé d'autres développements au cours de son discours : NVIDIA a lancé une plate-forme cloud de recherche 6G pilotée par l'IA générative et Omniverse pour faire progresser le développement des technologies de communication sans fil dans le secteur des télécommunications. La plateforme cloud numérique jumelle climatique Earth-2 de NVIDIA est désormais disponible pour des simulations interactives haute résolution afin d'accélérer les prévisions climatiques et météorologiques. Il estime que le plus grand impact de l’IA se fera sentir dans le domaine des soins de santé. NVIDIA collabore déjà avec des sociétés de systèmes d'imagerie, des fabricants de séquenceurs génétiques et des sociétés de robotique chirurgicale de premier plan tout en introduisant un nouveau type de logiciel biologique.

Il estime que le plus grand impact de l’IA se fera sentir dans le domaine de la santé.

Dans l'industrie automobile, BYD, le plus grand fabricant de véhicules autonomes au monde, équipera ses futurs véhicules électriques du processeur de véhicule autonome (AV) de nouvelle génération de NVIDIA, DRIVE Thor, basé sur l'architecture Blackwell. DRIVE Thor devrait commencer la production de masse dès l'année prochaine avec des performances pouvant atteindre 1000 XNUMX TFLOPS.

DRIVE Thor devrait commencer la production de masse

Huang a déclaré : « L'essence de NVIDIA se situe à l'intersection de l'infographie, de la physique et de l'intelligence artificielle. » En conclusion de son discours, il a souligné cinq points clés : New Industry, Blackwell Platform, NIM, NEMO et NVIDIA AI Foundry, Omniverse et Isaac Robotics.

L'essence de NVIDIA se situe à l'intersection de l'infographie, de la physique et de l'intelligence artificielle.

Aujourd'hui marque une nouvelle étape où NVIDIA repousse les limites du matériel et des logiciels d'IA tout en présentant un festin autour des technologies de pointe telles que l'IA, les grands modèles, le métaverse, les robots, la conduite autonome, les soins de santé et l'informatique quantique.

Le discours d'ouverture de Jensen Huang a sans aucun doute été le point culminant de la conférence GTC, mais l'excitation ne faisait que commencer off pour les participants sur place et à distance !

Plus de 1000 2024 sessions couvrant les dernières avancées de NVIDIA et les sujets d'actualité en matière de technologies de pointe se dérouleront à travers des discours, des sessions de formation et des tables rondes. De nombreux participants ont exprimé leur frustration de ne pas pouvoir assister à toutes les sessions en raison de contraintes de temps, mais ont reconnu que la plateforme GTC XNUMX fournit des échanges techniques dans l'industrie de l'IA. Le lancement de nouveaux produits au cours de cette période et le partage de technologies devraient avoir un impact positif sur la recherche universitaire et les chaînes industrielles associées. Une exploration plus approfondie des détails plus techniques de la nouvelle architecture Blackwell vous attend.

Laisser un commentaire

Remonter en haut