NVIDIA lança GPU Blackwell B200, switch Quantum-X800 Q3400 InfiniBand, ConnectX-8 SuperNIC

Cinco anos depois, o evento de tecnologia de computação de IA de renome mundial, a conferência anual NVIDIA GTC, retornou significativamente ao formato presencial. Hoje, o fundador e CEO da NVIDIA, Jensen Huang, fez um discurso de abertura de duas horas revelando o mais recente chip de IA inovador – a GPU Blackwell.

abertura

Durante esta conferência, a NVIDIA demonstrou uma influência impressionante no setor, reunindo os principais especialistas em IA e líderes do setor. O evento testemunhou uma participação sem precedentes, com mais de dez mil participantes presenciais. 

mais de dez mil participantes presenciais

No dia 18 de março às 1h, horário local (00h do dia 4 de março em Pequim), o discurso mais esperado do GTC offoficialmente iniciado. Após uma curta-metragem com temática de IA, Jensen Huang entrou no palco principal vestindo o seu icónico casaco de cabedal preto, envolvendo o público.

Jensen Huang

Ele começou refletindo sobre a jornada de 30 anos da NVIDIA na aceleração da computação, destacando marcos como o desenvolvimento do revolucionário modelo de computação CUDA, entregando o primeiro supercomputador de IA DGX para OpenAI e, em seguida, mudando naturalmente o foco para IA generativa.

A jornada de 30 anos da NVIDIA

Depois de anunciar parcerias importantes com empresas líderes de EDA, ele discutiu a rápida evolução dos modelos de IA que impulsionam um aumento na demanda de energia computacional de treinamento, enfatizando a necessidade de GPUs maiores. Ele afirmou que “a computação acelerada atingiu um ponto crítico e a computação de uso geral perdeu seu impulso”, destacando avanços significativos na computação acelerada em vários setores. Posteriormente, uma série de componentes-chave, de GPUs e super chips a supercomputadores e sistemas de cluster, apareceram rapidamente na tela grande antes de Jensen Huang fazer o grande anúncio: o novo chip principal de IA – GPU Blackwell chegou!

Chegou a GPU Blackwell

Esta última inovação no campo de GPU supera seu antecessor Hopper GPU tanto em configuração quanto em desempenho. Jensen Huang comparou as GPUs Blackwell e Hopper, mostrando o tamanho significativamente maior da Blackwell. Após essa comparação, ele tranquilizou Hopper com humor, dizendo: “Está tudo bem, Hopper. Você é muito bom, bom garoto. Boa menina. O desempenho da Blackwell é realmente excepcional! Seja a precisão FP8 ou a nova precisão FP6 e FP4, juntamente com a escala do modelo e a largura de banda HBM que pode acomodar – tudo superando a geração anterior do Hopper.

GPU Blackwell

Ao longo de 8 anos, da arquitetura Pascal à arquitetura Blackwell, a NVIDIA aumentou o desempenho da computação de IA em 1000 vezes!

NVIDIA aumentou o desempenho da computação de IA em 1000 vezes

Este é apenas o começo, pois a verdadeira ambição de Jensen Huang reside na criação da infraestrutura de IA mais poderosa, capaz de otimizar cálculos de GPU em nível de trilhões de parâmetros. No geral, a NVIDIA revelou seis anúncios importantes na conferência GTC deste ano:

  1. Introdução da GPU Blackwell: O desempenho do treinamento aumentou 2.5 vezes, o desempenho de inferência de precisão do FP4 melhorou 5 vezes em comparação com o FP8 anterior; NVLink de quinta geração atualizado com velocidade de interconexão duas vezes maior que a velocidade de Hopper; escalável até 576 GPUs para resolver gargalos de comunicação em modelos especialistas mistos de trilhões de parâmetros.
  2. Introdução da arquitetura Blackwell: otimizada para cálculos de GPU em nível de trilhões de parâmetros; lançou novos switches de rede da série X800 com taxa de transferência de até 800Gb / s; introduziu o superchip GB200, o sistema GB200 NVL72, o sistema DGX B200 e o supercomputador DGX SuperPOD AI de próxima geração.
seis grandes anúncios
  • Lançamento de dezenas de microsserviços empresariais de IA generativos, fornecendo uma nova maneira de empacotar e entregar software para fácil implantação de modelos de IA personalizados usando GPUs.
  • Anúncio da inovadora plataforma de computação de litografia cuLitho da TSMC e Synopsys: cuLitho acelera a computação de litografia em 40-60 vezes usando algoritmos de IA generativos aprimorados para fornecer suporte significativo para o desenvolvimento de processos de 2nm e mais avançados.
  • Lançamento do modelo básico de robô humanóide Projeto GR00T e do novo computador robô humanóide Jetson Thor; atualizações significativas na plataforma do robô Isaac, impulsionando avanços de inteligência incorporada. Jensen Huang também interagiu com dois pequenos robôs NVIDIA da Disney Research.
  • Colaboração com a Apple para integrar a plataforma Omniverse ao Apple Vision Pro e fornecer API Omniverse Cloud para ferramentas de software de gêmeos digitais industriais.

Surge novo chip AI: 20.8 bilhões de transistores, desempenho de treinamento 2.5x, desempenho de inferência 5x

Entrando em uma nova era de IA generativa, o crescimento explosivo nas demandas de computação de IA levou ao surgimento da GPU Blackwell, superando sua antecessora Hopper GPU como ponto focal da competição de IA. Cada geração da arquitetura de GPU NVIDIA leva o nome de um cientista, e a nova arquitetura, Blackwell, presta homenagem a David Blackwell, o primeiro membro afro-americano da Academia Nacional de Ciências e um ilustre estatístico e matemático. Blackwell era conhecido por simplificar problemas complexos e suas invenções independentes como “programação dinâmica” e “teorema da renovação” tiveram amplas aplicações em vários campos científicos e de engenharia.

David Blackwell
David Blackwell

Huang afirmou que a IA generativa é a tecnologia que define esta era, com a Blackwell sendo o motor que impulsiona esta nova revolução industrial. A GPU Blackwell possui seis tecnologias principais:

IA generativa é a tecnologia definidora
  1. Apelidado de “Chip mais poderoso do mundo”: integra 20.8 bilhões de transistores usando um processo TSMC 4NP personalizado, seguindo o conceito de design de “chiplet” com arquitetura de memória unificada + configuração dual-core, conectando duas matrizes de GPUs limitadas por modelos de litografia por meio de uma interface NVHyperfuse entre chips de 10 TB/s para formar uma GPU unificada com 192 GB de memória HBM3e, largura de banda de memória de 8 TB/s e capacidade de treinamento de IA de placa única de até 20PFLOPS.
O chip mais poderoso do mundo

Em comparação com a geração Hopper anterior, a integração de duas matrizes da Blackwell resulta em um tamanho maior com 12.8 bilhões de transistores adicionais em comparação com a GPU Hopper. Em contraste, o H100 anterior tinha apenas 80 GB de memória HBM3 e largura de banda de 3.35 TB/s, enquanto o H200 apresentava 141 GB de memória HBM3e e largura de banda de 4.8 TB/s.

  • Motor transformador de segunda geração: combinando novo suporte de escala de microtensor e algoritmos avançados de gerenciamento de faixa dinâmica com estruturas TensorRT-LLM e NeMo Megatron para equipar a Blackwell com recursos de inferência de IA com precisão FP4, suportando computação dupla e escala de modelo, mantendo alta precisão para modelos de especialistas mistos.
Motor transformador de segunda geração

Sob a nova precisão FP4, o desempenho de IA da GPU Blackwell atinge cinco vezes o de Hopper. A NVIDIA não divulgou o desempenho de seus núcleos CUDA; mais detalhes sobre a arquitetura ainda não foram revelados.

O desempenho de IA da GPU Blackwell atinge cinco vezes o de Hopper
  • NVLink de quinta geração: Para acelerar o desempenho de modelos de trilhões de parâmetros e de especialistas mistos, o novo NVLink fornece a cada GPU uma largura de banda bidirecional de 1.8 TB/s, suportando comunicação contínua de alta velocidade entre até 576 GPUs adequadas para modelos complexos de linguagem grande.
NVLink de quinta geração

Um único chip NVLink Switch compreende 50 bilhões de transistores usando o processo TSMC 4NP, conectando quatro NVLinks a 1.8 TB/s.

Um único chip NVLink Switch compreende 50 bilhões de transistores
  • Motor RAS: A GPU Blackwell inclui um mecanismo dedicado que garante confiabilidade, disponibilidade e facilidade de manutenção, ao mesmo tempo em que incorpora recursos de nível de chip que utilizam manutenção preditiva baseada em IA para diagnosticar e prever problemas de confiabilidade, a fim de maximizar o tempo de atividade do sistema, aprimorar a escalabilidade para implantações de IA em grande escala, executadas continuamente por semanas ou até meses sem interrupção, reduzindo custos operacionais.
  • IA segura: Recursos avançados de computação confidencial protegem modelos de IA e dados de clientes sem comprometer o desempenho, oferecendo suporte a novos protocolos de criptografia de interface local.
  • Mecanismo de descompressão: oferece suporte aos formatos mais recentes para acelerar consultas de banco de dados, proporcionando desempenho superior para análise de dados e tarefas de ciência de dados. AWS, Dell, Google, Meta, Microsoft, OpenAI, Oracle, Tesla, xAI estão todos prontos para adotar os produtos Blackwell. O CEO da Tesla e da xAI, Musk, declarou sem rodeios: “Atualmente no campo da IA, não há nada melhor do que o hardware NVIDIA.”

Notavelmente diferente de enfatizar o desempenho de chip único nos lançamentos anteriores, a série Blackwell se concentra mais no desempenho geral do sistema com uma distinção confusa nos nomes de código da GPU, onde a maioria é chamada coletivamente de “GPU Blackwell”. De acordo com rumores de mercado antes deste lançamento, o B100 pode custar cerca de US$ 30,000, enquanto o B200 pode custar cerca de US$ 35,000; considerando esta estratégia de preços, onde os preços aumentaram menos de 50% em comparação com as gerações anteriores, mas o desempenho da formação melhorou 2.5 vezes, indicando uma relação custo-eficácia significativamente mais elevada. Se os preços permanecerem relativamente estáveis, com aumentos tão modestos nos preços, mas melhorias substanciais no desempenho da formação; a competitividade de mercado das GPUs da série Blackwell será formidável.

Introdução de novos switches de rede e supercomputadores de IA otimizados para computação GPU com nível de trilhões de parâmetros

A plataforma Blackwell, além do HGX B100 básico, inclui o switch NVLink, nós de computação de superchip GB200 e switches de rede da série X800.

A plataforma Blackwell

Entre eles, a série X800 é um switch de rede recém-projetado, adaptado para operações de IA em grande escala, com o objetivo de suportar tarefas de IA generativas em nível de trilhões de parâmetros. A rede Quantum-X800 InfiniBand da NVIDIA e a Spectrum-X800 Ethernet estão entre as primeiras plataformas ponta a ponta do mundo com capacidades de transferência de até 800 Gb/s, ostentando um aumento de 5x na capacidade de largura de banda de troca em relação aos produtos da geração anterior. O poder computacional da rede foi aprimorado em 9x por meio da tecnologia SHARP de quarta geração da NVIDIA, resultando em um desempenho computacional de rede de 14.4TFLOPS. Os primeiros a adotar incluem Microsoft Azure, Oracle Cloud Infrastructure e Coreweave, entre outros.

a série X800 é um switch de rede recém-projetado

A plataforma Spectrum-X800 foi projetada especificamente para multilocatários, permitindo o isolamento de desempenho para as cargas de trabalho de IA de cada locatário, otimizando assim o desempenho da rede para serviços de nuvem de IA generativos e grandes usuários corporativos. NVIDIA offoferece uma solução de software abrangente, incluindo bibliotecas de comunicação de aceleração de rede, kits de desenvolvimento de software e software de gerenciamento. O superchip GB200 Grace Blackwell foi projetado como um processador para tarefas generativas de IA em escala de trilhões de parâmetros. Este chip conecta duas GPUs Blackwell a uma CPU NVIDIA Grace usando a tecnologia de interconexão NVLink-C900C de quinta geração de 2 GB/s. No entanto, a NVIDIA não especificou o modelo exato da GPU Blackwell.

Este chip conecta duas GPUs Blackwell a uma CPU NVIDIA Grace

Huang apresentou o superchip GB200, destacando-o como o primeiro de seu tipo a acomodar uma densidade computacional tão alta em um espaço compacto, enfatizando sua memória interconectada e o desenvolvimento colaborativo de aplicativos semelhante a uma “família feliz”.

Huang apresentou o superchip GB200

Cada nó de computação do superchip GB200 pode abrigar dois superchips GB200. Um único nó de switch NVLink pode suportar dois switches NVLink, alcançando uma largura de banda total de 14.4 TB/s.

Cada nó de computação do superchip GB200 pode abrigar dois superchips GB200

Um nó de computação Blackwell compreende duas CPUs Grace e quatro GPUs Blackwell, oferecendo desempenho de IA de 80PFLOPS.

Um nó de computação Blackwell compreende duas CPUs Grace e quatro GPUs Blackwell, oferecendo desempenho de IA de 80PFLOPS.

Com recursos aprimorados de GPU e rede, Huang anunciou o lançamento de uma nova unidade de computação – a NVIDIA GB200 NVL72 – com arquitetura de vários nós, refrigeração líquida e sistemas em nível de rack.

a NVIDIA GB200 NVL72

O GB200 NVL72 funciona como uma “GPU gigante”, operando de forma semelhante a uma GPU de placa única, mas com desempenho de treinamento de IA atingindo 720PFLOPS e desempenho de inferência de IA atingindo pico de 1.44EFLOPS. Possui 30 TB de memória rápida e pode lidar com modelos de linguagem grandes com até 27 trilhões de parâmetros, servindo como um componente chave no mais recente DGX SuperPOD.

O GB200 NVL72

O GB200 NVL72 pode ser configurado com 36 superchips GB200 (compreendendo 72 GPUs B200 e 36 CPUs Grace), interconectados por meio da tecnologia NVLink de quinta geração e incluindo DPU BlueField-3.

O GB200 NVL72 pode ser configurado com 36 superchips GB200

Jensen Huang observou que globalmente existem apenas algumas máquinas de nível EFLOPS disponíveis atualmente; esta máquina consiste em 600,000 peças pesando 3000 libras e representa um “sistema EFLOPS AI em um único rack”. Ele compartilhou que o treinamento anterior de modelos GPT-MoE-1.8T com H100 exigia 90 dias e aproximadamente 8000 GPUs consumindo 15 MW de energia; enquanto agora o uso do GB200 NVL72 requer apenas 2000 GPUs e 4 MW de potência.

GPT-MoE-1.8T

Para execuções de modelos de trilhões de parâmetros, o GB200 passou por otimizações multidimensionais, resultando em taxas de transferência de tokens de GPU individuais até 30 vezes maiores que a precisão do H200 FP8.

taxas até 30 vezes maiores que a precisão do H200 FP8

Em termos de grandes tarefas de inferência de modelos de linguagem, o GB200 NVL72 oferece um aumento de desempenho de 30x em comparação com o mesmo número de H100s, com 1/25 do custo e consumo de energia de seu antecessor.

GB200 NVL72 oferece um aumento de desempenho de 30x

Os principais provedores de nuvem, como AWS, Google Cloud, Microsoft Azure e Oracle Cloud Infrastructure, entre outros, oferecem suporte ao acesso ao GB200 NVL72. Além disso, a NVIDIA introduziu o sistema DGX B200 – uma plataforma unificada de supercomputação de IA para treinamento de modelos de IA, ajuste fino e tarefas de inferência. O sistema DGX B200 representa a sexta geração da série DGX apresentando um design tradicional montado em rack com refrigeração a ar; inclui oito GPUs B200 e dois processadores Intel Xeon de quinta geração, oferecendo desempenho de IA de 144PFLOPS com precisão de FP4, juntamente com uma enorme capacidade de memória de GPU de 1.4 TB e largura de banda de memória de 64 TB/s, permitindo velocidades de inferência em tempo real para modelos de trilhões de parâmetros até quinze vezes maiores. mais rápido que seu antecessor. O sistema incorpora rede avançada com oito NICs ConnectX-7 e duas DPUs BlueField-3, fornecendo a cada conexão largura de banda de até 400Gb / s facilitando maior desempenho de IA por meio das plataformas Ethernet Quantum-2 InfiniBand e Spectrum-X. A NVIDIA também lançou o supercomputador de IA de nível de data center de próxima geração – DGX SuperPOD, utilizando sistemas DGX GB200 capazes de lidar com modelos de trilhões de parâmetros, garantindo operação contínua para treinamento de IA generativa em grande escala e cargas de trabalho de inferência. Construído a partir de oito ou mais sistemas DGX GB200, esta nova geração DGX SuperPOD apresenta uma arquitetura eficiente de expansão em nível de rack com refrigeração líquida, proporcionando um poder computacional de IA de 11.5EFLOPS com precisão de FP4, juntamente com armazenamento rápido de memória de 240 TB que pode ser expandido ainda mais por meio de rack. melhorias de nível. Cada sistema DGX GB200 abriga trinta e seis superchips GB200. Comparado às unidades H100 que executam grandes tarefas de inferência de modelos de linguagem, o superchip GB200 offoferece um aumento de até quarenta e cinco vezes no desempenho.

Huang prevê os data centers como futuras “fábricas de IA”, com toda a indústria se preparando para os avanços da Blackwell.

Huang prevê data centers como futuras fábricas de IA

Lançamento de dezenas de microsserviços de IA generativa de nível empresarial para personalização e implantação de copilotos

A NVIDIA continua a expandir suas vantagens baseadas em CUDA e no ecossistema de IA generativa, introduzindo dezenas de microsserviços de IA generativa de nível empresarial. Esses serviços permitem que os desenvolvedores criem e implantem copilotos de IA generativos em instalações de GPU NVIDIA CUDA.

Instalações de GPU NVIDIA CUDA

Huang afirmou que a IA generativa está transformando a forma como os aplicativos são programados, passando da escrita de software para a montagem de modelos de IA, especificando tarefas, fornecendo exemplos de produtos de trabalho, revisando planos e resultados intermediários. NVIDIA NIM serve como referência para os microsserviços de inferência da NVIDIA, construídos a partir de bibliotecas de computação acelerada e modelos de IA generativos da NVIDIA. Esses microsserviços oferecem suporte a APIs padrão do setor, operam em instalações CUDA de grande escala da NVIDIA e são otimizados para novas GPUs.

Huang afirmou que a IA generativa está transformando a forma como os aplicativos são programados

As empresas podem utilizar esses microsserviços para criar e implantar aplicativos personalizados em suas plataformas, mantendo total propriedade e controle sobre sua propriedade intelectual. Microsserviços NIM offSeus contêineres de IA de produção pré-construídos, com suporte do software de inferência da NVIDIA, permitem que os desenvolvedores reduzam o tempo de implantação de semanas para minutos. Os microsserviços NIM podem implantar modelos da NVIDIA, AI21, Adept, Cohere, Getty Images e Shutterstock, bem como modelos abertos do Google, Hugging Face, Meta, Microsoft, Mistral AI e Stability AI.

Microsserviços NIM

Os usuários terão acesso a microsserviços NIM do Amazon SageMaker, Google Kubernetes Engine e Microsoft Azure AI, integrados a estruturas de IA populares como Deepset, LangChain e LlamaIndex. Para acelerar os aplicativos de IA, as empresas podem aproveitar os microsserviços CUDA-X, incluindo NVIDIA Riva para fala personalizada e IA de tradução, NVIDIA cuOpt para otimização de caminho, NVIDIA Earth-2 para simulações climáticas e meteorológicas de alta resolução. Uma série de microsserviços NVIDIA NeMo para desenvolvimento de modelos personalizados será lançada em breve.

Uma série de microsserviços NVIDIA NeMo

Os desenvolvedores podem testar gratuitamente os microsserviços NVIDIA em ai.nvidia.com. As empresas podem implantar microsserviços NIM de nível de produção usando a plataforma AI Enterprise 5.0 da NVIDIA.

Avançando em algoritmos de IA generativos: colaborando com os principais participantes da indústria de semicondutores para desencadear uma nova revolução na computação fotoligráfica

Na conferência GTC do ano passado, a NVIDIA revelou um desenvolvimento inovador após quatro anos de pesquisa secreta voltada para a indústria de fabricação de semicondutores: aproveitar a revolucionária biblioteca de computação de fotolitografia cuLitho para acelerar os cálculos de fotolitografia em 40-60 vezes, ultrapassando os limites físicos de produção de 2nm e mais. chips avançados. Os colaboradores deste projeto são atores-chave na indústria de semicondutores – a gigante global de chips de IA NVIDIA, a fundição líder de semicondutores TSMC e a gigante de EDA Synopsys.

Sinopse da gigante EDA

A litografia computacional é fundamental para a fabricação de chips. Hoje, com base nos processos acelerados do cuLitho, a velocidade do fluxo de trabalho foi duplicada ainda mais por meio de algoritmos generativos de IA. Especificamente, muitas mudanças nos processos de fabricação de wafers exigem Correção Óptica de Proximidade (OPC), aumentando a complexidade computacional e causando gargalos no desenvolvimento. A computação acelerada e a IA generativa do cuLitho podem aliviar esses problemas. A aplicação de IA generativa pode criar soluções ou abordagens de máscara quase perfeitas para resolver problemas de difração de luz antes de derivar a máscara final por meio de métodos tradicionais fisicamente rigorosos – acelerando assim todo o processo OPC em 2 vezes. Nos processos de fabricação de chips, a litografia computacional é a carga de trabalho mais intensa, consumindo bilhões de horas anualmente em CPUs. Em comparação com os métodos baseados em CPU, a computação de fotolitografia acelerada por GPU do cuLitho melhora significativamente os processos de fabricação de chips. Ao acelerar os cálculos, 350 sistemas NVIDIA H100 podem substituir 40,000 sistemas de CPU, aumentando significativamente as taxas de transferência e acelerando a produção, ao mesmo tempo que reduz custos, requisitos de espaço e consumo de energia. “Estamos implantando o NVIDIA cuLitho na TSMC”, afirmou o presidente da TSMC, Wei Zhejia, destacando o salto significativo de desempenho alcançado através da integração da computação acelerada por GPU ao fluxo de trabalho da TSMC. Ao testar o cuLitho em fluxos de trabalho compartilhados entre as duas empresas, eles alcançaram uma aceleração de 45x nos processos de curva e uma melhoria de quase 60x nos processos tradicionais de Manhattan.

Introdução do novo modelo básico e computador do robô humanóide: atualização principal da plataforma do robô Isaac

Além da IA ​​generativa, a NVIDIA também está otimista em relação à inteligência incorporada e revelou o modelo de base universal do robô humanóide Projeto GR00T e o novo computador robô humanóide Jetson Thor baseado no Thor SoC. Jensen Huang afirmou: “O desenvolvimento de um modelo básico de robô humanóide universal é um dos tópicos mais interessantes no campo da IA ​​​​hoje”. Os robôs alimentados pelo GR00T podem compreender a linguagem natural, imitar a coordenação de aprendizagem rápida, flexibilidade e outras habilidades, observando o comportamento humano para se adaptar e interagir com o mundo real. Huang Renxun demonstrou como vários desses robôs podem realizar diversas tarefas.

modelo de base universal de robô humanóide Projeto GR00T

Jetson Thor apresenta uma arquitetura modular otimizada para desempenho, consumo de energia e tamanho. Este SoC inclui uma GPU Blackwell de última geração com um mecanismo Transformer para executar modelos de IA generativos multimodais como GR00T. A NVIDIA está desenvolvendo uma plataforma abrangente de IA para empresas líderes de robôs humanóides, como 1X, Agility Robotics, Apptronik, Boston Dynamics, Figure AI, Fourier Intelligence, Sanctuary AI, Unitree Robotics e XPENG Robotics.

Além disso, a NVIDIA fez atualizações significativas na plataforma do robô Isaac, incluindo modelos generativos de base de IA, ferramentas de simulação e infraestrutura de fluxo de trabalho de IA. Esses novos recursos serão lançados no próximo trimestre. A NVIDIA também lançou uma série de modelos de robôs pré-treinados, bibliotecas e hardware de referência, como Isaac Manipulator para braços robóticos com flexibilidade e recursos modulares de IA, juntamente com uma série de modelos básicos e bibliotecas aceleradas por GPU, como Isaac Perceptor. offoferecendo recursos avançados como configurações de múltiplas câmeras, reconstrução 3D e percepção de profundidade.

Desenvolvimento mais recente da plataforma Omniverse: avançando no Apple Vision Pro, apresentando a API Cloud

A NVIDIA anunciou a integração da plataforma Omniverse com o Apple Vision Pro.

A NVIDIA anunciou a integração da plataforma Omniverse com o Apple Vision Pro.

Visando aplicações industriais de gêmeos digitais, a NVIDIA irá offer Omniverse Cloud na forma de uma API. Os desenvolvedores podem utilizar esta API para transmitir conteúdo interativo de gêmeos digitais industriais para fones de ouvido VR.

A NVIDIA irá offer Omniverse Cloud na forma de uma API

Ao aproveitar a API, os desenvolvedores podem integrar facilmente a tecnologia central do Omniverse diretamente em aplicativos de software de automação e design de gêmeos digitais existentes ou em fluxos de trabalho de simulação para testar e validar máquinas autônomas, como robôs ou carros autônomos. Jensen Huang acredita que todos os produtos fabricados terão gêmeos digitais e que Omniverse é um sistema operacional que pode construir e operar gêmeos digitais fisicamente realistas. Ele acredita: “O Omniverse e a IA generativa são tecnologias fundamentais necessárias para digitalizar um mercado industrial pesado que vale até US$ 50 trilhões”.

Omniverse e IA generativa são tecnologias fundamentais

As cinco novas APIs Omniverse Cloud podem ser usadas individualmente ou em combinação: USD Render (gera renderização RTX totalmente rastreada de raios de dados OpenUSD), USD Write (permite aos usuários modificar e interagir com dados OpenUSD), USD Query (suporta consultas de cena e cenas interativas), USD Notify (rastreando alterações no USD e fornecendo atualizações) e Omniverse Channel (conectando usuários, ferramentas e o mundo para colaboração entre cenas).

As cinco novas APIs Omniverse Cloud podem ser usadas individualmente ou em combinação

A API Omniverse Cloud estará disponível no Microsoft Azure ainda este ano como uma API auto-hospedada em GPUs NVIDIA A10 ou como um serviço hospedado implantado em NVIDIA OVX.

Conclusão: o evento principal termina, mas o show deve continuar

Além dos anúncios significativos mencionados acima, Huang compartilhou outros desenvolvimentos durante seu discurso: A NVIDIA lançou uma plataforma de pesquisa em nuvem 6G impulsionada por IA generativa e Omniverse para avançar no desenvolvimento da tecnologia de comunicação sem fio no setor de telecomunicações. A plataforma de nuvem digital gêmea climática Earth-2 da NVIDIA agora está disponível para simulações interativas de alta resolução para acelerar a previsão do clima e do tempo. Ele acredita que o maior impacto da IA ​​será na área da saúde. A NVIDIA já está colaborando com empresas de sistemas de imagem, fabricantes de sequenciadores genéticos e empresas líderes de robótica cirúrgica ao mesmo tempo em que introduz um novo tipo de software biológico.

Ele acredita que o maior impacto da IA ​​será na área da saúde

Na indústria automotiva, a BYD, a maior empresa de direção autônoma do mundo, equipará seus futuros veículos elétricos com o processador de veículos autônomos (AV) de próxima geração da NVIDIA, DRIVE Thor, baseado na arquitetura Blackwell. Espera-se que o DRIVE Thor comece a produção em massa já no próximo ano, com desempenho atingindo até 1000 TFLOPS.

DRIVE Thor deverá iniciar a produção em massa

Huang declarou: “A essência da NVIDIA está na interseção da computação gráfica, da física e da inteligência artificial.” Ao concluir seu discurso, ele descreveu cinco pontos principais: Nova Indústria, Plataforma Blackwell, NIMs, NEMO e NVIDIA AI Foundry, Omniverse e Isaac Robotics.

A essência da NVIDIA está na interseção entre computação gráfica, física e inteligência artificial.

Hoje marca outro marco em que a NVIDIA ultrapassa os limites do hardware e software de IA ao mesmo tempo em que apresenta um banquete em torno de tecnologias de ponta, como IA, modelos grandes, metaverso, robôs, direção autônoma, saúde e computação quântica.

A palestra de Jensen Huang foi sem dúvida o ponto alto da conferência GTC, mas a emoção estava a aumentar off para participantes presenciais e remotos!

Mais de 1000 sessões cobrindo os mais recentes avanços da NVIDIA e tópicos importantes em tecnologias de ponta serão reveladas por meio de palestras, sessões de treinamento e mesas redondas. Muitos participantes expressaram frustração por não poderem comparecer a todas as sessões devido a limitações de tempo, mas reconheceram que a plataforma GTC 2024 oferece intercâmbio técnico na indústria de IA. Espera-se que o lançamento de novos produtos durante este período e o compartilhamento de tecnologia tenham um impacto positivo na pesquisa acadêmica e nas cadeias industriais relacionadas. Uma exploração mais aprofundada de mais detalhes técnicos da nova arquitetura Blackwell aguarda.

Deixe um comentário

Voltar ao Topo