Der „Super Bowl“ der KI-Branche hat begonnen und der Star des Tages ist Jensen Huang.
Technologieunternehmer, Entwickler, Wissenschaftler, Investoren, NVIDIA-Kunden, Partner und Medien aus der ganzen Welt sind für den Mann in der schwarzen Lederjacke in die Kleinstadt San Jose geströmt.
Huangs Keynote auf der GTC 2025 begann am 10. März um 00:18 Uhr Ortszeit, doch um 6:00 Uhr hatte sich Doges AI-Gründer Abraham Gomez bereits den zweiten Platz in der Schlange vor dem SAP Center gesichert, in der Hoffnung, „einen Platz in der ersten Reihe zu ergattern“. Um 8:00 Uhr war die Warteschlange draußen über einen Kilometer lang.
Bill, CEO des Musik-Startups Wondera, saß in der ersten Reihe und trug „als Hommage an Jensen“ seine eigene schwarze Lederjacke. Während das Publikum begeistert war, schlug Huang im Vergleich zur Rockstar-Energie des letzten Jahres einen gemäßigteren Ton an. Dieses Mal wollte er NVIDIAs Strategie bekräftigen und betonte in seiner Rede wiederholt das Thema „Skalierung“.
Letztes Jahr verkündete Huang: „Die Zukunft ist produktiv.“ Dieses Jahr behauptete er: „KI steht an einem Wendepunkt.“ Seine Keynote konzentrierte sich auf drei zentrale Ankündigungen:
1. Blackwell GPU geht in die Vollproduktion
„Die Nachfrage ist enorm, und das aus gutem Grund – KI befindet sich an einem Wendepunkt“, erklärte Huang. Er betonte den wachsenden Bedarf an Rechenleistung, der durch KI-Inferenzsysteme und Agententrainings-Workloads getrieben wird.
2. Blackwell NVLink 72 mit Dynamo AI Software
Die neue Plattform bietet die 40-fache KI-Factory-Leistung von NVIDIA Hopper. „Mit der Skalierung von KI wird Inferenz im nächsten Jahrzehnt die Workloads dominieren“, erklärte Huang. Bei der Einführung von Blackwell Ultra belebte er einen Klassiker neu: „Je mehr Sie kaufen, desto mehr sparen Sie. Und noch besser: Je mehr Sie kaufen, desto mehr verdienen Sie.“
3. NVIDIAs jährlicher Fahrplan für die KI-Infrastruktur
Das Unternehmen skizzierte drei Säulen der KI-Infrastruktur: Cloud, Enterprise und Robotik.

Huang stellte außerdem zwei neue GPUs vor: den Blackwell Ultra GB300 (ein verbessertes Blackwell) und die Vera Rubin-Architektur der nächsten Generation mit Rubin Ultra.
NVIDIA hat zwei neue GPUs vorgestellt: den Blackwell Ultra GB300, eine verbesserte Version des letztjährigen Blackwell, und eine völlig neue Chiparchitektur namens Vera Rubin sowie Rubin Ultra.
Jensen Huangs unerschütterlicher Glaube an das Skalierungsgesetz wurzelt in den Fortschritten, die im Laufe mehrerer Generationen von Chiparchitekturen erzielt wurden.
Sein Hauptthema in der Grundsatzrede war „Extreme Berechnungen für KI-Inferenz im großen Maßstab“.
Bei der KI-Inferenz erfordert die Skalierung von Einzelnutzern bis hin zu groß angelegten Implementierungen die Suche nach dem optimalen Gleichgewicht zwischen Leistung und Kosteneffizienz. Systeme müssen nicht nur schnelle Reaktionen für die Nutzer gewährleisten, sondern auch den Gesamtdurchsatz (Token pro Sekunde) maximieren, indem sie die Hardwarekapazitäten (z. B. FLOPS, HBM-Bandbreite) verbessern und die Software (z. B. Architektur, Algorithmen) optimieren, um letztendlich den wirtschaftlichen Wert der groß angelegten Inferenz zu erschließen.

Jensen Huang ging auf die Bedenken hinsichtlich der Verlangsamung des Skalierungsgesetzes ein und vertrat einen gegenteiligen Standpunkt: „Neue Expansionsmethoden und -technologien beschleunigen die Verbesserung der KI in einem beispiellosen Tempo.“
Huang stand unter erheblichem Druck und wirkte während der Live-Übertragung sichtlich angespannt. In den Pausen nippte er häufig an Wasser und klang am Ende seiner Präsentation etwas heiser.
Während sich der KI-Markt vom Training zur Inferenz wandelt, führen Wettbewerber wie AMD, Intel, Google und Amazon spezialisierte Inferenzchips ein, um die Abhängigkeit von NVIDIA zu reduzieren. Gleichzeitig beschleunigen Startups wie Cerebras, Groq und Tenstorrent die Entwicklung von KI-Beschleunigern, und Unternehmen wie DeepSeek wollen die Abhängigkeit von teuren GPUs durch die Optimierung ihrer Modelle minimieren. Diese Dynamik trägt zu den Herausforderungen bei, vor denen Huang steht. Obwohl NVIDIA über 90 % des Trainingsmarktes dominiert, ist Huang entschlossen, den Inferenzmarkt angesichts des zunehmenden Wettbewerbs nicht aufzugeben. Das Banner der Veranstaltung lautete mutig: „Die Zukunft der KI beginnt hier.“

Zu den wichtigsten Highlights der Keynote von Jensen Huang, die vor Ort von „FiberMall“ zusammengefasst wurden, zählen:
Die Welt hat das Skalierungsgesetz missverstanden
KI hat NVIDIA in den letzten zehn Jahren eine transformative Chance geboten, und Huang ist weiterhin von ihrem Potenzial überzeugt. Bei dieser GTC griff er zwei Folien aus seiner CES-Keynote vom Januar erneut auf:
Auf der ersten Folie wurden die Phasen der KI-Entwicklung skizziert: Wahrnehmungs-KI, generative KI, agentenbasierte KI und physische KI.

Die zweite Folie stellte die drei Phasen des Skalierungsgesetzes dar: Skalierung vor dem Training, Skalierung nach dem Training und Skalierung während der Testzeit (langes Nachdenken).

Huang präsentierte eine Perspektive, die im krassen Gegensatz zur gängigen Meinung steht. Er betonte, die Bedenken hinsichtlich der Verlangsamung des Skalierungsgesetzes seien fehl am Platz. Seiner Ansicht nach treiben neue Expansionsmethoden und Technologien den KI-Fortschritt in beispiellosem Tempo voran.
Huang ist überzeugter Anhänger des Skalierungsgesetzes und seine Überzeugung gründet sich auf der Tatsache, dass globale KI-Fortschritte eng mit NVIDIAs GPU-Geschäft verknüpft sind. Er beschrieb die Entwicklung von KI, die „schrittweise schlussfolgern“ kann, und betonte dabei die Rolle von Inferenz und bestärkendem Lernen bei der Steigerung der Rechenleistung. Da KI einen Wendepunkt erreicht, verlangen Cloud-Service-Anbieter zunehmend nach GPUs. Huang schätzt, dass der Wert des Rechenzentrumsbaus eine Billion US-Dollar erreichen wird.
Huang erläuterte, dass NVIDIA CUDA-X GPU-Beschleunigungsbibliotheken und Microservices mittlerweile in nahezu jeder Branche eingesetzt werden. Seiner Vision zufolge wird jedes Unternehmen künftig zwei Fabriken betreiben: eine für die Produktion von Gütern und eine für die Generierung von KI.

KI breitet sich weltweit in verschiedenen Bereichen aus, darunter Robotik, autonome Fahrzeuge, Fabriken und drahtlose Netzwerke. Jensen Huang betonte, dass autonome Fahrzeuge eine der ersten Anwendungen von KI seien: „Die von uns entwickelten Technologien werden von fast allen Unternehmen für autonome Fahrzeuge eingesetzt“, sowohl in Rechenzentren als auch in der Automobilindustrie.
Jensen verkündete einen wichtigen Meilenstein im Bereich des autonomen Fahrens: General Motors, der größte Automobilhersteller der USA, setzt bei der Entwicklung seiner Fahrzeuge, Fabriken und Roboter der nächsten Generation auf NVIDIA KI, Simulation und beschleunigtes Computing. Er stellte außerdem NVIDIA Halos vor, ein integriertes Sicherheitssystem, das NVIDIAs Hardware- und Software-Sicherheitslösungen für die Automobilindustrie mit modernster KI-Forschung im Bereich der Sicherheit autonomer Fahrzeuge kombiniert.

Huang sprach über Rechenzentren und Inferenz und erklärte, dass NVIDIA Blackwell in die Serienproduktion gegangen sei und Systeme zahlreicher Industriepartner präsentiert habe. Er zeigte sich vom Potenzial von Blackwell begeistert und erläuterte, wie es extreme Skalierbarkeit ermöglicht: „Wir wollen uns einer kritischen Herausforderung stellen, und genau das nennen wir Inferenz.“
Huang betonte, dass Inferenz die Generierung von Token beinhaltet, ein für Unternehmen essenzieller Prozess. Diese KI-Fabriken, die Token generieren, müssen mit außergewöhnlicher Effizienz und Leistung aufgebaut sein. Da die neuesten Inferenzmodelle immer komplexere Probleme lösen können, wird die Nachfrage nach Token weiter steigen.
Um die Inferenz im großen Maßstab weiter zu beschleunigen, kündigte Huang NVIDIA Dynamo an, eine Open-Source-Softwareplattform zur Optimierung und Skalierung von Inferenzmodellen in KI-Fabriken. Er bezeichnete sie als „im Wesentlichen das Betriebssystem für KI-Fabriken“ und betonte ihr transformatives Potenzial.

„Mehr kaufen, mehr sparen, mehr verdienen“
NVIDIA hat außerdem zwei neue GPUs vorgestellt: den Blackwell Ultra GB300, eine verbesserte Version des letztjährigen Blackwell, und die Chiparchitekturen Vera Rubin und Rubin Ultra der nächsten Generation.
Blackwell Ultra GB300 wird in der zweiten Hälfte dieses Jahres erhältlich sein.
Die Veröffentlichung von „Vera Rubin“ ist für die zweite Hälfte des nächsten Jahres geplant.
Rubin Ultra wird Ende 2027 erwartet.
Darüber hinaus enthüllte Huang die Roadmap für kommende Chips. Die Architektur für die Generation nach Rubin trägt den Namen Feynman und wird voraussichtlich 2028 erscheinen. Der Name ist vermutlich eine Hommage an den renommierten theoretischen Physiker Richard Feynman.
In Fortführung der NVIDIA-Tradition ist jede GPU-Architektur nach prominenten Wissenschaftlern benannt – Blackwell nach dem Statistiker David Harold Blackwell und Rubin nach Vera Rubin, der Pionierin der Astrophysik, die die Existenz dunkler Materie bestätigte.

In den letzten zehn Jahren hat NVIDIA 13 Generationen von GPU-Architekturen veröffentlicht, durchschnittlich über eine neue Generation pro Jahr. Dazu gehören ikonische Namen wie Tesla, Fermi, Kepler, Maxwell, Pascal, Turing, Ampere, Hopper und zuletzt Rubin. Huangs Engagement für das Skalierungsgesetz war eine treibende Kraft hinter diesen Innovationen.
In puncto Leistung bietet Blackwell Ultra im Vergleich zu Blackwell erhebliche Verbesserungen, darunter eine Erhöhung der HBM3e-Speicherkapazität von 192 GB auf 288 GB. NVIDIA hat Blackwell Ultra zudem mit dem 100 erschienenen H2022-Chip verglichen und festgestellt, dass dieser die 1.5-fache FP4-Inferenzleistung liefert. Dies bedeutet einen erheblichen Vorteil: Ein NVL72-Cluster mit dem Modell DeepSeek-R1 671B kann interaktive Antworten in 10 Sekunden liefern, verglichen mit 1.5 Minuten beim H100. Blackwell Ultra verarbeitet 1,000 Token pro Sekunde, also das Zehnfache des H10.

NVIDIA wird außerdem das GB300 NVL72 Single-Rack-System anbieten, das folgende Funktionen bietet:
1.1 Exaflops von FP4,
20 TB HBM-Speicher,
40 TB „schneller Speicher“,
130 TB/s NVLink-Bandbreite und
14.4 TB/s Netzwerkgeschwindigkeit.
Huang würdigte die überragende Leistung des Blackwell Ultra und scherzte über seine Bedenken, dass Kunden möglicherweise auf den H100 verzichten könnten. Er bezeichnete sich selbst scherzhaft als „größten Umsatzvernichter“ und räumte ein, dass Hopper-Chips in Einzelfällen „okay“ seien, aber solche Szenarien seien selten. Abschließend erklärte er mit seinem klassischen Spruch: „Mehr kaufen, mehr sparen. Es ist sogar noch besser. Je mehr Sie kaufen, desto mehr verdienen Sie.“
Die Rubin-Architektur stellt für NVIDIA einen bahnbrechenden Schritt dar. Jensen Huang betonte: „Im Wesentlichen ist alles außer dem Rack brandneu.“
Verbesserte FP4-Leistung: Rubin-GPUs erreichen 50 Petaflops und übertreffen damit die 20 Petaflops von Blackwell. Rubin Ultra besteht aus einem einzigen Chip mit zwei miteinander verbundenen Rubin-GPUs und liefert 100 Petaflops FP4-Leistung – doppelt so viel wie Rubin – und vervierfacht den Speicher auf fast 1 TB.
NVL576 Rubin Ultra Rack: Bietet 15 Exaflops FP4-Inferenz und 5 Exaflops FP8-Training und damit eine 14-mal höhere Leistung als Blackwell Ultra Racks.

Huang erläuterte außerdem die Integration der Photonik-Technologie zur Skalierung von Systemen und deren Integration in die Silizium-Photonik-Netzwerk-Switches Spectrum-X und Quantum-X von NVIDIA. Diese Innovationen verbinden elektronische und optische Kommunikation und ermöglichen es KI-Fabriken, Millionen von GPUs standortübergreifend zu vernetzen und gleichzeitig Energieverbrauch und Kosten zu senken.

Die Switches sind außergewöhnlich effizient und erreichen im Vergleich zu herkömmlichen Methoden eine 3.5-mal höhere Energieeffizienz, eine 63-mal höhere Signalintegrität, eine 10-mal höhere Netzwerkstabilität und eine schnellere Bereitstellung.
Computer für das KI-Zeitalter
NVIDIA geht über Cloud-Chips und Rechenzentren hinaus und hat Desktop-KI-Supercomputer auf Basis der NVIDIA Grace Blackwell-Plattform auf den Markt gebracht. Diese Geräte wurden für KI-Entwickler, Forscher, Datenwissenschaftler und Studierende entwickelt und ermöglichen Prototyping, Feinabstimmung und Inferenz großer Modelle auf Desktop-Ebene.

Zu den wichtigsten Produkten gehören:
DGX-Supercomputer: Mit der NVIDIA Grace Blackwell-Plattform für unübertroffene lokale oder Cloud-Bereitstellungsmöglichkeiten.
DGX Station: Eine Hochleistungs-Workstation, ausgestattet mit Blackwell Ultra.

Llama Nemotron Inference Series: Eine Open-Source-KI-Modellfamilie, die verbessertes mehrstufiges Denken, Codieren und Entscheiden ermöglicht. Die Verbesserungen von NVIDIA steigern die Genauigkeit um 20 %, die Inferenzgeschwindigkeit um das Fünffache und die Betriebskosteneffizienz. Führende Unternehmen wie Microsoft, SAP und Accenture arbeiten mit NVIDIA zusammen, um neue Inferenzmodelle zu entwickeln.
Die Ära der Allzweckrobotik
Jensen Huang bezeichnete Roboter als die nächste 10-Billionen-Dollar-Industrie und begegnete damit dem globalen Arbeitskräftemangel, der bis Ende des Jahrhunderts voraussichtlich 50 Millionen Arbeitskräfte erreichen wird. NVIDIA stellte Isaac GR00T N1 vor, das weltweit erste offene, vollständig anpassbare humanoide Inferenz- und Skill-Foundation-Modell, zusammen mit einem neuen Framework für Datengenerierung und Robotik-Lernen. Dies ebnet den Weg für die nächste Stufe der KI.
Darüber hinaus hat NVIDIA das Cosmos Foundation Model für die Entwicklung physischer KI veröffentlicht. Dieses offene, anpassbare Modell ermöglicht Entwicklern eine beispiellose Kontrolle über die Weltgenerierung und ermöglicht durch die Integration mit Omniverse die Erstellung riesiger und systematisch unendlicher Datensätze.
Huang stellte außerdem Newton vor, eine Open-Source-Physik-Engine für Robotersimulationen, die gemeinsam mit Google DeepMind und Disney Research entwickelt wurde. Ein denkwürdiger Moment war der erneute Auftritt eines Miniaturroboters namens „Blue“, der bereits im vergangenen Jahr auf der GTC zu sehen war, auf der Bühne, was das Publikum begeisterte.

NVIDIAs fortwährende Suche nach Anwendungen für seine GPUs dreht sich um die Entwicklung neuer Anwendungen, von den KI-Durchbrüchen mit AlexNet vor über einem Jahrzehnt bis hin zum heutigen Fokus auf Robotik und physischer KI. Werden NVIDIAs Ambitionen für das nächste Jahrzehnt Früchte tragen? Die Zeit wird es zeigen.
Ähnliche Produkte:
-
NVIDIA MMA4Z00-NS400 kompatibles 400G OSFP SR4 Flat Top PAM4 850 nm 30 m auf OM3/50 m auf OM4 MTP/MPO-12 Multimode FEC optisches Transceiver-Modul $550.00
-
NVIDIA MMS4X00-NS400 kompatibles 400G OSFP DR4 Flat Top PAM4 1310 nm MTP/MPO-12 500 m SMF FEC optisches Transceiver-Modul $700.00
-
NVIDIA MMA1Z00-NS400 kompatibles 400G QSFP112 SR4 PAM4 850 nm 100 m MTP/MPO-12 OM3 FEC optisches Transceiver-Modul $550.00
-
NVIDIA MMS1Z00-NS400-kompatibles 400G NDR QSFP112 DR4 PAM4 1310 nm 500 m MPO-12 mit optischem FEC-Transceiver-Modul $700.00
-
NVIDIA MMA4Z00-NS-kompatibles 800-Gbit/s-Twin-Port-OSFP-2x400G-SR8-PAM4-850-nm-100-m-DOM-Dual-MPO-12-MMF-optisches Transceiver-Modul $650.00
-
NVIDIA MMA4Z00-NS-FLT-kompatibles 800 Gbit/s Twin-Port OSFP 2x400G SR8 PAM4 850 nm 100 m DOM Dual MPO-12 MMF optisches Transceiver-Modul $650.00
-
NVIDIA MMS4X00-NM-kompatibles 800-Gbit/s-Twin-Port-OSFP-2x400G-PAM4-1310-nm-500-m-DOM-Dual-MTP/MPO-12-SMF-Optisch-Transceiver-Modul $900.00
-
NVIDIA MMS4X00-NM-FLT-kompatibles 800G-Twin-Port-OSFP-2x400G-Flat-Top-PAM4-1310-nm-500-m-DOM-Dual-MTP/MPO-12-SMF-optisches Transceiver-Modul $900.00
-
NVIDIA MMS4X50-NM-kompatibles OSFP 2x400G FR4 PAM4 1310 nm 2 km DOM Dual Duplex LC SMF optisches Transceivermodul $1200.00
-
NVIDIA MCP7Y00-N001 kompatibles 1 m (3 Fuß) 800 GB Twin-Port OSFP zu 2x400G OSFP InfiniBand NDR Breakout Direct Attach Kupferkabel $160.00
-
NVIDIA MCA7J60-N004 kompatibles 4 m (13 Fuß) 800G Twin-Port OSFP zu 2x400G OSFP InfiniBand NDR Breakout Aktives Kupferkabel $800.00
-
NVIDIA MCP7Y10-N001 kompatibler 1 m (3 Fuß) 800G InfiniBand NDR Twin-Port OSFP zu 2x400G QSFP112 Breakout DAC $155.00
-
NVIDIA MCP7Y50-N001-kompatibler 1 m (3 Fuß) 800G InfiniBand NDR Twin-Port OSFP zu 4x200G OSFP Breakout DAC $255.00
-
NVIDIA MCA7J70-N004 kompatibel 4 m (13 Fuß) 800G InfiniBand NDR Twin-Port OSFP zu 4x200G OSFP Breakout ACC $1100.00
-
NVIDIA MCA4J80-N003 kompatibles 800G Twin-Port 2x400G OSFP zu 2x400G OSFP InfiniBand NDR Aktives Kupferkabel $600.00
-
NVIDIA MCP4Y10-N002-FLT-kompatibler 2 m (7 Fuß) 800G Twin-Port 2x400G OSFP zu 2x400G OSFP InfiniBand NDR Passiver DAC, flache Oberseite an einem Ende und flache Oberseite am anderen $300.00
-
NVIDIA MCP4Y10-N00A kompatibles 0.5 m (1.6 Fuß) 800G Twin-Port 2x400G OSFP zu 2x400G OSFP InfiniBand NDR Passives Direct Attach Kupferkabel $105.00
-
NVIDIA MCA4J80-N003-FLT-kompatibles 3 m (10 Fuß) 800G Twin-Port 2x400G OSFP zu 2x400G OSFP InfiniBand NDR Aktives Kupferkabel, flache Oberseite an einem Ende und flache Oberseite am anderen $600.00