Пять лет спустя всемирно известное мероприятие в области компьютерных технологий искусственного интеллекта, ежегодная конференция NVIDIA GTC, значительно вернулось в очный формат. Сегодня основатель и генеральный директор NVIDIA Дженсен Хуанг выступил с двухчасовой программной речью, представив новейший революционный чип искусственного интеллекта — графический процессор Blackwell.
В ходе этой конференции NVIDIA продемонстрировала впечатляющее влияние в отрасли, собрав вместе ведущих экспертов в области искусственного интеллекта и лидеров отрасли. Мероприятие стало свидетелем беспрецедентной явки: более десяти тысяч человек присутствовали лично.
18 марта в 1:00 по местному времени (4:00 19 марта в Пекине) состоится самая ожидаемая программная речь GTC. offофициально началось. После короткометражного фильма на тему искусственного интеллекта Дженсен Хуанг вышел на главную сцену в своей культовой черной кожаной куртке, привлекая внимание публики.
Он начал с размышлений о 30-летнем пути NVIDIA в области ускорения вычислений, выделив такие вехи, как разработка революционной вычислительной модели CUDA, предоставление первого суперкомпьютера AI DGX для OpenAI, а затем, естественно, переключив внимание на генеративный искусственный интеллект.
Объявив о важных партнерских отношениях с ведущими компаниями EDA, он обсудил быстрое развитие моделей искусственного интеллекта, вызывающее резкий рост спроса на вычислительную мощность для обучения, подчеркнув необходимость в более крупных графических процессорах. Он заявил, что «ускоренные вычисления достигли критической точки, а вычисления общего назначения потеряли свою динамику», подчеркнув значительные достижения в области ускоренных вычислений в различных отраслях. Впоследствии ряд ключевых компонентов, от графических процессоров и суперчипов до суперкомпьютеров и кластерных систем, быстро вспыхнул на большом экране, прежде чем Дженсен Хуанг сделал главное заявление: появился совершенно новый флагманский AI-чип — графический процессор Blackwell!
Эта последняя инновация в области графических процессоров превосходит свою предшественницу Hopper GPU как по конфигурации, так и по производительности. Дженсен Хуанг сравнил графические процессоры Blackwell и Hopper, продемонстрировав значительно больший размер Blackwell. После этого сравнения он с юмором успокоил Хоппера, сказав: «Все в порядке, Хоппер. Ты очень хороший, хороший мальчик. Хорошая девочка. Игра Блэквелла действительно исключительна! Будь то FP8 или новые FP6 и FP4, точность, а также масштаб модели и пропускная способность HBM, которые могут вместиться, — все это превосходит предыдущее поколение Hopper.
За 8 лет перехода от архитектуры Pascal к архитектуре Blackwell компания NVIDIA увеличила производительность ИИ-вычислений в 1000 раз!
Это только начало, поскольку истинные амбиции Дженсена Хуанга заключаются в создании самой мощной инфраструктуры искусственного интеллекта, способной оптимизировать вычисления на графическом процессоре на уровне триллиона параметров. В целом, NVIDIA представила шесть основных анонсов на конференции GTC в этом году:
- Внедрение графического процессора Blackwell: производительность обучения увеличена в 2.5 раза, производительность точного вывода FP4 увеличена в 5 раз по сравнению с предыдущим FP8; обновленный NVLink пятого поколения со скоростью соединения, вдвое превышающей скорость Хоппера; масштабируемость до 576 графических процессоров для устранения узких мест связи в смешанных экспертных моделях с триллионом параметров.
- Введение в архитектуру Blackwell: оптимизировано для вычислений на графическом процессоре на уровне триллиона параметров; выпустила новые сетевые коммутаторы серии X800 с пропускной способностью до 800Gb / s; представила суперчип GB200, систему GB200 NVL72, систему DGX B200 и суперкомпьютер DGX SuperPOD AI нового поколения.
- Выпуск десятков корпоративных микросервисов генеративного искусственного интеллекта, предоставляющих новый способ упаковки и доставки программного обеспечения для простого развертывания пользовательских моделей искусственного интеллекта с использованием графических процессоров.
- Анонс революционной платформы для литографических вычислений cuLitho от TSMC и Synopsys: cuLitho ускоряет литографические вычисления в 40–60 раз с помощью улучшенных алгоритмов генеративного искусственного интеллекта, обеспечивая значительную поддержку разработки 2-нм и более продвинутых процессов.
- Выпуск базовой модели робота-гуманоида Project GR00T и нового компьютера-гуманоидного робота Jetson Thor; значительные обновления роботизированной платформы Isaac, способствующие усовершенствованию интеллекта. Дженсен Хуанг также пообщался с парой небольших роботов NVIDIA из Disney Research.
- Сотрудничество с Apple для интеграции платформы Omniverse в Apple Vision Pro и предоставления Omniverse Cloud API для программных инструментов промышленных цифровых двойников.
Появляется новый AI-чип: 20.8 миллиарда транзисторов, производительность обучения в 2.5 раза, производительность вывода в 5 раз
Вступая в новую эру генеративного искусственного интеллекта, взрывной рост требований к вычислениям на базе искусственного интеллекта привел к появлению графического процессора Blackwell, превзошедшего своего предшественника графического процессора Hopper в качестве главного конкурента в области искусственного интеллекта. Каждое поколение архитектуры графических процессоров NVIDIA названо в честь ученого, а новая архитектура Blackwell отдает дань уважения Дэвиду Блэквеллу, первому афроамериканскому члену Национальной академии наук и выдающемуся статистику и математику. Блэквелл был известен умением упрощать сложные проблемы, а его независимые изобретения, такие как «динамическое программирование» и «теорема восстановления», нашли широкое применение в различных научных и инженерных областях.
Хуан заявил, что генеративный искусственный интеллект является определяющей технологией этой эпохи, а Блэквелл является двигателем этой новой промышленной революции. Графический процессор Blackwell может похвастаться шестью основными технологиями:
- Назван «самым мощным чипом в мире».: объединяет 20.8 миллиардов транзисторов с использованием специального процесса TSMC 4NP, следуя концепции дизайна «чиплета» с унифицированной архитектурой памяти + двухъядерной конфигурацией, соединяя два кристалла графических процессоров, ограниченных шаблонами литографии, через межчиповый интерфейс NVHyperfuse со скоростью 10 ТБ/с для формирования унифицированный графический процессор с памятью HBM192e объемом 3 ГБ, пропускной способностью памяти 8 ТБ/с и мощностью обучения искусственного интеллекта на одной карте до 20 ПФЛОПС.
По сравнению с предыдущим поколением Hopper, интеграция двух кристаллов Blackwell приводит к увеличению размера и дополнительным 12.8 миллиардам транзисторов по сравнению с графическим процессором Hopper. Напротив, предыдущий H100 имел только 80 ГБ памяти HBM3 и пропускную способность 3.35 ТБ/с, тогда как H200 имел 141 ГБ памяти HBM3e и пропускную способность 4.8 ТБ/с.
- Трансформаторный двигатель второго поколения: объединение новой поддержки микротензорного масштабирования и усовершенствованных алгоритмов управления динамическим диапазоном с платформами TensorRT-LLM и NeMo Megatron для оснащения Blackwell возможностями вывода ИИ с точностью FP4, поддержкой двойных вычислений и масштабирования модели при сохранении высокой точности для моделей со смешанным экспертным составом.
Благодаря новой точности FP4 производительность искусственного интеллекта графического процессора Blackwell в пять раз превышает производительность Hopper. NVIDIA не раскрыла производительность своих ядер CUDA; более подробная информация об архитектуре еще не раскрыта.
- NVLink пятого поколения: Чтобы повысить производительность моделей с триллионом параметров и моделей со смешанными экспертами, используется новый NVLink обеспечивает каждому графическому процессору двунаправленную пропускную способность 1.8 ТБ/с, поддерживая бесперебойную высокоскоростную связь между 576 графическими процессорами, что подходит для сложных больших языковых моделей.
Один чип NVLink Switch содержит 50 миллиардов транзисторов, использующих процесс TSMC 4NP, соединяющих четыре канала NVLink со скоростью 1.8 ТБ/с.
- Двигатель РАН: Графический процессор Blackwell включает в себя специальный механизм, обеспечивающий надежность, доступность и удобство обслуживания, а также функции уровня чипа, использующие прогнозное обслуживание на основе искусственного интеллекта для диагностики и прогнозирования проблем с надежностью, чтобы максимизировать время безотказной работы системы, повысить масштабируемость для крупномасштабных развертываний искусственного интеллекта, работающих непрерывно в течение нескольких недель или даже месяцы без перерыва, что снижает эксплуатационные расходы.
- Безопасный ИИ: Расширенные возможности конфиденциальных вычислений защищают модели искусственного интеллекта и данные клиентов без ущерба для производительности, поддерживая новые протоколы шифрования локального интерфейса.
- Декомпрессионный двигатель: Поддержка новейших форматов для ускорения запросов к базе данных, обеспечивающая максимальную производительность для анализа данных и задач обработки данных. AWS, Dell, Google, Meta, Microsoft, OpenAI, Oracle, Tesla, xAI готовы принять продукты Blackwell. Генеральный директор Tesla и xAI Маск прямо заявил: «В настоящее время в области искусственного интеллекта нет ничего лучше, чем оборудование NVIDIA».
Серия Blackwell, заметно отличающаяся от акцента на однокристальной производительности в прошлых выпусках, больше фокусируется на общей производительности системы с размытым различием в кодовых названиях графических процессоров, большинство из которых вместе называются «Blackwell GPU». Согласно рыночным слухам, существовавшим до этого выпуска, B100 может стоить около 30,000 200 долларов, а B35,000 — около 50 2.5 долларов; учитывая эту стратегию ценообразования, при которой цены выросли менее чем на XNUMX% по сравнению с предыдущими поколениями, но производительность обучения улучшилась в XNUMX раза, что указывает на значительно более высокую экономическую эффективность. Если цены останутся относительно стабильными при таком скромном росте цен, но существенном улучшении эффективности обучения; рыночная конкурентоспособность графических процессоров серии Blackwell будет огромной.
Представление новых сетевых коммутаторов и суперкомпьютеров с искусственным интеллектом, оптимизированных для вычислений на графических процессорах на уровне триллиона параметров
Платформа Blackwell, помимо базовой HGX B100, включает коммутатор NVLink, вычислительные узлы на суперчипе GB200 и сетевые коммутаторы серии X800.
Среди них серия X800 — это недавно разработанный сетевой коммутатор, предназначенный для крупномасштабных операций искусственного интеллекта и предназначенный для поддержки генеративных задач искусственного интеллекта на уровне триллиона параметров. Сеть NVIDIA Quantum-X800 InfiniBand и Spectrum-X800 Ethernet являются одними из первых в мире сквозных платформ с пропускной способностью до 800 Гбит/с, что обеспечивает пятикратное увеличение пропускной способности обмена по сравнению с продуктами предыдущего поколения. Вычислительная мощность сети увеличена в 5 раз благодаря технологии NVIDIA SHARP четвертого поколения, в результате чего вычислительная производительность сети составила 9 терафлопс. Среди первых пользователей — Microsoft Azure, Oracle Cloud Infrastructure и Coreweave, а также другие.
Платформа Spectrum-X800 специально разработана для мультитенантов и обеспечивает изоляцию производительности для рабочих нагрузок искусственного интеллекта каждого арендатора, тем самым оптимизируя производительность сети для генеративных облачных сервисов искусственного интеллекта и крупных корпоративных пользователей. NVIDIA offпредлагает комплексное программное решение, включающее коммуникационные библиотеки для ускорения сети, комплекты для разработки программного обеспечения и программное обеспечение для управления. Суперчип GB200 Grace Blackwell разработан как процессор для задач генеративного искусственного интеллекта с масштабом в триллион параметров. Этот чип соединяет два графических процессора Blackwell с одним процессором NVIDIA Grace с помощью технологии соединения пятого поколения NVLink-C900C со скоростью 2 ГБ/с. Однако NVIDIA не уточнила точную модель графического процессора Blackwell.
Хуанг продемонстрировал суперчип GB200, подчеркнув, что он является первым в своем роде, способным обеспечить столь высокую вычислительную плотность в компактном пространстве, подчеркнув его взаимосвязанную память и совместную разработку приложений, напоминающую «счастливую семью».
Каждый вычислительный узел суперчипа GB200 может содержать два суперчипа GB200. Один узел коммутатора NVLink может поддерживать два коммутатора NVLink, обеспечивая общую пропускную способность 14.4 ТБ/с.
Вычислительный узел Blackwell состоит из двух процессоров Grace и четырех графических процессоров Blackwell, обеспечивая производительность искусственного интеллекта 80 PFLOPS.
Обладая расширенными возможностями графического процессора и сети, Хуанг объявил о выпуске нового вычислительного устройства — NVIDIA GB200 NVL72 — с многоузловой архитектурой, жидкостным охлаждением и системами уровня стойки.
GB200 NVL72 функционирует как «гигантский графический процессор», работая аналогично графическому процессору с одной картой, но с производительностью обучения ИИ, достигающей 720 PFLOPS, а производительность вывода ИИ достигает пика в 1.44 EFLOPS. Он может похвастаться 30 ТБ быстрой памяти и может обрабатывать большие языковые модели с 27 триллионами параметров, выступая в качестве ключевого компонента в последней версии DGX SuperPOD.
GB200 NVL72 может быть оснащен 36 суперчипами GB200 (в том числе 72 графическими процессорами B200 и 36 процессорами Grace), соединенными между собой с помощью технологии NVLink пятого поколения и включая DPU BlueField-3.
Дженсен Хуанг отметил, что в настоящее время в мире доступно лишь несколько машин уровня EFLOPS; эта машина состоит из 600,000 3000 деталей весом 1.8 фунтов и представляет собой «систему искусственного интеллекта EFLOPS в одной стойке». Он поделился, что ранее обучение моделей GPT-MoE-100T с помощью H90 требовало 8000 дней и примерно 15 графических процессоров, потребляющих 200 МВт мощности; тогда как сейчас для использования GB72 NVL2000 требуется всего 4 графических процессоров и XNUMX МВт мощности.
Для запуска модели с триллионом параметров GB200 подвергся многомерной оптимизации, в результате чего пропускная способность отдельных токенов графического процессора до 30 раз превышает точность H200 FP8.
Что касается больших задач вывода языковой модели, GB200 NVL72 обеспечивает 30-кратный прирост производительности по сравнению с таким же количеством H100, при этом стоимость и энергопотребление в 1/25 ниже, чем у его предшественника.
Крупнейшие поставщики облачных услуг, такие как AWS, Google Cloud, Microsoft Azure и Oracle Cloud Infrastructure, среди прочих, поддерживают доступ к GB200 NVL72. Кроме того, NVIDIA представила систему DGX B200 — унифицированную супервычислительную платформу искусственного интеллекта для обучения, точной настройки и выполнения моделей искусственного интеллекта. Система DGX B200 представляет шестое поколение серии DGX и имеет традиционную стоечную конструкцию с воздушным охлаждением; он включает в себя восемь графических процессоров B200 и два процессора Intel Xeon пятого поколения, обеспечивающие производительность искусственного интеллекта 144 PFLOPS с точностью FP4, а также огромный объем памяти графического процессора 1.4 ТБ и пропускную способность памяти 64 ТБ/с, что обеспечивает скорость вывода в реальном времени для моделей с триллионом параметров до пятнадцати раз. быстрее, чем его предшественник. Система включает в себя расширенные сетевые возможности с восемью сетевыми адаптерами ConnectX-7 и двумя DPU BlueField-3, обеспечивающими каждому соединению полосу пропускания до 400Gb / s повышение производительности искусственного интеллекта с помощью платформ Quantum-2 InfiniBand и Spectrum-X Ethernet. NVIDIA также представила суперкомпьютер нового поколения с искусственным интеллектом для центров обработки данных — DGX SuperPOD, использующий системы DGX GB200, способные обрабатывать модели с триллионом параметров, обеспечивая непрерывную работу для крупномасштабных задач генеративного обучения искусственного интеллекта и рабочих нагрузок вывода. Построенное из восьми или более систем DGX GB200, новое поколение DGX SuperPOD имеет эффективную архитектуру расширения на уровне стойки с жидкостным охлаждением, обеспечивающую вычислительную мощность искусственного интеллекта 11.5 EFLOPS с точностью FP4, а также быструю память емкостью 240 ТБ, которую можно дополнительно расширить за счет установки в стойку. улучшения уровня. Каждая система DGX GB200 содержит тридцать шесть суперчипов GB200. По сравнению с устройствами H100, выполняющими большие задачи вывода языковой модели, суперчип GB200 offдо сорокапятикратного увеличения производительности.
Хуанг рассматривает центры обработки данных как будущие «фабрики искусственного интеллекта», где вся отрасль готовится к достижениям Blackwell.
Запуск десятков генеративных микросервисов искусственного интеллекта корпоративного уровня для настройки и развертывания вторых пилотов
NVIDIA продолжает расширять свои преимущества, основанные на CUDA и экосистеме генеративного ИИ, представляя десятки микросервисов генеративного ИИ корпоративного уровня. Эти сервисы позволяют разработчикам создавать и развертывать генеративные ИИ-вторые пилоты на установках графических процессоров NVIDIA CUDA.
Хуанг заявил, что генеративный ИИ меняет способ программирования приложений, переходя от написания программного обеспечения к сборке моделей ИИ, определению задач, предоставлению примеров рабочих продуктов, проверке планов и промежуточных результатов. NVIDIA NIM служит эталоном для микросервисов вывода NVIDIA, созданных на основе библиотек ускоренных вычислений NVIDIA и генеративных моделей искусственного интеллекта. Эти микросервисы поддерживают стандартные API-интерфейсы, работают на крупномасштабных установках NVIDIA CUDA и оптимизированы для новых графических процессоров.
Компании могут использовать эти микросервисы для создания и развертывания пользовательских приложений на своих платформах, сохраняя при этом полное право собственности и контроль над своей интеллектуальной собственностью. Микросервисы NIM offпредварительно созданные производственные контейнеры искусственного интеллекта, поддерживаемые программным обеспечением NVIDIA для вывода, что позволяет разработчикам сократить время развертывания с недель до минут. Микросервисы NIM могут развертывать модели NVIDIA, AI21, Adept, Cohere, Getty Images и Shutterstock, а также открывать модели Google, Hugging Face, Meta, Microsoft, Mistral AI и Stability AI.
Пользователи получат доступ к микросервисам NIM от Amazon SageMaker, Google Kubernetes Engine и Microsoft Azure AI, интегрированным с популярными платформами искусственного интеллекта, такими как Deepset, LangChain и LlamaIndex. Для ускорения приложений ИИ компании могут использовать микросервисы CUDA-X, включая NVIDIA Riva для индивидуального искусственного интеллекта в области речи и перевода, NVIDIA cuOpt для оптимизации пути, NVIDIA Earth-2 для моделирования климата и погоды в высоком разрешении. Скоро будет выпущена серия микросервисов NVIDIA NeMo для разработки пользовательских моделей.
Разработчики могут бесплатно опробовать микросервисы NVIDIA на сайте ai.nvidia.com. Предприятия могут развертывать микросервисы NIM производственного уровня с помощью платформы NVIDIA AI Enterprise 5.0.
Развитие генеративных алгоритмов искусственного интеллекта: сотрудничество с ведущими игроками полупроводниковой промышленности, чтобы вызвать новую революцию в фотолитографических вычислениях
На прошлогодней конференции GTC NVIDIA представила революционную разработку после четырех лет секретных исследований, направленных на индустрию производства полупроводников: использование революционной вычислительной библиотеки фотолитографии cuLitho для ускорения вычислений фотолитографии в 40-60 раз, преодолев физические ограничения производства 2 нм и более. продвинутые чипы. Соавторами этого проекта являются ключевые игроки полупроводниковой промышленности — мировой гигант в области искусственного интеллекта NVIDIA, ведущий производитель полупроводников TSMC и ведущий гигант EDA Synopsys.
Компьютерная литография имеет основополагающее значение для производства чипов. Сегодня, благодаря ускоренным процессам cuLitho, скорость рабочего процесса еще больше увеличена вдвое благодаря генеративным алгоритмам искусственного интеллекта. В частности, многие изменения в процессах изготовления пластин требуют оптической коррекции близости (OPC), что увеличивает сложность вычислений и вызывает узкие места в разработке. Ускоренные вычисления и генеративный искусственный интеллект cuLitho могут решить эти проблемы. Применение генеративного ИИ может создать почти идеальные решения для масок или подходы к решению проблем дифракции света перед получением окончательной маски с помощью традиционных физически строгих методов, что ускоряет весь процесс OPC в 2 раза. В процессах производства чипов вычислительная литография является наиболее интенсивной рабочей нагрузкой, ежегодно отнимающей миллиарды часов работы процессоров. По сравнению с методами на базе ЦП, вычисления фотолитографии с ускорением на графическом процессоре cuLitho значительно улучшают процессы производства чипов. Ускоряя вычисления, 350 систем NVIDIA H100 могут заменить 40,000 45 систем ЦП, значительно повышая производительность и ускоряя производство, одновременно снижая затраты, требования к пространству и энергопотреблению. «Мы внедряем NVIDIA cuLitho в TSMC», — заявил президент TSMC Вэй Чжэцзя, подчеркнув значительный скачок производительности, достигнутый за счет интеграции вычислений с ускорением на графическом процессоре в рабочий процесс TSMC. При тестировании cuLitho на общих рабочих процессах между двумя компаниями они добились 60-кратного ускорения кривых процессов и почти XNUMX-кратного улучшения традиционных манхэттенских процессов.
Представление новой базовой модели робота-гуманоида и компьютера: основное обновление платформы робота Isaac
Помимо генеративного искусственного интеллекта, NVIDIA также с оптимизмом смотрит на воплощенный интеллект и представила универсальную базовую модель гуманоидного робота Project GR00T и новый гуманоидный робот-компьютер Jetson Thor на базе Thor SoC. Дженсен Хуанг заявил: «Разработка универсальной базовой модели робота-гуманоида является сегодня одной из самых интересных тем в области искусственного интеллекта». Роботы на базе GR00T могут понимать естественный язык, имитировать координацию быстрого обучения, гибкость и другие навыки, наблюдая за поведением человека, адаптируясь к реальному миру и взаимодействуя с ним. Хуан Ренсюнь продемонстрировал, как несколько таких роботов могут выполнять различные задачи.
Jetson Thor имеет модульную архитектуру, оптимизированную по производительности, энергопотреблению и размеру. Этот SoC включает в себя графический процессор Blackwell следующего поколения с движком Transformer для запуска мультимодальных генеративных моделей искусственного интеллекта, таких как GR00T. NVIDIA разрабатывает комплексную платформу искусственного интеллекта для ведущих компаний-производителей роботов-гуманоидов, таких как 1X, Agility Robotics, Apptronik, Boston Dynamics, Рисунок AI, Fourier Intelligence, Sanctuary AI, Unitree Robotics и XPENG Robotics.
Кроме того, NVIDIA внесла значительные обновления в платформу роботов Isaac, включая базовые модели генеративного ИИ, инструменты моделирования и инфраструктуру рабочих процессов ИИ. Эти новые функции будут реализованы в следующем квартале. NVIDIA также выпустила ряд предварительно обученных моделей роботов, библиотек и эталонного оборудования, такого как Isaac Manipulator для роботизированных манипуляторов с гибкостью и модульными возможностями искусственного интеллекта, а также серию базовых моделей и библиотек с графическим ускорением, таких как Isaac Perceptor. offрасширенные функции, такие как настройка нескольких камер, 3D-реконструкция и восприятие глубины.
Последняя разработка платформы Omniverse: переход на Apple Vision Pro, представление Cloud API
NVIDIA объявила об интеграции платформы Omniverse с Apple Vision Pro.
Ориентируясь на промышленные цифровые двойники, NVIDIA будет offэ., Omniverse Cloud в виде API. Разработчики могут использовать этот API для потоковой передачи интерактивного контента промышленных цифровых двойников на гарнитуры виртуальной реальности.
Используя API, разработчики могут легко интегрировать основную технологию Omniverse непосредственно в существующие программные приложения для проектирования и автоматизации цифровых двойников или в рабочие процессы моделирования для тестирования и проверки автономных машин, таких как роботы или беспилотные автомобили. Дженсен Хуанг считает, что все производимые продукты будут иметь цифровых двойников и что Omniverse — это операционная система, которая может создавать и управлять физически реалистичными цифровыми двойниками. Он считает: «Омниверс и генеративный искусственный интеллект — это фундаментальные технологии, необходимые для оцифровки рынка тяжелой промышленности стоимостью до 50 триллионов долларов».
Пять новых API-интерфейсов Omniverse Cloud можно использовать индивидуально или в комбинации: USD Render (генерирует RTX-рендеринг данных OpenUSD с полной трассировкой лучей), USD Write (позволяет пользователям изменять данные OpenUSD и взаимодействовать с ними), USD Query (поддерживает запросы к сценам и интерактивные сцены), USD Notify (отслеживание изменений доллара США и предоставление обновлений) и Omniverse Channel (объединение пользователей, инструментов и мира для межсценового сотрудничества).
Omniverse Cloud API будет доступен в Microsoft Azure позднее в этом году в виде локального API на графических процессорах NVIDIA A10 или в виде размещенной службы, развернутой на NVIDIA OVX.
Заключение: Главное событие завершилось, но шоу должно продолжаться
В дополнение к важным объявлениям, упомянутым выше, Хуанг во время своего выступления поделился дальнейшими разработками: NVIDIA запустила исследовательскую облачную платформу 6G, основанную на генеративном искусственном интеллекте и Omniverse, для продвижения развития технологий беспроводной связи в телекоммуникационном секторе. Облачная платформа климатических цифровых двойников NVIDIA Earth-2 теперь доступна для интерактивного моделирования в высоком разрешении для ускорения прогнозирования климата и погоды. Он считает, что наибольшее влияние ИИ окажет на здравоохранение. NVIDIA уже сотрудничает с компаниями, занимающимися системами визуализации, производителями генетических секвенаторов и ведущими компаниями в области хирургической робототехники, представляя новый тип биологического программного обеспечения.
В автомобильной промышленности BYD, крупнейшая в мире компания по автономному вождению, оснастит свои будущие электромобили процессором NVIDIA для автономных транспортных средств (AV) нового поколения DRIVE Thor на базе архитектуры Blackwell. Ожидается, что DRIVE Thor начнет массовое производство уже в следующем году, а производительность достигнет 1000 терафлопс.
Хуанг заявил: «Суть NVIDIA лежит на стыке компьютерной графики, физики и искусственного интеллекта». В заключение своей речи он выделил пять ключевых моментов: новая индустрия, платформа Blackwell, NIM, NEMO и NVIDIA AI Foundry, Omniverse и Isaac Robotics.
Сегодняшний день знаменует собой еще одну веху, когда NVIDIA расширяет границы аппаратного и программного обеспечения искусственного интеллекта, представляя праздник передовых технологий, таких как искусственный интеллект, большие модели, метавселенная, роботы, автономное вождение, здравоохранение и квантовые вычисления.
Основной доклад Дженсена Хуанга, несомненно, стал самым ярким событием конференции GTC, но волнение просто зашкаливало. off как для очных, так и для удаленных участников!
Более 1000 сессий, посвященных последним достижениям NVIDIA и актуальным темам в области передовых технологий, пройдут в виде выступлений, учебных занятий и круглых столов. Многие участники выразили разочарование тем, что не смогли присутствовать на всех сессиях из-за нехватки времени, но признали, что платформа GTC 2024 обеспечивает технический обмен в индустрии искусственного интеллекта. Ожидается, что выпуск новых продуктов в этот период и обмен технологиями окажут положительное влияние на академические исследования и связанные с ними отраслевые цепочки. Ожидается дальнейшее изучение технических деталей новой архитектуры Blackwell.
Сопутствующие товары:
- OSFP-800G-FR4 800G OSFP FR4 (200G на линию) PAM4 CWDM Duplex LC 2 км SMF Оптический модуль приемопередатчика $11200.00
- OSFP-800G-2FR2L 800G OSFP 2FR2 (200G на линию) PAM4 1291/1311 нм 2 км DOM Duplex LC SMF Оптический модуль приемопередатчика $8500.00
- OSFP-800G-2FR2 800G OSFP 2FR2 (200G на линию) PAM4 1291/1311 нм 2 км DOM Dual CS SMF Оптический модуль приемопередатчика $8500.00
- OSFP-800G-DR4 800G OSFP DR4 (200G на линию) PAM4 1311 нм MPO-12 500 м SMF DDM Оптический модуль приемопередатчика $6300.00
- Совместимый с NVIDIA MMS4X00-NM-FLT 800G Twin-port OSFP 2x400G Flat Top PAM4 1310nm 500m DOM Dual MTP/MPO-12 SMF Модуль оптического трансивера $2000.00
- NVIDIA MMA4Z00-NS-FLT Совместимый двухпортовый OSFP 800 Гбит/с 2x400G SR8 PAM4 850 нм 100 м DOM Двойной модуль оптического трансивера MPO-12 MMF $1400.00
- NVIDIA MMS4X00-NM Совместимый двухпортовый OSFP 800 Гбит/с 2x400G PAM4 1310nm 500m DOM Dual MTP/MPO-12 SMF Модуль оптического трансивера $2000.00
- NVIDIA MMA4Z00-NS Совместимый двухпортовый OSFP 800 Гбит/с 2x400G SR8 PAM4 850 нм 100 м DOM Двойной модуль оптического трансивера MPO-12 MMF $1400.00
- Совместимость с NVIDIA MMS1Z00-NS400 400G NDR QSFP112 DR4 PAM4 1310 нм 500 м MPO-12 с модулем оптического приемопередатчика FEC $1350.00
- Совместимый с NVIDIA MMS4X00-NS400 400G OSFP DR4 Flat Top PAM4 1310nm MTP/MPO-12 500m SMF FEC Модуль оптического трансивера $1450.00
- Совместимый с OSFP NVIDIA MMS4X50-NM 2x400G FR4 PAM4 1310 нм 2 км DOM двухдуплексный оптический модуль LC SMF $4650.00
- OSFP-XD-1.6T-4FR2 1.6T OSFP-XD 4xFR2 PAM4 1291/1311nm 2 км SN SMF Оптический модуль приемопередатчика $17000.00
- OSFP-XD-1.6T-2FR4 1.6T OSFP-XD 2xFR4 PAM4 2x CWDM4 TBD Двухдуплексный оптический модуль LC SMF $22400.00
- OSFP-XD-1.6T-DR8 1.6T OSFP-XD DR8 PAM4 1311 нм 2 км MPO-16 Модуль оптического приемопередатчика SMF $12600.00