NVIDIA Mellanox lance les produits InfiniBand 400G de nouvelle génération au SC20

Résumé: VIDIA lance la prochaine génération de produits NVIDIA® Mellanox® 400G InfiniBand au SC20 pour fournir aux développeurs et aux chercheurs en IA les performances d'interconnexion réseau les plus rapides afin de faire face à son problème le plus difficile à l'échelle mondiale.

Avec la exponentielle croissance demande d'informatique dans les domaines de la drogue R & D, la recherche sur le climat et la science génétique, NVIDIA Mellanox 400G InfiniBand a réalisé un saut de performance significatif en fournissant les exclusif désinstallation complète du matériel et plate-forme informatique en réseau, qui peut accélérer le Les Progrès of recherche connexe.

Les 7th Le produit de génération Mellanox InfiniBand NDR 400 Gb/s offre une latence ultra-faible et double le débit de données basé sur dernier produit de génération. A nouveau moteur informatique de réseau NVIDIA est également programmé pour atteindre vitesse supplémentaire. La nouvelle version Mellanox 400G InfiniBand la solution est en cours d'intégration aux produits d'entreprise de l'infrastructure leader mondial fabricants, y compris Atos, Dell Technologies, Fujitsu, Inspur Corporation, Lenovo, ainsi que SuperMicro. En outre, les principaux partenaires d'infrastructure de stockage, notamment DDN, IBM Storage et d'autres fournisseurs de stockage, seront également favorables à NDR.

"Le travail clé pour oNos clients IA doivent faire face à des applications de plus en plus complexes, qui nécessitent des réseaux plus rapides, plus intelligents et plus évolutifs, » a affirmé Valérie Plante. Gilad Shainer, Vice-président directeur général, NVIDIA Réseau. NVIDIA Mellanox InfiniBand 400Gc'est substantiel données le débit et le moteur d'accélération intelligent permettent aux infrastructures HPC, IA et cloud à très grande échelle d'atteindre sans égal performances à moindre coût et complexité. "

 

NVIDIA Mellanox 400G infinibande

 

Aujourd'hui»s nouvellement publié Mellanox InfiniBand représente la solution réseau la plus puissante du secteur pour l'IA super-informatique. Les commutateurs Mellanox NDR 400G InfiniBand peuvent fournir 3 fois la densité de ports et 32 ​​fois la capacité d'accélération de l'IA. De plus, il augmente de 5 fois le débit bidirectionnel agrégé du système de commutation modulaire à 1.64 pétabit/s, permettant aux utilisateurs d'exploiter des charges de travail plus importantes avec moins de commutateurs.

Élargir la Eécosystème pour More (Ensemble on va plus loin) Aapplications

Certaines des plus grandes institutions de recherche scientifique au monde ont pris l'initiative d'exprimer leur intérêt in Mellanox InfiniBand's technologie de nouvelle génération. « Le partenariat entre Microsoft Azure et NVIDIA Networks découle de notre passion commune d'aider les scientifiques et les chercheurs à innover grâce à des systèmes HPC et IA évolutifs. Dans le domaine HPC, Azure HBv2 VM est le premier à introduire HDR InfiniBand dans le cloud et a atteint une échelle et des performances de super-calcul sur le cloud pour les applications clientes MPI, cela a montré sa capacité à faire évoluer les applications MPI HPC à plus de 80,000 XNUMX cœurs .  

Pour réaliser ses ambitions d'innovation en matière d'IA, Azure NDv4 VM tire pleinement parti du HDR InfiniBand, en allouant 200 Gb/s de bande passante à chaque GPU. Chaque VM peut atteindre une bande passante d'interconnexion totale de 1.6 Tb/s, et elle peut être étendue à des milliers de GPU dans un réseau InfiniBand qui garantit une faible latence, introduisant ainsi l'IA super-informatique à divers domaines. Microsoft apprécie l'innovation continue du portefeuille de produits InfiniBand de NVIDIA, et nous attendons avec impatience la poursuite d'un partenariat étroit entre les deux parties », a déclaré Nidhi Chapelle, Microsoft Azure HPC et chef de produit AI. 

Steve Poole, architecte en chef de la plate-forme de nouvelle génération du Laboratoire national de Los Alamos aux États-Unis a affirmé Valérie Plante., « La technologie d'interconnexion haute performance est à la base de supercalculateurs des dizaines de milliards de fois et encore plus rapides. Laboratoire national de Los Alamos est dédié à conduireingurgiter l'avant-garde de la technologie de réseau HPC. Nous continuerons à coopérer avec NVIDIA pour évaluer et analyser sa dernière technologie 400 Gb/s en les diverses applications exigences du Laboratoire national de Los Alamos.

« Dans la nouvelle ère de l'informatique exascale, les chercheurs et les scientifiques s'efforcent de faire des percées et d'appliquer la modélisation mathématique aux domaines de la chimie quantique, de la dynamique moléculaire et de la sécurité civile. Nous nous sommes engagés à la réalisation de plus de succès dans la construction du supercalculateur leader de la prochaine génération en Europe grâce à la prochaine génération Mellanox InfiniBand, » a déclaré le professeur Thomas Lippert, directeur du Jülich Supercomputing Center. « InfiniBand maintient son leadership en matière d'innovation et de performance dans une position encore plus avancée, ce qui en fait un incontournable pour l'interconnexion de serveurs et de stockage hautes performances dans les systèmes HPC et AI. Comme le débit exigence pour les applications continue d'augmenter, la demande de solutions hautes performances comme NVIDIA Mellanox NDR 400 Gb/s InfiniBand devrait également s'étendre en permanence à de nouveaux cas et marchés », a déclaré Addison Snell, PDG d'Intersect360 Research.

Produit Sspécifications et Adisponibilité

Les Désinstalleringurgiter l'opération est crucial à Applications d'IA. Les 3rd La technologie NVIDIA Mellanox SHARP permet au réseau InfiniBand de offcharger et accélérer les opérations d'apprentissage en profondeur, augmentant l'accélération de l'IA nominale par 32 fois. Il peut être utilisé à la boîte d'envoi et augmente le calcul scientifique combiné avec la pile logicielle NVIDIA Magnum IO.

Le débit bidirectionnel total du commutateur de périphérie basé sur l'architecture Mellanox InfiniBand peut atteindre 51.2 To/s, atteignant une capacité de traitement de plus de 66.5 milliards de paquets de données par seconde. Tandis que l'un des commutateurs modulaires basés sur Mellanox InfiniBand atteindra 1.64 pétabit par seconde, soit 5 fois plus que les produits de dernière génération.

L'architecture InfiniBand de Mellanox garantits compatibilité entre le précédent et nouvelle génération produits et protège les investissements dans les centres de données en conformité avec normes de l'industrie. La solution basée sur cette architecture devrait libérer échantillons au deuxième trimestre 2021.

Laisser un commentaire

Remonter en haut