Nvidia a déployé ses muscles en matière d’IA cette semaine, en dévoilant une série de produits de nouvelle génération destinés à inaugurer la nouvelle ère de l’intelligence artificielle. De ce qu’elle a décrit comme une super puce révolutionnaire axée sur l’IA à des outils de développement plus intuitifs, Nvidia a clairement l’intention de rester le moteur de la révolution de l’IA.
Cette année, la présentation de Nvidia au SIGGRAPH 2023 – une conférence annuelle consacrée à la technologie et à la recherche en infographie – était presque entièrement consacrée à l’IA. Le PDG de Nvidia, Jensen Huang, a déclaré que l’IA générative représente un point d’inflexion semblable à la révolution de l’internet il y a plusieurs décennies. Selon lui, le monde s’achemine vers une nouvelle ère dans laquelle la plupart des interactions entre l’homme et l’ordinateur seront alimentées par l’IA.
« Chaque application, chaque base de données, tout ce avec quoi vous interagissez au sein d’un ordinateur, vous le ferez probablement d’abord avec un modèle de grand langage », a déclaré M. Huang.
En combinant logiciels et matériel spécialisé, Nvidia se positionne comme le chaînon manquant pour réaliser le plein potentiel de l’IA.
La super-puce Grace Hopper pour l’entraînement à l’IA
La star du salon était la nouvelle Grace Hopper Superchip GH200, le premier GPU doté d’une mémoire à large bande passante 3e (HBM3e). Avec jusqu’à 2 To/s de bande passante, la HBM3e offre une bande passante presque trois fois supérieure à celle de la génération précédente, la HBM2e.
Nvidia définit sa puce Grace Hopper comme un « processeur accéléré conçu dès le départ pour l’IA à grande échelle et les applications de calcul à haute performance (HPC) ». Cette puce est le résultat de la combinaison des architectures Grace (CPU haute performance) et Hopper (GPU haute performance) de Nvidia, son nom évoquant celui de la célèbre femme informaticienne américaine.
Selon M. Huang, le GH200 peut offrir des performances d’entraînement jusqu’à six fois supérieures à celles du GPU A100, fleuron de Nvidia, pour les grands modèles d’intelligence artificielle. Le GH200 devrait être disponible au deuxième trimestre 2024.
« Le GH200 est un nouveau moteur pour l’entraînement et l’inférence », a déclaré Huang, ajoutant que « les futurs modèles d’avant-garde seront construits de cette manière ». Il a ajouté que cette nouvelle super-puce « fera probablement fonctionner Crysis », un jeu vidéo de tir à la première personne dont les exigences matérielles sont notoirement élevées.
L’architecture GPUda Lovelace débarque sur les stations de travail
Nvidia avait également des nouvelles pour les particuliers. Le fabricant de puces a dévoilé ses derniers GPU RTX pour stations de travail basés sur l’architecture Ada Lovelace : les RTX 5000, RTX 4500 et RTX 4000. Avec jusqu’à 7680 cœurs CUDA, ces GPU offrent jusqu’à 5 fois plus de performances que les cartes de la génération précédente pour le développement de l’IA, le rendu 3D, l’édition vidéo et d’autres flux de travail professionnels exigeants.
La carte phare RTX 6000 Ada reste le premier choix pour les professionnels exigeant des performances maximales. La nouvelle gamme étend l’architecture Ada Lovelace à un plus grand nombre d’utilisateurs. Les RTX 4000, 4500 et 5000 seront disponibles à partir du troisième trimestre 2022 auprès des principaux OEM.
Cependant, ces nouvelles offres ne sont pas bon marché. Le prix de la RTX 4000 commence à 1 250 dollars et celui de la RTX 5000 à environ 4 000 dollars.
Pour les professionnels et les entreprises qui souhaitent faire passer leurs initiatives en matière d’IA au niveau supérieur, Nvidia a dévoilé son nouveau GPU Nvidia L40 à l’échelle du centre de données. Avec jusqu’à 18 176 cœurs CUDA et 48 Go de vRAM, le L40 offre des performances d’entraînement à l’IA jusqu’à 9,2 fois supérieures à celles de l’A100.
Nvidia indique que les fabricants mondiaux de serveurs prévoient d’intégrer le L40 dans leurs systèmes, ce qui permettra aux entreprises d’entraîner des modèles d’IA gigantesques avec une efficacité optimale et une réduction des coûts. Associé aux logiciels Nvidia, le L40 pourrait constituer une solution complète pour les entreprises qui adoptent l’IA.
Les microservices natifs du cloud améliorent les communications vidéo
Poursuivant son effort pour alimenter les applications vidéo, Nvidia a également annoncé une nouvelle suite de kits de développement de logiciels accélérés par le GPU et un service cloud-natif pour l’édition vidéo appelé Maxine.
Optimisé par l’IA, Maxine offre des fonctionnalités telles que l’annulation du bruit, la mise à l’échelle en super résolution et le contact visuel simulé pour les appels vidéo, permettant aux utilisateurs distants d’avoir des conversations naturelles depuis presque n’importe où.
Nvidia affirme que ses partenaires en matière de narration visuelle ont déjà intégré Maxine dans des flux de travail tels que la vidéoconférence et le montage vidéo.
L’outil simplifie le développement de l’IA générative
Enfin, Nvidia a annoncé la sortie prochaine d’AI Workbench, une plateforme unifiée qui rationalise le développement, le test et le déploiement de modèles d’IA générative.
En fournissant une interface unique pour gérer les données, les modèles et les ressources à travers les machines, AI Workbench permet une collaboration transparente et une mise à l’échelle à partir d’une station de travail locale jusqu’à l’infrastructure cloud.
Avec sa dernière gamme d’offres couvrant le matériel, les logiciels et les services, Nvidia affirme vouloir accélérer l’adoption de l’IA par les entreprises grâce à une pile technologique complète conçue pour s’attaquer à ses nombreuses complexités.