A l’occasion de sa GPU Tech Conference (GTC) 2024, NVidia a dévoilé sa nouvelle architecture GPU pour l’IA dénommée Blackwell ainsi que de nouvelles plateformes logicielles pour simplifier l’appropriation de la Gen AI par les entreprises.
Accueilli comme une Rock Star par un public enthousiaste à l’occasion de son Keynote d’ouverture de la GTC 2024, la messe annuelle de NVidia, Jenseng Huang, CEO et fondateur de l’entreprise, a délivré une prestation hyper technique à l’exact opposé des prestations pompeuses et ultra-marketing d’un Tim Cook (CEO d’Apple). «J’espère que vous réalisez que ceci n’est pas un concert» a-t-il tancé d’emblée, ajoutant « il va y avoir beaucoup de science, d’algorithmes, d’architecture informatique et de mathématiques »…
À 61 ans, Jensen Huang n’a jamais paru aussi dynamique et plein d’énergie. Il est vrai qu’en l’espace d’une année, sa société est devenue la troisième valorisation mondiale. Mais plutôt que de célébrer les succès en Bourse et se livrer à l’autocomplaisance dont nous abreuve généralement le marketing à l’américaine, le CEO a choisi de s’adresser exclusivement aux développeurs et aux geeks. Avec du lourd, plein d’acronymes et des tas de mesures techniques…
Blackwell… The next step…
« Ce que je tiens entre mes doigts a coûté 10 milliards de dollars. Le prochain exemplaire nous coûtera encore 5 milliards de dollars. Heureusement pour vous, à partir de là, ça deviendra bien plus abordable »… C’est ainsi que Jenseng Huanq a présenté à la foule « Blackwell » la prochaine génération de GPU pour serveurs et HPC de NVidia, destinée à remplacer la génération « Hopper » (les fameux H100 et H200 que se disputent tous les acteurs de l’IA). « Blackwell » n’est pas en soi une surprise puisque le nom avait déjà été dévoilé l’an dernier. Mais cette fois, NVidia a dévoilé quelques chiffres.
Blackwell s’annonce entre 2 et 30 fois plus rapide que Hopper, selon la façon de mesurer et les algorithmes employés. En gros, on peut s’attendre à une accélération x4 sur les phases d’apprentissage et à une accélération x30 sur les phases d’inférence.
Ainsi, alors qu’il fallait 8000 GPU H100, 15 mégawatts et 90 jours pour créer un modèle GPT de 1800 milliards de paramètres, il ne faut plus « que » 2.000 GPU et moins de 4 mégawatts pour réaliser le même entraînement avec Blackwell.
Tout comme NVidia a décliné Hopper en version H100, H200 (deux chips Hopper combinés sur une seule puce) et GH200 (deux GPU Hopper et un CPU Grace sur une seule puce), le Blackwell sera lui aussi décliné en version B100, B200 (deux GPU Blackwell réunis sur une seule puce) et GB200 (combinant deux GPU Blackwell et 1 CPU Grace sur la même puce).
On sait déjà que le B200 embarquera 192 Go de RAM HBM3e (contre 141 Go sur le H200) et offrira une bande passante interchip de 10 To/s, une bande passante mémoire de8 To/s et une bande passante externe de1,8 To/s.
Avec ses 208 milliards de transistors gravés en 4nm (par TSMC), le GPU Blackwell peut être qualifié de « méga chip ». Sans surprise on retrouve parmi les clients ayant déjà précommandé ces nouveaux GPU (qui ne sont pas encore disponibles) des acteurs comme AWS, Google, Microsoft, Meta, OpenAI, Oracle, Tesla et xAI… Que des américains !
Du super-computing IA à la clé
Sans surprise, NVidia en profite pour mettre à jour son supercalculateur NVidia DGX SuperPOD combinant des lames DGX animées par des puces GB200. Ce SuperPOD « génération Blackwell », à refroidissement liquide, offre une puissance de 11,5 exaflops en FP4 (calculs en virgules flottantes sur 4 bits, principalement utilisés en inférences) et embarque 240 To de RAM. Il tient en une armoire composée de 36 puces GB200, autrement dit de 32 CPU « Grace » (architecture ARM) et 72 GPU « Blackwell ». Chaque lame étant interconnectée par un bus NVLink Gen 5. Bien sûr, il est possible de combiner plusieurs DGX SuperPOD en un cluster de calculs.
Apparemment Google Cloud devrait proposer des DGX SuperPOD à l’usage dans son nuage d’ici la fin de l’année.
Une plateforme pour unifier tous les modèles
Chez NVidia, toutes les nouveautés ne sont pas forcément matérielles. En réalité, chaque GPU s’accompagne d’un écosystème de librairies, de modèles, et de plateformes pour simplifier le travail des développeurs et normaliser les accélérations proposées.
Au chapitre des grandes annonces, on retiendra du GTC 2024 l’annonce d’une plateforme « Nvidia NIM » conçue pour faciliter le déploiement de modèles d’IA personnalisés et pré-entraînés dans des environnements de production. Plus simplement, on peut voir NIM comme un conteneur rempli de microservices et que l’on peut configurer en un clic pour embarquer l’un des modèles supportés. La plateforme NIM est optimisée pour les modèles de NVidia, d’A121, d’Adept, de Cohere, de Getty Images, de Shutterstock, de Google, de Hugging Face, de Meta, de Microsoft, de Mistral AI et de Stability AI.
Par ailleurs, les microservices IA NIM devraient prochainement intégrer les plateformes Cloud de Microsoft (Azure AI Studio), de Google (Vertex AI) et d’AWS (SageMaker).
NVidia à l’ère des robots humanoïdes
Si toutes les attentions sont focalisées sur l’IA générative depuis 1 an déjà, NVidia n’en oublie par pour autant que ses GPU pourraient aussi animer l’autre révolution technologique du moment dont les progrès sont au moins aussi rapides que la Gen AI : les robots humanoïdes !
NEO de 1X Technologies, DIGIT d’Agility Robotics, APOLLO d’Apptronik, ATLAS de Boston Dynamics, Figure01 de Figure AI, GR-1 de Fourier Intelligence, PHOENIX de Sanctuary AI, H1 de Unitree Robotics, autrement dit la crème actuelle des humanoïdes en cours de développement était sur scène avec Jenseng Huanq pour inaugurer non seulement un nouveau système embarqué destiné à animer de tels robots, le NVidia Jetson Thor, animé par un processeur embarqué NVidia Thor, mais également un nouveau modèle fondation formé sur des architectures NVidia et dénommé GR00T (acronyme de Generalist Robot 00 Technology) destiné à permettre à ces robots d’apprendre des compétences en observant des actions humaines pour ensuite les reproduire en les contextualisant. Ce modèle fondation ne se limite donc pas à la compréhension et l’expression en langage naturel mais étend ses capacités à la perception et la manipulation.
Et même un peu de quantique à la clé
NVidia a une nouvelle fois parlé quantique, démontrant que l’entreprise compte bien jouer un rôle dans ce domaine qui est encore beaucoup du domaine de la recherche fondamentale, même s’il existe aujourd’hui des dizaines de machines quantiques accessibles à travers les services QaaS des clouds (y compris chez OVHcloud).
NVidia a lancé son propre service cloud « NVidia Quantum Cloud » basé sur sa plateforme open-source CUDA-Q. Quantum Cloud ne donne pas encore accès à des machines physiques mais à des simulateurs permettant de développer et tester des algorithmes quantiques en Cuda-Q. Reste désormais à NVidia de convaincre les actuels créateurs de processeurs et de machines quantiques d’adopter la plateforme Cuda-Q. Et pour l’instant NVidia n’a rien de concret à proposer. La firme se contente d’expliquer que IonQ, IQM, OQC, Orca, qBraid ou encore Quantinuum ont exprimé leur intérêt pour cette plateforme. Ça n’engage à rien…
Bref, NVidia a plus que jamais le vent en poupe et le regard fixé sur le futur… Un atout alors que ses concurrents ont eux le regard tourné vers NVidia et le retard qu’ils ont à rattraper… Même s’ils ne sont pas forcément très loin techniquement parlant (AMD avec son Instinct MI300 et Intel avec ses Gaudi3 et Loihi 2).