Nvidia vient de frapper fort en dévoilant sa nouvelle puce Blackwell Ultra, conçue pour doper les performances d’entraînement et d’inférence des modèles d’IA, ainsi que Dynamo, un framework open-source révolutionnaire qui optimise la gestion des ressources de calcul. Ces annonces s’accompagnent d’une feuille de route ambitieuse jusqu’en 2027, confirmant la stratégie agressive du géant des GPU dans la course à l’IA.
Blackwell Ultra : une réponse aux doutes du marché
L’annonce de Blackwell Ultra par Jensen Huang arrive dans un contexte particulier. Ces derniers mois, l’émergence de modèles comme DeepSeek, capables de raisonner efficacement avec moins de ressources, avait soulevé des questions sur la nécessité pour les hyperscalers de continuer à investir massivement dans l’infrastructure Nvidia.
Mais le PDG de Nvidia a balayé ces doutes d’un revers de main lors de sa keynote au GTC, en affirmant que le raisonnement et l’IA agentique exigent des performances de calcul supérieures de plusieurs ordres de grandeur
à ce qu’on imaginait auparavant. Selon Huang, les nouveaux besoins en matière d’IA agentique et de raisonnement nécessiteraient facilement 100 fois plus de puissance de calcul
que ce qui était anticipé.
Les spécifications techniques de Blackwell Ultra
La nouvelle plateforme, construite sur l’architecture Blackwell lancée l’an dernier, comprend notamment :
- Le système Nvidia GB300 NVL72 à l’échelle du rack
- Le système Nvidia HGX B300 NVL16
Le GB300 NVL72 connecte pas moins de 72 GPU Blackwell Ultra et 36 CPU Grace basés sur l’architecture Arm Neoverse. Cette configuration permet aux modèles d’IA d’accéder à suffisamment de puissance de calcul pour explorer différentes solutions à un problème et décomposer les requêtes en étapes.
Le GB300 NVL72 offre des performances 1,5 fois supérieures à son prédécesseur, et selon Nvidia, Blackwell Ultra pourrait multiplier par 50 les opportunités de revenus pour les « usines d’IA » par rapport à l’architecture Hopper.
Une stratégie d’écosystème complet
Pour maximiser l’efficacité de Blackwell Ultra, Nvidia a prévu son intégration avec ses systèmes de réseau Nvidia Spectrum-X Ethernet et Nvidia Quantum-X800 InfiniBand. Des géants comme Cisco, Dell Technologies, HPE, Lenovo et Supermicro proposeront des serveurs Blackwell Ultra, tandis que les principaux clouds (AWS, Google Cloud, Microsoft Azure et Oracle Cloud Infrastructure) offriront des instances dédiées.
Dynamo : le « système d’exploitation de l’usine d’IA »
L’autre annonce majeure concerne Nvidia Dynamo, un framework d’inférence open-source destiné à optimiser le fonctionnement des services d’IA de raisonnement. Dynamo représente une évolution significative par rapport au serveur d’inférence Triton de Nvidia.
L’innovation principale de Dynamo réside dans sa capacité à séparer les phases de traitement et de génération des grands modèles de langage (LLM) sur différents GPU. Chaque phase est ainsi optimisée indépendamment pour maximiser l’utilisation des ressources. Selon Nvidia, cette désagrégation des charges de travail permet de doubler les performances des usines d’IA.
Dynamo se distingue par plusieurs caractéristiques :
- Un moteur de planification GPU
- Un routeur intelligent optimisé pour les LLM, réduisant la répétition des résultats
- Une bibliothèque de communication à faible latence
- Un gestionnaire de mémoire performant
Les résultats sont impressionnants : lors de l’exécution du modèle DeepSeek-R1 sur un large cluster de racks GB200 NVL72, Dynamo augmente le nombre de tokens par GPU de 30 fois. Entièrement open-source, Dynamo prend en charge PyTorch, SGLang, Nvidia TensorRT-LLM et vLLM.
Comme l’explique Huang, Dynamo est conçu pour devenir le système d’exploitation de l’usine d’IA
. Il cartographie les connaissances conservées en mémoire par les systèmes d’inférence (cache KV) sur des milliers de GPU, puis dirige les nouvelles requêtes vers les GPU présentant la meilleure correspondance.
Une feuille de route ambitieuse jusqu’en 2027
Jensen Huang n’a pas seulement présenté les innovations du jour, il a également dévoilé la roadmap de Nvidia pour les deux prochaines années, confirmant un cycle annuel de développement inédit dans l’industrie des semi-conducteurs :
- Vera Rubin au second semestre 2026
- Rubin Ultra au second semestre 2027
« Nous ne voulons pas vous surprendre en mai », a plaisanté Huang, soulignant l’importance de la prévisibilité pour les investissements à long terme dans les infrastructures d’IA. La stratégie de Nvidia consiste à augmenter la puissance, puis à étendre l’échelle
, avec des investissements significatifs dans le networking et la photonique.
L’avis des experts
« Nvidia double la mise sur sa plateforme avec Blackwell Ultra, mais aussi sur la pile logicielle et de stockage. Parallèlement, Nvidia sait qu’elle doit se battre pour rester dans les centres de données cloud, car les fournisseurs cloud développent leurs propres plateformes d’IA. L’automatisation robotique, qui crée des charges de travail pour Nvidia, est une autre stratégie poursuivie par Huang et son équipe. Huang a bouleversé la fabrication de puces en annonçant Blackwell dans un cycle d’un an après Hopper, du jamais vu dans la fabrication de puces. Nvidia a livré. »
Ces annonces interviennent à un moment crucial où l’émergence de modèles plus efficaces comme DeepSeek semblait remettre en question la nécessité d’investir lourdement dans du matériel dédié à l’IA. Nvidia démontre avec ces nouvelles solutions que l’IA agentique et les capacités de raisonnement nécessiteront encore plus de puissance de calcul que prévu.
Avec Blackwell Ultra et Dynamo, Nvidia confirme sa position dominante dans l’écosystème de l’IA, tout en préparant déjà les technologies qui soutiendront la prochaine génération d’applications intelligentes, des assistants virtuels avancés aux véhicules autonomes, en passant par les systèmes robotiques complexes.