Jensen Huang, le PDG de Nvidia, vient de faire une déclaration fracassante lors du CES 2025 à Las Vegas : les performances des puces IA de son entreprise progressent désormais plus rapidement que la légendaire loi de Moore, qui a dicté l’évolution de l’informatique pendant des décennies.
« Nos systèmes progressent beaucoup plus vite que la loi de Moore », a déclaré Huang devant une foule de 10 000 personnes.
Pour rappel, la loi de Moore, énoncée en 1965 par le cofondateur d’Intel, prédisait que le nombre de transistors sur les puces informatiques doublerait environ chaque année. Cette progression a effectivement guidé l’industrie pendant des années, mais montre aujourd’hui des signes d’essoufflement.
Le patron de Nvidia affirme que sa dernière puce pour datacenter est 30 fois plus rapide que la génération précédente pour les tâches d’inférence IA. Un bond spectaculaire rendu possible par une approche holistique :
« Nous pouvons concevoir l’architecture, la puce, le système, les bibliothèques et les algorithmes simultanément. En innovant sur toute la chaîne, nous dépassons la loi de Moore. »
Cette annonce intervient alors que Nvidia, devenue l’entreprise la plus valorisée au monde, domine le marché des puces IA. Ses processeurs H100 équipent les plus grands laboratoires d’IA comme Google, OpenAI et Anthropic.
Le PDG identifie trois lois d’échelle qui régissent actuellement l’IA :
- Le pré-entraînement, où les modèles apprennent à partir de grandes quantités de données
- Le post-entraînement, qui affine les réponses via le feedback humain
- Le « test-time compute », qui donne plus de temps de réflexion à l’IA
La nouvelle puce GB200 NVL72, présentée en grande pompe au CES, promet des performances 30 à 40 fois supérieures à l’H100 pour l’inférence IA. Cette avancée pourrait rendre plus accessibles des modèles comme o3 d’OpenAI, actuellement très coûteux (20$ par tâche).
Huang affirme que les puces Nvidia sont aujourd’hui 1000 fois plus performantes qu’il y a 10 ans, pulvérisant le rythme de la loi de Moore. Une progression qu’il estime durable, portée par l’innovation continue dans l’architecture des processeurs.
Les implications sont majeures pour l’industrie : ces avancées devraient permettre de réduire drastiquement les coûts de l’IA, comme on l’a déjà observé en 2024. Les modèles de raisonnement IA, actuellement très gourmands en ressources, pourraient devenir plus abordables, ouvrant la voie à de nouvelles applications.
La domination de Nvidia sur ce marché stratégique semble plus forte que jamais, même si certains s’interrogent sur sa capacité à maintenir son avantage face à une concurrence croissante, notamment dans le segment de l’inférence IA où les besoins évoluent rapidement.