Les dernières semaines ont vu l’émerger de deux nouveaux modèles d’IA qui pourraient bien marquer un tournant historique : O3 d’OpenAI et Gemini 2.5 Pro de Google. Ces systèmes, accompagnés de leurs versions allégées (Gemini 2.5 Flash, O4-mini et Grok-3-mini), représentent un bond en avant si significatif que certains experts, comme l’économiste Tyler Cowen, n’hésitent pas à affirmer que nous avons atteint l’AGI (Intelligence Artificielle Générale).
Des capacités qui défient l’entendement
Les performances de ces nouveaux modèles vont bien au-delà de simples améliorations incrémentales. Prenons l’exemple d’O3 : avec une seule instruction relativement simple, le système est capable de générer un plan d’affaires complet pour une boutique de fromage en ligne, incluant slogans, analyse financière, logo et même maquette de site web fonctionnel – le tout en moins de deux minutes.
Ce qui distingue O3 des générations précédentes, c’est sa double nature de « raisonneur » et d »agent ». Non seulement il expose son raisonnement étape par étape, mais il peut également utiliser des outils variés (recherche web, programmation) et décomposer des objectifs complexes en actions concrètes sans intervention humaine.
Les exemples impressionnants ne manquent pas :
- Geo-guessing : O3 peut déterminer l’emplacement d’une photo avec une précision surprenante, en analysant méthodiquement chaque détail et en complétant par des recherches web.
- Analyse de données : À partir d’un simple tableau de données sur les systèmes d’apprentissage automatique, O3 peut générer un rapport complet avec graphiques et analyses statistiques.
- Création de jeux : Gemini 2.5 Pro peut transformer un article scientifique en jeu interactif.
Comme le suggère Ethan Mollick, chercheur à Wharton, ces expériences peuvent vous faire ressentir l’AGI
– ou pas. Car nous sommes face à ce qu’il appelle une frontière irrégulière
(Jagged Frontier).
Le concept de « Jagged AGI » : une intelligence inégale
Malgré leurs prouesses, ces modèles présentent des capacités étonnamment inégales. O3 peut résoudre des problèmes complexes qui défieraient des experts humains, mais échouer lamentablement sur une devinette basique. Par exemple, face à une variante de l’énigme classique du chirurgien, O3 s’obstine à donner la réponse mémorisée de l’énigme originale, incapable d’adapter son raisonnement au nouveau contexte.
Cette nature « irrégulière » de l’intelligence artificielle est au cœur du concept de « Jagged AGI » proposé par Mollick : des systèmes surhumains dans certains domaines mais étrangement limités dans d’autres, nécessitant toujours l’expertise humaine pour identifier leurs points forts et leurs angles morts.
Des benchmarks impressionnants, mais est-ce vraiment de l’AGI ?
Sur le plan technique, les benchmarks montrent un saut significatif par rapport aux générations précédentes. Mais le débat sur ce qui constitue véritablement l’AGI reste ouvert. Comme le souligne Mollick, l’AGI est mal définie et très débattue
. Tout le monde s’accorde sur le fait qu’elle concerne la capacité des IA à effectuer des tâches de niveau humain, mais personne ne s’entend sur le niveau exact requis (expert ou moyen) ni sur le nombre ou le type de tâches qu’une IA devrait maîtriser pour se qualifier.
Il est intéressant de noter que le test de Turing, longtemps considéré comme un jalon important, a récemment été franchi par les IA modernes, mais nous ne savons pas vraiment ce que cela signifie concrètement.
Les implications : évolution lente ou bouleversement imminent ?
Même si nous avions atteint l’AGI, cela ne signifierait pas nécessairement un bouleversement immédiat de notre société. Comme le rappelle Tyler Cowen, les technologies, aussi révolutionnaires soient-elles, ne transforment pas instantanément le monde. Les structures sociales et organisationnelles évoluent beaucoup plus lentement que la technologie elle-même.
Cependant, les capacités agentiques des nouveaux modèles comme O3 pourraient accélérer considérablement cette diffusion par rapport aux technologies précédentes. Si l’IA peut efficacement naviguer dans les systèmes humains de façon autonome, plutôt que de nécessiter une intégration laborieuse, nous pourrions atteindre des seuils d’adoption beaucoup plus rapidement que les précédents historiques ne le suggèrent.
L’incertitude fondamentale demeure : existe-t-il des seuils de capacité qui, une fois franchis, changeront fondamentalement la façon dont ces systèmes s’intègrent dans la société ? Ou s’agit-il simplement d’une amélioration graduelle ? Les modèles atteindront-ils un plafond dans le futur ?
Un territoire inexploré
Que nous appelions ou non O3 et Gemini 2.5 « AGI », il est clair qu’ils représentent quelque chose de qualitativement différent de ce qui existait auparavant. Leurs propriétés agentiques, combinées à leurs capacités irrégulières, créent une situation véritablement nouvelle avec peu d’analogues clairs.
L’histoire pourrait rester notre meilleur guide, suggérant que l’application réussie de l’IA de manière à impacter significativement les statistiques économiques pourrait être un processus s’étalant sur des décennies. Ou nous pourrions être à l’aube d’un décollage plus rapide, où les changements induits par l’IA bouleverseraient soudainement notre monde.
Dans un cas comme dans l’autre, ceux qui apprennent dès maintenant à naviguer dans ce paysage irrégulier seront les mieux positionnés pour ce qui suivra – quelle que soit la forme que cela prendra.
Pour expérimenter par vous-même, Gemini 2.5 Pro est disponible gratuitement et offre une intelligence comparable à O3, bien qu’avec des capacités agentiques moins développées.