Scale AI vient de décrocher un contrat qui pourrait marquer un tournant dans l’histoire de l’intelligence artificielle militaire. La startup spécialisée dans les données d’entraînement pour l’IA a signé mercredi un accord avec le Département de la Défense américain pour « Thunderforge », décrit comme le programme phare du Pentagone pour l’intégration d’agents IA dans la planification et les opérations militaires.
Un contrat qui change la donne
Ce contrat de plusieurs millions de dollars, dont le montant exact reste confidentiel, marque une évolution majeure dans l’utilisation des technologies d’IA dans le domaine militaire. Scale AI, déjà connue pour fournir des données d’entraînement à des géants comme OpenAI, Google, Microsoft et Meta, va désormais mettre son expertise au service direct de l’armée américaine.
Le programme Thunderforge, piloté par la Defense Innovation Unit (DIU), rassemblera une équipe de partenaires technologiques incluant Anduril et Microsoft. L’objectif ? Développer et déployer des agents d’IA capables de :
- Modéliser et simuler des scénarios militaires
- Soutenir la prise de décision
- Proposer des plans d’action
- Automatiser certains flux de travail
Le déploiement commencera par l’US Indo-Pacific Command et l’US European Command avant d’être étendu à d’autres zones d’opération.
La vitesse comme obsession
Si un élément ressort clairement des communications officielles, c’est l’accent mis sur la rapidité. La DIU a mentionné la notion de vitesse (ou des synonymes) pas moins de huit fois dans son communiqué.
« Thunderforge marque un virage décisif vers une guerre alimentée par l’IA et basée sur les données, garantissant que les forces américaines puissent anticiper et répondre aux menaces avec rapidité et précision », indique le communiqué de la DIU.
Doug Beck, directeur de la DIU, a insisté sur « la vitesse machine » dans sa déclaration, tandis que Bryce Goodman, responsable du programme Thunderforge, a souligné qu’il existe actuellement « un décalage fondamental entre la vitesse de la guerre moderne et notre capacité à y répondre ».
De son côté, Alexandr Wang, PDG de Scale AI, affiche son enthousiasme : « Nos solutions d’IA vont transformer les processus opérationnels militaires actuels et moderniser la défense américaine. […] La vitesse accrue offerte par la DIU fournira aux dirigeants militaires de notre nation l’avantage technologique le plus important. »
Un virage idéologique dans la Silicon Valley
Cette annonce s’inscrit dans une tendance de fond : les entreprises d’IA reviennent progressivement sur leurs promesses initiales de ne pas développer de technologies militaires. On assiste à une multiplication des partenariats entre startups d’IA et le secteur de la défense.
En novembre dernier, Anthropic (soutenue par Amazon) et Palantir ont annoncé un partenariat avec AWS pour « fournir aux agences de renseignement et de défense américaines un accès aux modèles Claude 3 et 3.5 d’Anthropic sur AWS ». Palantir a également signé un nouveau contrat de cinq ans pouvant atteindre 100 millions de dollars pour élargir l’accès de l’armée américaine à son programme d’IA militaire Maven.
En décembre, c’était au tour d’OpenAI et d’Anduril d’annoncer un partenariat permettant à cette entreprise de défense technologique de déployer des systèmes d’IA avancés pour des « missions de sécurité nationale », notamment pour améliorer les systèmes de contre-drones (CUAS).
Des promesses éthiques difficiles à tenir
Si Scale AI mentionne que le programme fonctionnera sous supervision humaine, la DIU n’a pas particulièrement mis l’accent sur ce point dans sa communication – un détail qui n’a pas échappé aux observateurs.
Margaret Mitchell, chercheuse et scientifique en chef pour l’éthique chez Hugging Face (concurrent d’OpenAI), exprime ses doutes quant à la capacité réelle des entreprises à contrôler l’usage de leurs technologies une fois celles-ci entre les mains des militaires.
« Le problème est que vous n’avez pas de contrôle sur la façon dont la technologie est réellement utilisée – si ce n’est pas dans l’usage actuel, ce sera certainement à plus long terme une fois que vous aurez déjà partagé la technologie », explique Mitchell.
Elle soulève également une question fondamentale : « Les entreprises ont-elles des personnes disposant d’une habilitation de sécurité qui examinent littéralement l’utilisation et vérifient qu’elle respecte les contraintes de non-nuisance directe ? »
Hugging Face a déjà refusé des contrats militaires, y compris ceux qui ne semblaient pas impliquer directement un potentiel de nuisance, car l’entreprise « comprenait comment ces technologies n’étaient qu’à un pas de causer des dommages directs », selon Mitchell.
Des lignes éthiques floues
La frontière entre applications pacifiques et militaires de l’IA devient de plus en plus poreuse. Mitchell souligne que même des fonctions apparemment inoffensives comme le résumé de posts sur les réseaux sociaux pourraient n’être « qu’à un pas de causer directement des dommages », ces résumés pouvant potentiellement servir à identifier et neutraliser des combattants ennemis.
« Si une technologie n’est qu’à un pas de causer du mal et aide à propager des dommages, est-ce réellement mieux ? », s’interroge Mitchell. « J’ai l’impression que c’est une ligne dans le sable quelque peu arbitraire, qui fonctionne bien pour les relations publiques des entreprises et peut-être pour le moral des employés, sans réellement améliorer la situation éthique. »
Elle qualifie ces nuances d’un « jeu de mots qui fournit une sorte de vernis d’acceptabilité… ou de non-violence », alors que la réalité de l’usage final échappe souvent au contrôle des créateurs.
Ce contrat historique entre Scale AI et le Pentagone illustre parfaitement la tension grandissante entre innovation technologique, avantage militaire et considérations éthiques – un équilibre que l’industrie de l’IA peine visiblement à trouver alors que la course à l’armement technologique s’accélère à l’échelle mondiale.