BOSTON, Massachusetts – C’est un coup de tonnerre dans le ciel (souvent bleu azur) de la recherche en intelligence artificielle et en science des matériaux. Le prestigieux Massachusetts Institute of Technology (MIT) vient d’annoncer, sans langue de bois, qu’il retirait son soutien à une publication qui avait pourtant fait les gros titres il y a quelques mois : une étude signée par l’un de ses étudiants et censée prouver l’efficacité dingue d’un outil d’IA dans un labo de pointe. La raison ? De sérieux doutes sur la fiabilité des données. Oui, vous avez bien lu : ça sent la patate chaude, voire carrément la tricherie scientifique.
Flashback : l’étude qui promettait (trop ?) un âge d’or dopé à l’IA
Tout commence fin 2024, quand un papier de recherche débarque sur arXiv, la plateforme où les chercheurs déposent leurs travaux avant même la publication formelle. L’auteur principal, un certain Aidan Toner-Rodgers, alors étudiant au MIT, clame avoir mené une expérience fascinante. Il aurait introduit une IA générative – comprenez un modèle capable d’analyser et de proposer de nouvelles idées – dans un laboratoire spécialisé dans la découverte de nouveaux matériaux, notamment dans les nanotechnologies.
Le titre claque : Artificial Intelligence, Scientific Discovery, and Product Innovation. Et les résultats annoncés sont alléchants. Selon Toner-Rodgers, l’IA aurait provoqué une sorte de boost créatif spectaculaire, démultipliant les nouvelles découvertes de matériaux. L’outil aurait, en gros, accéléré le processus d’analyse et de génération d’hypothèses à tester en labo, un vrai turbo pour la R&D.
Mais le papier n’est pas que dithyrambique. Il souligne aussi une face cachée, plus sombre, de cette « révolution IA ». L’arrivée de l’algorithme aurait eu un impact négatif sur le bien-être des chercheurs, créant pression, insécurité et un sentiment d’être « assistés » ou dépassés. Pis encore : les gains de productivité profiteraient surtout aux scientifiques les plus performants, creusant l’écart avec les autres.
Des zones d’ombre qui s’épaississent : quand les données parlent (ou pas)
Mais derrière les paillettes médiatiques, des murmures commencent. Des chercheurs attentifs pointent des bizarreries dans le papier : graphiques trop « parfaits », données arrangées. Des alertes post-publication sur des sites comme ForBetterScience dévoilent des manipulations de figures.
- Courbes XRD identiques : Des profils de diffraction X (XRD) censés provenir de mesures différentes présentent une identité parfaite, y compris dans le bruit de fond. Comme si une courbe avait été copiée-collée ou redessinée pour représenter plusieurs cycles expérimentaux.
- Cartes EDX retouchées : Des cartes EDX semblent avoir été grossièrement manipulées pour présenter une nanoparticule idéale, sans les irrégularités typiques des mesures réelles.
Ces indices visuels de falsification remettent en question l’intégralité de l’expérience. S’agit-il réellement de résultats obtenus grâce à l’IA ou simplement de données créées de toutes pièces ?
Le couperet du MIT : « Plus aucune confiance »
Face à l’accumulation de ces allégations, le MIT a déclenché une enquête interne menée par son Comité de Discipline (COD). Bien que les détails restent confidentiels, l’issue est claire : l’institution retire formellement son soutien à la publication.
« Le MIT n’a plus confiance dans la provenance, la fiabilité ou la validité des données, ni dans la véracité de la recherche contenue dans le document. »
Le MIT a demandé le retrait du papier sur arXiv et alerté The Quarterly Journal of Economics, où l’étude avait été soumise. Quant à Aidan Toner-Rodgers, il n’est plus affilié au MIT.
L’IA en labo : pas si simple, pas si magique
Cette affaire jette une lumière crue sur les promesses parfois exagérées de l’IA dans la découverte scientifique. Beaucoup de laboratoires expérimentent ces outils pour automatiser tâches, explorer de grands jeux de données ou générer des hypothèses.
Les questions soulevées restent cruciales :
- Les vrais gains de productivité : l’IA peut-elle vraiment faire gagner du temps ou révéler ce qu’on aurait manqué ? Sous quelles conditions ?
- L’impact sur les chercheurs : comment ces outils affectent-ils le moral, la créativité et la satisfaction professionnelle ? Font-ils naître de nouvelles inégalités ?
Une piqûre de rappel pour la science à l’ère numérique
Le cas Toner-Rodgers n’est pas isolé. La science fait face à un problème croissant de reproductibilité et d’intégrité des données, renforcé par la facilité de manipulation numérique.
Des études montrent que les articles rétractés continuent parfois d’être cités, devenant de véritables « zombies » scientifiques. C’est un danger pour la construction du savoir et un aveu des limites du peer-review, souvent impuissant face à des manipulations sophistiquées.
Quelles leçons pour la science de demain ? Transparence et éthique obligatoires
Pour éviter que cela se reproduise :
- Transparence radicale : exiger le partage des données brutes, du code source et des détails des modèles IA.
- Formation à l’éthique : intégrer des modules obligatoires sur l’éthique de la recherche et celle de l’IA dès le début des cursus.
- Relecture diversifiée : enrichir le peer-review avec experts en statistiques, science des données, éthique et forensique numérique.
L’Open Science et l’IA peuvent être d’incroyables leviers de progrès, mais ils ne doivent pas compromettre la rigueur et l’intégrité académique. Le retrait du papier par le MIT rappelle que la confiance en la science repose sur un socle inviolable : l’authenticité des données.