Le gouvernement britannique se lance dans un projet controversé, digne d’un épisode de Black Mirror, visant à développer un système algorithmique capable d’identifier les personnes susceptibles de commettre un meurtre. Initialement baptisé « projet de prédiction d’homicide », ce programme a été discrètement renommé « partage de données pour améliorer l’évaluation des risques », un changement de terminologie qui masque à peine sa fonction première.
Une initiative secrète dévoilée par des activistes
C’est l’organisation non gouvernementale Statewatch qui a dévoilé l’existence de ce projet après avoir obtenu des documents confidentiels via des demandes d’accès à l’information. Selon ces révélations, des algorithmes analyseraient les données personnelles de milliers d’individus pour établir des profils de risque et identifier ceux susceptibles de devenir meurtriers.
« Cette tentative de construction d’un système de prédiction de meurtre est l’exemple le plus glaçant et dystopique de la volonté du gouvernement de développer des systèmes dits de ‘prédiction’ de la criminalité. »
Des données ultra-sensibles exploitées
Le système exploiterait des données sensibles telles que :
- Des informations d’identification de base : noms, dates de naissance, genre, origine ethnique
- L’historique criminel et judiciaire des individus
- L’âge auquel une personne apparaît comme victime, y compris en cas de violence domestique
- L’âge du premier contact avec la police
- Des marqueurs de santé présentant un « pouvoir prédictif significatif », incluant des données sur la santé mentale, les addictions, les antécédents de suicide ou tentatives, l’automutilation et les handicaps
Le Ministère de la Justice (MoJ) nie fermement l’utilisation de données concernant des personnes non condamnées, mais les documents obtenus par Statewatch semblent indiquer le contraire, révélant un accord de partage de données incluant des informations sur des victimes et des personnes non condamnées.
Des biais algorithmiques prévisibles
Les critiques soulignent que les algorithmes prédictifs de criminalité reproduisent et amplifient souvent les biais existants dans le système judiciaire. Selon Statewatch, le modèle, qui s’appuie sur des données provenant d’institutions marquées par des accusations de racisme systémique, risque de cibler injustement les populations racisées et à faibles revenus.
« Encore et encore, les recherches montrent que les systèmes algorithmiques de ‘prédiction’ de la criminalité sont intrinsèquement défectueux. Ce dernier modèle va encoder des biais envers les communautés racisées et à faibles revenus. Construire un outil automatisé pour profiler des personnes comme criminelles violentes est profondément problématique, et l’utilisation de données aussi sensibles sur la santé mentale, l’addiction et le handicap est hautement intrusive et alarmante. »
Entre sécurité publique et surveillance orwellienne
Le Ministère de la Justice défend ce projet comme une initiative visant à « améliorer l’évaluation des risques de crimes graves » et à « contribuer à la protection du public grâce à une meilleure analyse ». Un porte-parole du MoJ a précisé :
« Ce projet est mené uniquement à des fins de recherche. Il a été conçu en utilisant des données existantes détenues par le Service des prisons et de la probation de Sa Majesté et les forces de police sur les délinquants condamnés pour nous aider à mieux comprendre le risque que les personnes en probation commettent des actes de violence grave. Un rapport sera publié en temps voulu. »
Les responsables gouvernementaux ajoutent que le Service des prisons et de la probation utilise déjà des outils d’évaluation des risques et que ce projet vise à déterminer si l’ajout de nouvelles sources de données pourrait améliorer ces évaluations.
Ce projet s’inscrit dans une tendance plus large de « police prédictive » qui gagne du terrain dans plusieurs pays occidentaux. Aux États-Unis, des outils tels que PredPol (désormais rebaptisé Geolitica) sont déjà utilisés par certains départements de police, malgré les controverses qu’ils suscitent. En France, où la législation sur la protection des données est stricte, le projet d’algorithme d’analyse prédictive des crimes et délits, bien que débattu en 2022, se limite à l’analyse des lieux et des moments propices aux infractions plutôt qu’à l’identification d’individus potentiellement dangereux.
La question centrale demeure : jusqu’où les gouvernements peuvent-ils aller dans l’utilisation de données personnelles pour prévenir les crimes ? Entre la promesse d’une société plus sûre et le risque d’une surveillance de masse biaisée, la frontière devient de plus en plus mince.
Pour l’heure, le projet britannique n’en est officiellement qu’au stade de la recherche, mais sa simple existence soulève des interrogations fondamentales sur l’équilibre entre sécurité publique, protection de la vie privée et justice algorithmique dans nos sociétés numériques.