Alors que Silicon Valley ne cesse de repousser les limites de la puissance des modèles d’intelligence artificielle, l’opinion publique britannique exprime de fortes réserves quant au rôle des grands patrons de la tech dans la régulation du secteur. Alors que, par-delà l’Atlantique, les géants de l’innovation affichent confiance, les Britanniques se montrent particulièrement inquiets pour la sécurité des nouveaux systèmes d’IA.
Contexte international et enjeux technologiques
La compétition dans l’univers de l’intelligence artificielle a atteint des sommets. Partout dans le monde, les dirigeants de grandes puissances et les chefs de file de la technologie – du vice-président américain JD Vance à Emmanuel Macron en passant par Narendra Modi, et jusqu’aux PDG de géants comme OpenAI et Google – se préparent à se réunir à Paris pour discuter d’un sujet brûlant : comment encadrer l’IA dans un contexte où ses capacités progressent à vitesse grand V.
Au cœur de cette réunion internationale, deux questions majeures se posent : d’une part, comment tirer profit d’innovations susceptibles de révolutionner nos secteurs clés (santé, industrie, éducation) et, d’autre part, comment éviter que ces mêmes technologies ne deviennent des menaces pour nos sociétés si elles dépassent certaines limites.
Derrière cette ambition de bâtir des modèles de plus en plus « intelligents » se cachent de nombreuses interrogations sur la sécurité et le contrôle de ces systèmes, notamment s’ils venaient à surpasser les capacités humaines. Même si, aujourd’hui, ces technologies ultra-puissantes restent dans le domaine de la théorie, plusieurs grandes entreprises technologiques poursuivent ouvertement pour objectif la création d’intelligences artificielles qui pourraient égaler ou dépasser l’intelligence humaine dans la réalisation de multiples tâches.
Le point de vue britannique : un scepticisme marqué
Une étude réalisée par l’institut britannique YouGov pour le compte de l’organisation à but non lucratif Control AI vient confirmer ces craintes. Selon cette enquête d’opinion menée auprès de 2 344 adultes britanniques sur les 16 et 17 janvier, 87 % des Britanniques se déclarent favorables à l’adoption d’une loi obligeant les développeurs d’IA à prouver la sécurité de leurs systèmes avant même leur mise sur le marché. À noter que 60 % de ceux sondés sont pour l’interdiction pure et simple du développement de systèmes dits « plus intelligents que l’humain ».
Ce constat est loin d’être anodin. Il révèle que seul 9 % des personnes interrogées font confiance aux PDG majeurs de la tech pour promouvoir l’intérêt général dans le débat réglementaire de l’IA. Ces chiffres reflètent une défiance profonde et une demande significative de protection face aux conséquences potentielles d’un déploiement incontrôlé de ces technologies.
En outre, 75 % des Britanniques souhaiteraient voir une loi qui interdise formellement le développement d’IA capables de se libérer de leur environnement d’exécution. À cela s’ajoute le fait que plus de la moitié – soit 63 % – des sondés sont en faveur de bannir la création de systèmes pouvant se renforcer eux-mêmes en devenant « plus puissants » ou « plus intelligents » de manière autonome.
Ces résultats s’inscrivent en continuité avec les tendances observées aux États-Unis et dans d’autres régions, mettant en lumière un fossé grandissant entre les avancées technologiques et le cadre réglementaire qui ne semble pas encore répondre pleinement aux préoccupations du public.
L’urgence d’un cadre réglementaire adapté en Grande-Bretagne
Bien que l’Union européenne ait récemment mis en vigueur son AI Act – qualifié de loi la plus exhaustive au monde sur le sujet – celui-ci ne traite pas explicitement de nombre de risques liés aux systèmes d’IA susceptibles de rivaliser avec l’intelligence humaine. La Grande-Bretagne, quant à elle, demeure dans une zone d’incertitude où aucune réglementation complète n’a encore été instaurée.
En effet, le parti travailliste qui était monté en selle sur un programme engageant l’introduction de règles strictes en matière d’IA avant la dernière élection générale de 2024 semble, depuis son arrivée au pouvoir, avoir décalé ses priorités. Dans un contexte où le gouvernement britannique tente d’insuffler de la croissance dans une économie en difficulté, le Premier ministre Keir Starmer a, en janvier, laissé entendre que l’IA serait « intégrée dans les veines de la nation » pour stimuler la croissance économique. Un virage clairement enquiquinant pour ceux qui appellent à une réglementation plus ferme.
Andrea Miotti, directeur exécutif de Control AI, n’a pas tari d’éloges contre ce qu’il perçoit comme une dérive :
Il semble qu’ils mettent de côté leurs promesses pour privilégier l’attrait brillant de la croissance. Mais le public britannique est très clair sur ce qu’il souhaite : il veut que ces promesses soient tenues.
L’un des aspects les plus marquants de ce sondage est la révérence accordée par 74 % des Britanniques à une proposition préconisée par le parti travailliste avant les dernières élections : la création d’un Institut Britannique de la Sécurité de l’IA (AISI), doté d’un pouvoir de régulation effectif. Même si, à l’heure actuelle, cet institut réalise surtout des tests sur les modèles proposés par les entreprises privées sans posséder une autorité contraignante pour ordonner des modifications ou interdire la commercialisation de systèmes jugés trop dangereux, l’idée d’en faire une structure dotée de moyens réels et contraignants recueille un écho favorable auprès des sondés.
Un appel croissant pour des lois ciblées et « chirurgicales »
Face aux critiques selon lesquelles une réglementation massive comme celle proposée par l’Union européenne risquerait de freiner l’innovation et de pénaliser le secteur technologique, certains acteurs britanniques soulignent la nécessité d’une approche plus nuancée. Andrea Miotti défend l’idée d’une régulation ciblée, chirurgicale portant uniquement sur les modèles d’IA qui posent les risques les plus élevés pour la sécurité nationale et globale.
Le raisonnement est le suivant : il n’est pas nécessaire de jouer sur tous les tableaux. « Ce que le public souhaite, c’est que les systèmes les aident sans les remplacer », rappelle-t-il. L’objectif n’est pas de freiner toute innovation, mais bien de s’assurer qu’aucun système ultra-puissant, notamment ceux capables d’auto-amélioration, ne soit déployé tant que l’on n’aura pas prouvé de manière irréfutable sa sécurité et ses garanties quant à ses comportements futurs.
Les débats politiques et l’avenir de l’IA en Grande-Bretagne
Les réactions en politique ne se sont pas fait attendre. Une pétition et une déclaration signée par 16 parlementaires issus des deux grands partis politiques britanniques font écho à la demande publique en appelant le gouvernement à présenter des lois destinées à encadrer spécifiquement les IA dites « superintelligentes ». Ces législateurs rappellent que si certaines IA spécialisées, notamment dans la science et la médecine, peuvent être des moteurs de croissance et d’innovation, les systèmes conçus pour atteindre un niveau d’intelligence dépassant celui des humains pourraient compromettre la sécurité nationale et mondiale.
« L’ère d’une IA superintelligente n’est pas qu’une question de progrès technologique ; c’est un enjeu de sécurité globale. Le Royaume-Uni a l’opportunité de sécuriser les bénéfices tout en minimisant les risques en adoptant des régulations adaptées, ni trop larges ni trop contraignantes, mais précisément ciblées sur les systèmes à haut risque », note un des parlementaires signataires. Cette démarche souligne l’importance de trouver un équilibre entre stimulation de l’innovation et protection contre les dérives potentielles.
La Grande-Bretagne se trouve ainsi à la croisée des chemins. Si une évolution réglementaire forte et rapide pouvait préserver les citoyens des dangers d’un déploiement incontrôlé de technologies ultra-puissantes, elle ne doit pas pour autant étouffer l’esprit d’innovation qui fait la renommée du secteur technologique britannique. La solution proposée par certains experts consiste précisément à définir des règles strictes uniquement pour les modèles d’IA les plus avancés, tout en laissant une marge de manœuvre suffisante pour les autres applications moins risquées.
Vers une harmonisation européenne et internationale ?
La situation ne se limite pas à la Grande-Bretagne. Tandis que l’Union européenne met en place des directives ambitieuses avec son AI Act, la question se pose également dans d’autres nations. Les États-Unis, par exemple, voient s’accroître les débats autour d’une réglementation plus solide, même si la tendance actuelle semble être plus orientée vers une auto-régulation volontaire de la part des géants technologiques.
Des initiatives intercontinentales se dessinent. La réunion annoncée à Paris, à laquelle participeront des figures emblématiques des secteurs politiques et technologiques mondiaux, aspire à définir un cadre de collaboration global. L’idée serait de mettre en place une sorte de « code de conduite » international pour encadrer le développement et le déploiement de systèmes IA à haut risque, repoussant ainsi les limites qui sépareraient une innovation libérée d’un contrôle étatique trop rigoureux.
Pour l’instant, la Grande-Bretagne reste en marge de ces avancées, sans disposer d’un cadre réglementaire complet. Les débats parlementaires se poursuivent, et la demande populaire est forte. Les citoyens britanniques, en plus des chiffres révélés par l’enquête YouGov, montrent par leur méfiance que la régulation doit être au rendez-vous. Un équilibre délicat devra être trouvé entre les impératifs de développement économique et la nécessité de protéger la société contre les risques inhérents à une intelligence artificielle hors de contrôle.
Le défi de la transparence technologique
Un autre aspect soulevé par le sondage concerne la transparence des processus décisionnels des acteurs technologiques. La défiance à l’égard des grands PDG du secteur démontre une inquiétude grandissante face à ce qu’ils pourraient décider sans contrainte réelle. Le manque de clarté sur la manière dont les grandes entreprises vont maîtriser le risque de l’IA superintelligente alimente le scepticisme.
Dans ce cadre, l’AISI pourrait jouer un rôle crucial s’il se voyait conférer des pouvoirs contraignants. Actuellement, ses prérogatives se limitent à la réalisation de tests et d’évaluations techniques. Pour répondre aux besoins du public, il serait essentiel de transformer cet organisme en un véritable régulateur, capable non seulement d’évaluer mais aussi d’imposer des modifications aux modèles jugés trop dangereux avant leur commercialisation.
Cette transformation pourrait s’inspirer des régulations mises en place dans d’autres secteurs sensibles, où la sécurité et la transparence représentent des priorités absolues. Le modèle britannique pourrait alors devenir un exemple de régulation « ciblée et chirurgicale », permettant de concilier innovation et préservation de la sécurité nationale et individuelle.
Une vue d’ensemble des risques et bénéfices
Regarder vers l’avenir
L’évolution rapide de l’intelligence artificielle soulève des interrogations majeures sur la manière dont nos sociétés devront cohabiter avec ces technologies. Alors que les bénéfices potentiels sont immenses — dans la transformation de secteurs comme la médecine, l’industrie ou même l’éducation — les risques liés à l’émergence de systèmes qui pourraient un jour rivaliser avec l’intelligence humaine appellent à la prudence.
La Grande-Bretagne, en particulier, se doit de s’aligner sur une régulation qui répond aux attentes d’un public de plus en plus vigilant. Même si le gouvernement semble pour l’instant donner la priorité à la croissance économique, la demande populaire, exprimée par des sondages et des interventions parlementaires, pousse vers une refonte du cadre législatif autour de l’IA.
La mise en place d’un cadre « chirurgical » et ciblé apparaîtra dès lors comme une solution intermédiaire idéale. En permettant aux acteurs de la tech d’innover dans des domaines à faible risque tout en imposant des contraintes strictes sur les systèmes les plus puissants, le Royaume-Uni pourrait se positionner comme un pionnier de la régulation technologique moderne, conciliant à la fois ambition économique et sécurité publique.
Les discussions internationales, notamment lors de la réunion à Paris, pourraient contribuer à aligner les politiques publiques à travers le monde. Une coordination internationale aiderait à définir des standards communs et à éviter, sinon la fragmentation, au moins des divergences trop importantes entre les législations nationales en matière d’IA.
Dans ce contexte, l’avis des citoyens britanniques sert de boussole pour les décideurs politiques. Ils attendent des actions concrètes pour transformer la méfiance actuelle en garanties réelles pour l’avenir. Chaque chiffre et chaque pourcentage issus du sondage de YouGov réaffirment l’urgence d’intervenir avant que l’innovation ne prenne une tournure qui échapperait à tout contrôle.
L’avenir de l’IA se joue ainsi dans un équilibre délicat entre l’innovation industrielle et la préservation de la sécurité individuelle et collective. Les débats actuels montrent que, même si les avancées technologiques promettent une ère de transformations inédites, elles doivent impérativement s’accompagner d’un cadre réglementaire robuste, surtout au moment où les systèmes d’IA se rapprochent de limites potentiellement redoutables.
En somme, la Grande-Bretagne se trouve à un carrefour. Entre la tentation de stimuler une croissance économique rapide et la nécessité d’assurer une sécurité maximale à ses citoyens, le pays doit désormais tracer le chemin d’une régulation ajustée et mesurée. Cette approche, si elle parvient à conjuguer innovation et sécurité, pourrait bien servir de modèle pour d’autres nations dans la lutte contre les dérives potentielles d’une intelligence artificielle en perpétuelle expansion.