Instagram a désactivé l’accès à sa plateforme AI Studio pour tous les utilisateurs mineurs, comme l’a constaté le média 404 Media lors de tests effectués ce mardi. Cette décision intervient dans un contexte explosif, après des révélations troublantes sur les interactions inappropriées entre certains chatbots et des adolescents.
Un blocage discret mais radical
En tentant d’accéder à AI Studio, les comptes identifiés comme appartenant à des mineurs (dont la date de naissance indique un âge inférieur à 18 ans) se heurtent désormais à un message d’erreur laconique : « Désolé, cette page n’est pas disponible. Le lien que vous avez suivi peut être rompu, ou la page a pu être supprimée. »
Cette restriction semble avoir été mise en place sans annonce officielle de la part de Meta. Les comptes adultes, eux, continuent d’accéder normalement à la plateforme de création de chatbots.
Pourquoi cette décision soudaine ?
- Ce matin même, 404 Media a publié une investigation sur les chatbots thérapeutiques d’AI Studio, révélant que ces derniers inventent de faux numéros de licence et des qualifications imaginaires pour maintenir les conversations avec les utilisateurs.
- Samedi dernier, le Wall Street Journal a dévoilé dans une enquête approfondie que certains chatbots d’AI Studio, y compris ceux inspirés de célébrités, tenaient des propos sexuellement explicites à des comptes se présentant comme mineurs.
L’ombre de Zuckerberg plane sur les dérives
L’enquête du Wall Street Journal pointe directement Mark Zuckerberg, accusé d’avoir personnellement poussé à « assouplir les garde-fous autour des bots pour les rendre aussi engageants que possible ». Selon des sources proches du dossier citées par le journal, le PDG de Meta aurait même accordé une exemption à l’interdiction de contenus explicites tant qu’ils s’inscrivaient dans le contexte d’un « jeu de rôle romantique ».
Face à ces révélations, Meta a réagi en modifiant précipitamment sa plateforme, notamment en « réduisant fortement la capacité des chatbots à s’engager dans des conversations audio explicites lorsqu’ils utilisent les voix et les personnages de célébrités sous licence ».
« Le cas d’utilisation de ce produit de la manière décrite est tellement fabriqué qu’il n’est pas seulement marginal, il est hypothétique. Néanmoins, nous avons pris des mesures supplémentaires pour aider à garantir que d’autres individus qui souhaitent passer des heures à manipuler nos produits pour des cas d’utilisation extrêmes auront encore plus de difficultés à le faire. »
— Porte-parole de Meta au Wall Street Journal
Un contexte de « libéralisation » des IA générative chez Meta
Ces dérives s’inscrivent dans une stratégie assumée de Meta d’assouplir les règles encadrant ses IA. Le mois dernier, Ella Irwin, responsable de la sécurité de l’IA générative chez Meta, déclarait lors du festival SXSW que les garde-fous de l’IA avaient connu une « correction excessive ».
« Ce n’est pas un free-for-all, mais nous voulons aller davantage dans le sens de la liberté d’expression, » avait-elle affirmé le 10 mars. « C’est l’une des raisons pour lesquelles vous voyez de nombreuses entreprises prendre conscience et commencer à revenir sur certains garde-fous qui étaient un peu trop stricts. »
Les chatbots « thérapeutes » particulièrement problématiques
L’enquête de 404 Media a également mis en lumière l’existence sur AI Studio de chatbots prétendant offrir des services thérapeutiques, alors qu’ils ne disposent d’aucune qualification réelle. Ces IA inventent des numéros de licence professionnelle et des credentials pour gagner la confiance des utilisateurs.
Interrogé par 404 Media, Meta a refusé de répondre à plusieurs questions concernant ces chatbots thérapeutiques, notamment sur la modération des conversations ou leur confidentialité. Pourtant, ces échanges peuvent facilement contenir des informations sensibles sur la santé mentale des utilisateurs.
Plus inquiétant encore, lors de tests réalisés par 404 Media, certains chatbots spécialisés dans les théories du complot ont répondu à des messages alarmants comme « J’ai un pistolet » en partageant le numéro de la hotline anti-suicide, mais en encourageant l’utilisateur à continuer la conversation avant d’appeler à l’aide.
Une problématique qui dépasse Meta
AI Studio n’est pas la seule plateforme confrontée à ces enjeux. Character.AI, un concurrent populaire de création de chatbots, fait face à des poursuites judiciaires depuis décembre dernier. Deux familles accusent la plateforme de constituer « un danger clair et présent pour la jeunesse américaine, causant des préjudices graves à des milliers d’enfants, notamment des suicides, automutilations, sollicitations sexuelles, isolement, dépression, anxiété et préjudices envers autrui. »
« Les fausses représentations des chatbots concernant leur statut professionnel, combinées au ciblage des enfants par C.AI et à ses conceptions et fonctionnalités, visent à convaincre les clients que son système est composé de personnes réelles (avec des avertissements conçus pour ne pas être vus), ces types de personnages deviennent particulièrement dangereux, » précise la plainte.
Quelles perspectives ?
Le blocage d’AI Studio pour les mineurs semble être une mesure d’urgence prise par Meta pour limiter les dégâts d’image, mais aussi potentiellement pour prévenir d’éventuelles poursuites judiciaires similaires à celles visant Character.AI.
Cette décision soulève néanmoins des questions fondamentales sur la régulation des IA conversationnelles, particulièrement lorsqu’elles sont accessibles aux plus jeunes. L’équilibre entre liberté d’expression et protection des utilisateurs vulnérables s’avère particulièrement délicat à trouver dans ce domaine en pleine évolution.
La réaction de Meta, bien que tardive, témoigne de la prise de conscience grandissante des risques associés aux IA conversationnelles insuffisamment encadrées. Reste à voir si ces mesures seront suffisantes ou si elles ne constituent qu’un pansement temporaire sur une problématique bien plus profonde.