Les géants de la tech vont devoir changer radicalement leurs pratiques. L’autorité britannique de régulation des communications, Ofcom, vient d’annoncer une série de mesures contraignantes pour protéger les enfants des contenus nocifs sur internet. Ces nouvelles règles, publiées ce lundi dans le cadre de l’application de la loi britannique sur la sécurité en ligne (Online Safety Act), obligeront les plateformes numériques à mettre en place des dispositifs efficaces pour protéger les mineurs, sous peine de sanctions financières considérables.
Un arsenal de plus de 40 mesures obligatoires dès juillet
Les plateformes technologiques devront appliquer ces nouvelles directives à compter du 25 juillet 2025. Le champ d’application est vaste et concerne tous les sites et applications utilisés par les enfants : réseaux sociaux, moteurs de recherche et plateformes de jeux vidéo.
Parmi les mesures phares annoncées par Ofcom, on trouve :
- Vérification d’âge renforcée : Les services considérés comme « à haut risque » (principalement les grandes plateformes sociales) devront mettre en place des systèmes « hautement efficaces » pour identifier les utilisateurs de moins de 18 ans.
- Filtrage algorithmique : Les algorithmes de recommandation devront être modifiés pour filtrer les contenus préjudiciables.
- Procédures de suppression rapide : Tous les sites et applications devront disposer de protocoles permettant de retirer rapidement les contenus dangereux.
- Signalement simplifié : Des moyens « simples et directs » devront être proposés aux enfants pour signaler des contenus inappropriés.
Les plateformes devront également empêcher la diffusion de contenus préjudiciables tels que les matériels violents, haineux ou abusifs, ainsi que le cyberharcèlement. Les contenus particulièrement nocifs liés au suicide, à l’automutilation et aux troubles alimentaires devront être totalement absents des fils d’actualité des enfants, tout comme la pornographie.
« Ces changements représentent une véritable ‘remise à zéro’ pour les enfants en ligne. Ils garantiront des flux de médias sociaux plus sûrs avec moins de contenus nocifs et dangereux, des protections contre les contacts avec des inconnus et des vérifications d’âge efficaces pour les contenus réservés aux adultes. »
Melanie Dawes, directrice générale d’Ofcom
Des sanctions dissuasives pour les contrevenants
Les plateformes qui ne respecteront pas ces nouvelles règles s’exposeront à des amendes pouvant atteindre 10% de leur chiffre d’affaires mondial. Dans les cas les plus graves, Ofcom pourrait même ordonner la fermeture complète des services concernés.
Cette démarche s’inscrit dans un contexte où la protection des mineurs en ligne est devenue une préoccupation majeure au Royaume-Uni et à l’échelle internationale. Plusieurs études récentes ont démontré l’impact néfaste que peuvent avoir certains contenus sur la santé mentale des jeunes utilisateurs.
Vers un couvre-feu des réseaux sociaux pour les mineurs ?
En parallèle de ces annonces, Peter Kyle, secrétaire d’État britannique à la Technologie, a évoqué la possibilité d’instaurer un couvre-feu sur les réseaux sociaux pour les enfants. Cette réflexion fait suite à l’initiative récente de TikTok, qui a introduit une fonctionnalité encourageant les utilisateurs de moins de 16 ans à fermer l’application après 22 heures.
« Ce sont des choses que j’examine attentivement », a déclaré Kyle au Telegraph. « Je ne vais pas prendre une décision qui aura un impact profond sur chaque enfant du pays sans m’assurer que les preuves la soutiennent – mais j’investis dans la recherche de ces preuves. »
« Grandir à l’ère numérique devrait permettre aux enfants de profiter des immenses avantages du monde en ligne en toute sécurité, mais ces dernières années, trop de jeunes ont été exposés à des environnements anarchiques et toxiques en ligne, qui peuvent conduire à des conséquences réelles et parfois fatales. Cela ne peut pas continuer. »
Peter Kyle
Des critiques sur l’insuffisance des mesures
Malgré l’ampleur des mesures annoncées, certains militants estiment qu’elles ne vont pas assez loin. Ian Russell, dont la fille Molly, âgée de 14 ans, s’est suicidée après avoir consulté des contenus nocifs en ligne, a exprimé sa déception par l’intermédiaire de sa fondation caritative, la Molly Rose Foundation. La fondation soutient que les codes ne vont pas assez loin dans la modération des contenus liés au suicide et à l’automutilation, ainsi que dans le blocage des défis en ligne dangereux.
« Je suis consterné par le manque d’ambition dans les mesures annoncées aujourd’hui. Au lieu d’agir rapidement pour résoudre les problèmes, la triste réalité est que les mesures d’Ofcom ne permettront pas d’éviter d’autres décès de jeunes comme celui de ma fille Molly. »
Ian Russell
Révolution numérique et responsabilité collective
Cette initiative britannique s’inscrit dans un mouvement plus large de régulation des géants du numérique, observable également dans l’Union européenne avec le Digital Services Act (DSA). L’approche d’Ofcom vise à responsabiliser les plateformes tout en préservant les aspects positifs d’internet pour les jeunes. Le défi est de taille : protéger les enfants sans entraver leur accès aux opportunités d’apprentissage et de socialisation que le numérique peut offrir.
Les entreprises technologiques disposent maintenant de trois mois pour adapter leurs services et se conformer à ces nouvelles exigences. Une période qui marquera sans doute un tournant dans la manière dont les enfants interagissent avec le monde numérique au Royaume-Uni, et qui pourrait inspirer d’autres pays à suivre cet exemple.