Plus
    ActualitésIntelligence ArtificielleMeta et la lecture cérébrale : la neuroscience au...

    Meta et la lecture cérébrale : la neuroscience au service de l’intelligence artificielle

    -

    L'appareil d'imagerie magnétique utilisé par Meta
    Image 3: L’appareil imposant qui permet la lecture cérébrale, comparé à un « MRI sur le côté »

    Meta, anciennement connu sous le nom de Facebook, se positionne désormais en acteur majeur du croisement entre neurosciences et intelligence artificielle. Fort de plusieurs années d’expérimentations, le géant du web a récemment mis au point un système de lecture cérébrale permettant de décoder des messages tapés sur un clavier, uniquement à partir de l’activité magnétique du cerveau. Nous vous proposons un tour d’horizon détaillé de cette prouesse technologique, qui s’inscrit dans une volonté plus large de comprendre les principes de l’intelligence humaine pour mieux concevoir l’IA de demain.

    Une histoire qui débute en 2017

    Dès 2017, lors d’une conférence interne, Mark Zuckerberg avait suscité l’engouement en dévoilant un projet audacieux : un chapeau de lecture cérébrale permettant de transformer la pensée en message textuel. À l’époque, cette idée semblait relever de la science-fiction. Zuckerberg disait alors :

    « Nous travaillons sur un système qui vous permettra de taper directement à partir de votre cerveau. »

    Ce projet, qui avait fait couler beaucoup d’encre et soulevé des questions éthiques et techniques, fut ultérieurement mis entre parenthèses, le temps que des avancées technologiques viennent en soutien. Bien que l’idée d’un accessoire portable reste du domaine du rêve, Meta a persévéré dans d’autres pistes de recherche en neurosciences, et c’est ainsi qu’est né le système Brain2Qwerty, fruit d’une collaboration étroite entre spécialistes en intelligence artificielle et chercheurs en neuroscience.

    Le dispositif Brain2Qwerty : de l’idée à la démonstration

    Contrairement à ce que l’on pourrait attendre d’un appareil destiné à une utilisation commerciale, le système de décodage cérébral présenté par Meta n’est pas conçu pour quitter le laboratoire. Il repose sur un appareil de magnétoencéphalographie (MEG) – un équipement de grande taille, surdimensionné et coûteux (environ 2 millions de dollars), qui pèse près d’une demi-tonne. Cette machine, qui nécessite un environnement spécialement protégé contre les champs magnétiques externes, capte en temps réel les signaux magnétiques produits par l’activité neuronale au sein du cortex.

    L’idée est simple, en théorie :

    • Les volontaires sont installés dans un environnement contrôlé.
    • Toutefois, ils doivent rester immobiles (car le moindre mouvement entraîne une perte du signal) pendant qu’ils tapent des phrases sur un clavier.
    • Les signaux cérébraux, captés par le MEG, sont ensuite traités par un réseau de neurones profond.

    Ce réseau permet d’identifier, à partir des signaux mesurés, la touche qui a été pressée à un moment précis. D’après Jean-Rémi King, le responsable de l’équipe « Brain & AI » de Meta basée à Paris, le système parvient à reconnaître la lettre correcte jusqu’à 80 % du temps pour un utilisateur maîtrisant la frappe.

    Figure technique :

    Étape du processus Description
    Acquisition des signaux Utilisation d’un scanner MEG pour mesurer l’activité magnétique produite par les neurones lors du tapotement
    Traitement par le deep learning Analyse détaillée des signaux par un réseau de neurones pour identifier la touche tapée
    Décodage final Reconstruction des phrases à partir des lettres identifiées avec un taux d’erreur moyen de 32 %

    Des résultats prometteurs et des perspectives fascinantes

    Les chercheurs de Meta dévoilent que ce dispositif ne se contente pas de traduire l’activité cérébrale en caractères de clavier, il ouvre la voie à une compréhension plus globale de la manière dont le cerveau structure le langage. En observant l’ordre hiérarchique de la production du langage, ils ont pu recueillir des preuves indiquant que le cerveau organise la génération du langage de façon hiérarchisée : une impulsion initiale lance la production d’une phrase, qui se décline ensuite en signaux successifs pour former des mots, des syllabes et enfin des lettres.

    « La structure du langage dans le cerveau se déploie de manière hiérarchique, chaque niveau influençant et interagissant avec les autres, » explique Sumner Norman, fondateur de Forest Neurotech, qui, bien que n’ayant pas participé directement à ce projet, salue l’effort de Meta pour collecter des données d’une qualité exceptionnelle.

    Les limites techniques et les défis à venir

    L’ensemble du travail n’est pas sans rappeler les approches invasives, qui utilisent des électrodes implantées directement dans le cerveau pour capter des signaux électriques. Ces méthodes, bien que nettement plus précises, impliquent une chirurgie et ne concernent que des groupes très restreints de neurones. En revanche, le système développé par Meta se démarque par sa capacité à observer l’activité cérébrale dans son ensemble, sans nécessiter d’implantation.

    Un inconvénient majeur persiste : l’outil est extrêmement sensible au moindre mouvement du sujet. Comme l’explique Jean-Rémi King :

    « La seconde où la tête du sujet bouge, le signal est perdu. Notre objectif n’est donc pas de créer un produit accessible au grand public, mais d’explorer les fondements de l’intelligence. »

    Ce constat freine la perspective d’applications immédiates pour des personnes en situation de handicap ou pour une utilisation quotidienne, contrairement aux implants cérébraux testés par Neuralink ou d’autres équipes de recherche.

    Un projet réalisé en collaboration dans un contexte international

    Pour mettre en œuvre ce projet ambitieux, Meta a réuni une équipe de 35 volontaires, qui ont participé aux expérimentations sur une période d’environ 20 heures chacun, dans un centre de recherche en Espagne, le Basque Center on Cognition, Brain, and Language. Les volontaires tapaient des phrases prédéfinies, telles que « el procesador ejecuta la instrucción », pendant que le MEG captait leurs signaux cérébraux en temps réel.

    Les données ainsi collectées ont été intégrées dans le modèle de deep learning baptisé « Brain2Qwerty », permettant de créer un corpus unique sur la conversion des signaux cérébraux en texte. Une fois le modèle suffisamment entraîné par l’observation de milliers de caractères, il parvient à prédire avec une certaine fiabilité les touches pressées.

    Des implications pour l’avenir de l’intelligence artificielle

    Au-delà de l’aspect technique du décodage, ce projet traduit une ambition fondamentale : comprendre la manière dont le cerveau humain construit le langage afin d’en tirer des enseignements pour la conception d’IA évoluées. Jean-Rémi King résume cette motivation en déclarant :

    « La langue est devenue la base de l’IA. Les principes computationnels qui permettent au cerveau – ou à tout système – d’acquérir une telle capacité sont au cœur de notre travail. »

    Cette compréhension pourrait notamment mener à des chatbots ou assistants virtuels capables d’interactions plus naturelles, en s’appuyant sur une compréhension fine du traitement du langage.

    Les défis d’une recherche de fond

    Si cette avancée est prometteuse, il convient de nuancer les espoirs à court terme en matière de produits commerciaux. Le système Brain2Qwerty n’a pas vocation à devenir un gadget pour la consommation courante, mais il constitue une étape cruciale dans la compréhension des mécanismes fondamentaux de l’intelligence humaine.

    Les experts rappellent que la comparaison avec des appareils médicaux, tels que l’IRM, est pertinente. Sumner Norman compare l’appareil utilisé dans ces expériences à :

    « Un MRI mis sur le côté et suspendu au-dessus de la tête de l’utilisateur. »

    Cette comparaison éclaire pourquoi le système reste aujourd’hui limité à un usage expérimental, nécessitant des installations de grande envergure.

    Une innovation au cœur d’une stratégie ambitieuse

    En investissant dans la compréhension des signaux cérébraux sans recourir à l’invasivité, Meta place la barre haute en matière de recherche interdisciplinaire. Ce choix stratégique témoigne d’une volonté de fusionner les avancées en neurosciences et en intelligence artificielle pour explorer les mécanismes du raisonnement et de la compréhension du langage.

    Dans un contexte de compétition technologique, alors que d’autres entreprises comme Neuralink optent pour des approches invasives, Meta mise sur des technologies non invasives pour obtenir une vue d’ensemble du fonctionnement cérébral.

    Enjeux éthiques et perspectives de transformation

    À mesure que la capacité de décoder des pensées progresse, la frontière entre vie privée et technologie se fait ténue. Les expérimentations actuelles, bien que strictement encadrées, soulèvent des questions éthiques essentielles. Comment garantir que ces technologies ne seront pas détournées de leur vocation de recherche fondamentale ? Quelles régulations mettre en place pour protéger l’intimité des individus dans un futur où leurs pensées pourraient être lues par des machines ?

    Un panorama des applications futures possibles

    Même si le Brain2Qwerty reste un outil de laboratoire, plusieurs pistes d’applications méritent d’être explorées :

    • Amélioration des interfaces cerveau-machine (ICM) non-invasives : Affiner la technique de décodage afin de créer des systèmes de communication pour des personnes en situation de handicap ou développer des dispositifs d’assistance pour des patients atteints de maladies neurodégénératives.
    • Modélisation du langage pour l’IA : Comprendre comment le cerveau organise et hiérarchise le langage pour concevoir des architectures d’IA plus avancées, imitant la structure humaine.
    • Applications en réalité augmentée et virtuelle : Dans un futur où les environnements virtuels seront omniprésents, contrôler des interfaces par la pensée pourrait révolutionner nos interactions avec le numérique.
    • Recherche fondamentale en neurosciences : Ces avancées offrent une opportunité unique pour approfondir notre compréhension des mystères du cerveau humain.

    Vers une synergie entre neurosciences et IA

    La recherche menée par Meta illustre la convergence mondiale entre neurosciences et intelligence artificielle. Bien que le système de lecture cérébrale ne soit pas destiné à un déploiement commercial immédiat, il représente une étape essentielle pour décrypter les mécanismes du langage et, par extension, de l’intelligence. En alliant neuroimagerie moderne et deep learning, les chercheurs ouvrent la voie à des innovations susceptibles de transformer notre rapport à la technologie.

    En synthétisant ces approches, Meta prépare le terrain pour des intelligences artificielles qui ne se contenteront pas de formules mathématiques, mais s’inspireront des processus biologiques régissant la communication et la pensée humaine.

    Benjamin
    Benjaminhttps://www.technofeed.fr
    Passionné par les dernières technologies et notamment l'IA, je suis un amateur de tech curieux et enthousiaste qui explore les innovations qui façonnent notre monde numérique. Diplômé en communication digitale, je transforme ma fascination pour l'innovation technologique en récits captivants qui décryptent les avancées les plus prometteuses. Sur TechnoFeed, je m'attache à vulgariser des concepts complexes pour les rendre accessibles à tous, des passionnés de high-tech aux néophytes. Mon objectif : démystifier la technologie et montrer comment elle peut améliorer concrètement notre quotidien. Entre analyses pointues et regards humains, je vous invite à découvrir les technologies de demain à travers mes articles. Quand je ne suis pas plongé dans l'actualité tech, vous me trouverez probablement à tester de nouveaux outils SaaS, de nouvelles IA ou échanger avec des entrepreneurs passionnés. La technologie n'est pas qu'une histoire de machines, c'est avant tout une histoire d'hommes et de passion !

    Nos Dernières Actus

    Meituan régale ses actionnaires : +20% de revenus au T4 2024, la concurrence s’accroche

    Le géant chinois de la livraison, Meituan, a dévoilé des résultats trimestriels (T4 2024) plus que satisfaisants. Malgré une...

    De l’unité 8200 à Wiz : Assaf Rappaport, le stratège de la cybersécurité cloud qui vaut 1,2 milliard

    De l'unité 8200 à Wiz : Assaf Rappaport, le stratège de la cybersécurité cloud qui vaut 1,2 milliard Assaf Rappaport,...

    Exode chez Inflection AI : Quand la ruée vers l’or de l’IA tourne au mirage

    L'intelligence artificielle, nouvel eldorado technologique, attire les convoitises et les investissements comme des aimants. Derrière les paillettes et les...

    Meta et OpenAI ont-ils utilisé LibGen, la plus grande bibliothèque pirate, pour entraîner leurs IA ?

    Un article publié par Alex Reisner dans The Atlantic met en lumière une pratique controversée des géants de la...

    Tendances

    Tencent ralentit ses achats de GPU grâce à l’optimisation DeepSeek

    Le géant technologique chinois Tencent vient de révéler une stratégie qui pourrait bien faire grincer des dents chez les...

    Quick Commerce Indien : Blinkit, Zepto et Swiggy Instamart, nouveaux rois de la pub digitale ?

    L'Inde, terre de contrastes et d'innovations, voit émerger un nouveau phénomène : la publicité au cœur du quick commerce....

    Nos Guides Pratiques

    Comment fonctionne ChatGPT ? Les dessous du chatbot le plus connu

    Comment fonctionne ChatGPT ? Le guide ultime Aujourd'hui, nous plongeons...

    Que peut-on faire avec ChatGPT ? Exemples détaillés

    Que peut-on faire avec ChatGPT ? Un guide détaillé...

    A lire égalementÀ NE PAS RATER !
    Recommandés pour vous