L'intelligence artificielle et l'imagerie cérébrale pour décoder les pensées — Genève Vision, un nouveau point de vue

0

Pour parer aux critiques, l’équipe de recherche souligne que son outil ne fonctionne qu’après un entraînement du cerveau en passant de longues heures dans un appareil d’imagerie par résonance magnétique (IRM).

De précédentes interfaces cerveau-machine, destinées à permettre à des personnes souffrant de handicaps majeurs de retrouver de l’autonomie, ont déjà fait leurs preuves. L’une de ces interfaces a ainsi pu retranscrire les phrases d’un paralytique incapable de parler ou de taper sur un clavier.

Mais ces dispositifs requièrent une chirurgie invasive, avec l’implantation d’électrodes dans le cerveau, et se focalisent uniquement sur les zones du cerveau qui contrôlent notre bouche pour former des mots.

Ecouter aussi le sujet dans l’émission Forum

Un décodeur de sémantique

« Notre système, lui, fonctionne au niveau des idées, de la sémantique, du sens », a dit lors d’une conférence de presse Alexander Huth, neuroscientifique à l’Université d’Austin au Texas, coauteur de l’étude. Et ce de manière non-invasive.

Jerry Tang se prépare à collecter des données sur l’activité cérébrale au centre d’imagerie biomédicale de l’Université du Texas à Austin. Le décodeur sémantique a été entraîné pendant des dizaines d’heures sur de données d’activité cérébrale de personnes participantes, collectées dans un scanner IRMf. [Nolan Zunk – The University of Texas at Austin]

Durant l’expérience, trois personnes ont passé seize heures dans un appareil d’imagerie médicale fonctionnelle (IRMf): cette technique permet d’enregistrer les variations du flux sanguin dans le cerveau, rendant ainsi compte en temps réel de l’activité des zones cérébrales durant certaines tâches (parole, mouvement…).

On a fait écouter aux volontaires des podcasts racontant des histoires. Ce qui a permis aux chercheuses et chercheurs de déterminer comment les mots, les phrases et leur signification stimulaient différentes régions du cerveau.

Les scientifiques ont ensuite intégré ces données à un réseau neuronal artificiel de traitement du langage utilisant GPT-1, le prédécesseur du robot conversationnel ChatGPT.

Le réseau a été entraîné à prédire comment chaque cerveau réagirait au discours entendu. Chaque personne a ensuite écouté une nouvelle histoire à l’intérieur de la machine IRMf, afin de vérifier si le réseau avait deviné juste.

« Plus profond que le langage »

Résultat: même s’il paraphrasait ou changeait souvent l’ordre des mots, le décodeur arrivait à « reconstituer le sens de ce que la personne entendait », a expliqué Jerry Tang, de l’Université d’Austin, premier auteur de l’étude.

Le stimulus et son sens décodé

Les prédictions du décodeur à partir d’enregistrements cérébraux collectés pendant qu’une personne écoutait quatre histoires. Des exemples de segments ont été sélectionnés manuellement et annotés pour illustrer les comportements typiques du décodeur. Le décodeur reproduit exactement certains mots et phrases (bleu) et capture l’essentiel (violet) de beaucoup d’autres. Les erreurs sont en rouge. [Jerry Tang & al. – The University of Texas at Austin]

Les prédictions du décodeur à partir d’enregistrements cérébraux collectés pendant qu’une personne écoutait quatre histoires. Des exemples de segments ont été sélectionnés manuellement et annotés pour illustrer les comportements typiques du décodeur. Le décodeur reproduit exactement certains mots et phrases (bleu) et capture l’essentiel (violet) de beaucoup d’autres. Les erreurs sont en rouge. [Jerry Tang & al. – The University of Texas at Austin]

Par exemple, lorsqu’une personne-test a entendu la phrase « Je n’ai pas encore mon permis de conduire », le modèle de réseau a répondu « Elle n’a même pas encore commencé à apprendre à conduire » .

L’expérience est allée plus loin: même quand les participants imaginaient leurs propres histoires ou visionnaient des films muets, le décodeur était capable de saisir l’essentiel de leur pensée.

Ces résultats suggèrent que « nous décodons quelque chose qui est plus profond que le langage, puis nous le convertissons en langage », a poursuivi Alexander Huth.

Lire aussi: Les intelligences artificielles ont de moins en moins besoin des humains et Les IA comme ChatGPT, Bing ou Bard vont-elles influencer le débat public?

Une réelle avancée

Il s’agit d’une réelle avancée par rapport aux précédentes interfaces cerveau-machine, a réagi David Rodriguez-Arias Vailhen, professeur de bioéthique à l’Université espagnole de Grenade, qui n’a pas participé à l’étude.

Cela nous rapproche d’un avenir où les machines seront « capables de lire dans les esprits et de transcrire les pensées », a commenté le scientifique. Mais il avertit que cela pourrait se faire contre la volonté des personnes, par exemple lorsqu’elles dorment, et donc compromettre à l’avenir notre liberté.

Des risques que les personnes ayant rédigé l’étude ont anticipés, en démontrant que le décodeur ne fonctionnait pas sur le cerveau d’une personne sur lequel il ne s’était pas entraîné.

Les trois personnes ayant participé ont en outre réussi à déjouer facilement la machine: tout en écoutant un podcast, ils et elles devaient compter par sept, imaginer et nommer des animaux, ou se raconter une autre histoire dans leur tête… Autant de tactiques qui ont « saboté » le travail du décodeur.

Les scientifiques ayant mené cette étude ont néanmoins appelé à la mise en place d’une réglementation visant à protéger la vie privée.

Lire le Grand Format: Intelligence artificielle, ange ou démon?

Doug, le chien de « Là-Haut » (Pixar, 2009), avait déjà un collier traduisant ses pensées!

afp/sjaq