Comment l'IA et les neurosciences se poussent mutuellement

[ad_1]

Crédit: Sam Falconer

Chethan Pandarinath veut permettre aux personnes aux membres paralysés de tendre la main et de les saisir avec un bras robotique aussi naturellement que le leur. Pour l'aider à atteindre cet objectif, il a rassemblé des enregistrements de l'activité cérébrale chez les personnes paralysées. Son espoir, partagé par de nombreux autres chercheurs, est qu'il soit capable d'identifier les schémas d'activité électrique dans les neurones correspondant aux tentatives d'une personne de bouger son bras d'une manière particulière, de sorte que l'instruction puisse ensuite être transmise à une prothèse. Essentiellement, il veut lire dans leurs pensées.

«Il s’avère que c’est un problème vraiment difficile», déclare Pandarinath, ingénieur biomédical au Georgia Institute of Technology d’Atlanta. "Ces signaux du cerveau – ils sont vraiment compliqués." À la recherche d'une aide, il s'est tourné vers l'intelligence artificielle (IA). Il a alimenté ses enregistrements d'activité cérébrale sur un réseau de neurones artificiels, une architecture informatique inspirée par le cerveau, et l'a chargé d'apprendre à reproduire les données.

Les enregistrements proviennent d'un petit sous-ensemble de neurones dans le cerveau – environ 200 des 10 à 100 millions de neurones nécessaires au mouvement des bras chez l'homme. Pour comprendre un échantillon aussi petit, l’ordinateur devait trouver la structure sous-jacente des données. Ceci peut être décrit par des modèles que les chercheurs appellent des facteurs latents, qui contrôlent le comportement général de l'activité enregistrée. L’effort a révélé la dynamique temporelle du cerveau – la façon dont son schéma d’activité neuronale change d’un moment à l’autre – fournissant ainsi un ensemble d’instructions plus détaillées pour le mouvement des bras que les méthodes précédentes. «Maintenant, nous pouvons très précisément dire que l'animal tente de se déplacer selon cet angle précis, presque une milliseconde sur une milliseconde», explique Pandarinath. "C’est exactement ce que nous devons savoir pour contrôler un bras robotique."

Son travail n'est qu'un exemple de l'interaction croissante entre l'IA et les sciences cognitives. L'intelligence artificielle, grâce à sa capacité à identifier des modèles dans de grands ensembles de données complexes, a connu des succès remarquables au cours des dix dernières années, en partie en imitant la façon dont le cerveau effectue certains calculs. Des réseaux de neurones artificiels analogues aux réseaux de neurones composant le cerveau ont donné aux ordinateurs la possibilité de distinguer une image de chat d'une noix de coco, de repérer les piétons avec suffisamment de précision pour diriger une voiture autonome, et de reconnaître et répondez à la parole. Aujourd'hui, les sciences cognitives commencent à tirer parti de la puissance de l'IA, à la fois comme modèle pour développer et tester des idées sur la manière dont le cerveau effectue les calculs, ainsi que pour traiter les ensembles de données complexes produits par des chercheurs tels que Pandarinath. «La technologie est en train de boucler et d'être appliquée pour comprendre le cerveau», dit-il. Ce cycle de renforcement mutuel va probablement se poursuivre. Alors que l'IA permet aux neuroscientifiques d'obtenir de nouvelles informations sur le fonctionnement du calcul dans le cerveau, cet effort pourrait conduire à des machines capables de prendre une intelligence plus proche de celle de l'homme.

Maneesh Sahani, chercheuse en neuroscientifique théorique et chercheuse en apprentissage automatique à la Gatsby Computational Neuroscience de l’University College London, a donc tout naturel. «Nous étudions effectivement la même chose. Dans un cas, nous demandons comment résoudre mathématiquement ce problème d’apprentissage afin qu’il puisse être mis en œuvre efficacement dans une machine. Dans l’autre cas, nous examinons la seule preuve existante qu’elle peut être résolue – le cerveau. "

Un analogue du cerveau

Le succès d’intelligence artificielle doit beaucoup à l’arrivée de processeurs plus puissants et de quantités de données d’entraînement en croissance constante. Mais le concept qui sous-tend ces progrès est le réseau de neurones artificiels. Ces réseaux sont constitués de couches de nœuds analogues aux neurones. Les nœuds de la couche d'entrée sont connectés aux nœuds d'une couche masquée par une série de pondérations mathématiques qui agissent comme des synapses entre neurones. La couche cachée est connectée de manière similaire à une couche de sortie. Les données d’entrée pour une tâche telle que la reconnaissance faciale peuvent être un tableau de nombres décrivant chaque pixel d’une image d’un visage en fonction de son emplacement sur une échelle de 100 points allant du blanc au noir, ou qu’il s’agisse de rouge, de vert ou de noir. bleu. Les données sont introduites, la couche cachée multiplie ensuite ces valeurs par le poids des connexions et une réponse apparaît. Pour former le système à produire la réponse correcte, cette sortie est comparée à ce qu'elle aurait dû être si la sortie était exactement identique à l'entrée et la différence est utilisée pour ajuster les poids entre les nœuds. Une version plus complexe de ce processus, appelée réseau de neurones profonds, comporte de nombreuses couches cachées. C'est ce type de système utilisé par la société londonienne DeepMind Technologies, société de recherche en intelligence artificielle, appartenant à la société mère de Google, Alphabet, utilisée pour construire l'ordinateur qui battait un joueur humain professionnel au jeu de société Go en 2015 – une victoire largement saluée triomphe pour l'intelligence de la machine.

Un réseau de neurones artificiels n’est qu’une brève analogie avec le fonctionnement du cerveau, explique David Sussillo, neuroscientifique en informatique de la Google Brain Team à San Francisco, en Californie, qui a collaboré avec Pandarinath à ses travaux sur les facteurs latents. Par exemple, il modélise les synapses sous forme de nombres dans une matrice, alors qu’il s’agit en réalité de machines biologiques complexes qui utilisent des activités chimiques et électriques pour envoyer ou mettre fin à des signaux, et qui interagissent avec leurs voisins de manière dynamique. "Vous ne pouvez pas vous éloigner de la vérité sur ce qu’est en réalité une synapse, mais un nombre unique dans une matrice", déclare Sussillo.

Néanmoins, les réseaux de neurones artificiels se sont révélés utiles pour étudier le cerveau. Si un tel système peut produire une structure d'activité neuronale semblable à celle enregistrée dans le cerveau, les scientifiques peuvent examiner comment le système génère sa sortie, puis faire des déductions sur la manière dont le cerveau fait la même chose. Cette approche peut être appliquée à toute tâche cognitive d'intérêt pour les neuroscientifiques, y compris le traitement d'une image. «Si vous pouvez former un réseau de neurones pour le faire», dit Sussillo, «alors vous pourrez peut-être comprendre le fonctionnement de ce réseau, puis l'utiliser pour comprendre les données biologiques».

Traitement des données

Les techniques d'intelligence artificielle sont pratiques non seulement pour créer des modèles et générer des idées, mais également pour gérer des données. «Les données neuronales sont terriblement compliquées et nous allons souvent utiliser des techniques d'apprentissage automatique simplement pour rechercher une structure», explique Sahani. La principale force de l’apprentissage automatique réside dans la reconnaissance de schémas trop subtils ou trop enfouis dans d’énormes ensembles de données que les gens peuvent repérer.

Daniel Yamins, neuroscientifique en informatique, développe des réseaux de neurones pouvant imiter l'activité cérébrale.Crédit: Sam Fontejon / Stanford Univ.

L'imagerie par résonance magnétique fonctionnelle, par exemple, génère des instantanés d'activité dans tout le cerveau à une résolution de 1 à 2 millimètres toutes les secondes environ, potentiellement pendant des heures. «Le défi des neurosciences cognitives consiste à trouver le signal dans des images très, très grandes», explique Nicholas Turk-Browne, neuroscientifique cognitif de l'Université Yale à New Haven, dans le Connecticut. Turk-Browne dirige l'un des nombreux projets qui recherchent de nouvelles idées à l'intersection de la science des données et de la neuroscience.

L'utilisation d'une machine pour analyser ces données accélère les recherches. «C’est un énorme changement dans la façon dont les neurosciences sont menées», déclare Sussillo. «Les étudiants des cycles supérieurs n’ont pas besoin de faire autant de travail insensé, ils peuvent se concentrer sur de plus grandes questions. Vous pouvez en automatiser beaucoup, et vous obtiendrez peut-être des résultats plus précis. ”

Reproduire les sens

Construire un système artificiel capable de reproduire les données cérébrales a été l’approche adoptée par Daniel Yamins, neuroscientifique en informatique à l’institut Wu Tsai Neurosciences de l’Université de Stanford en Californie. En 2014, alors que Yamins était chercheur postdoctoral au Massachusetts Institute of Technology de Cambridge, ses collègues et lui ont formé un réseau de neurones profonds pour prédire l'activité cérébrale d'un singe lorsqu'il reconnaissait certains objets.. La reconnaissance des objets chez les humains et les singes est effectuée par un système cérébral appelé flux visuel ventral, qui présente deux caractéristiques architecturales principales. Premièrement, il s’agit de rétinotopie, ce qui signifie que les voies de traitement visuel dans le cerveau sont organisées de manière à refléter la manière dont l’œil perçoit l’information visuelle. Deuxièmement, le système est hiérarchique. Des zones spécifiques du cortex exécutent des tâches de plus en plus complexes, allant d'une couche qui identifie uniquement les contours des objets à une couche supérieure qui reconnaît un objet entier, tel qu'une voiture ou un visage. Les détails du fonctionnement des couches supérieures sont mal compris, mais il en résulte que le cerveau peut reconnaître un objet dans différentes positions et dans différentes conditions d'éclairage, lorsqu'il semble plus grand ou plus petit en fonction de sa distance, et même lorsqu'il est partiellement caché. Les ordinateurs sont souvent décontenancés par de tels obstacles.

Yamins et ses collègues ont construit leur réseau neuronal profond selon la même architecture rétinotopique et hiérarchique que le cerveau et lui ont montré des milliers d'images de 64 objets présentant des caractéristiques variées telles que leur taille et leur position. Lorsque le réseau a appris à reconnaître les objets, il a généré plusieurs schémas possibles d’activité neuronale. Les chercheurs ont ensuite comparé ces modèles générés par ordinateur avec les modèles enregistrés à partir des neurones de singes alors qu'ils effectuaient une tâche similaire. Il s’est avéré que les versions du réseau les plus aptes à reconnaître les objets étaient celles dont les schémas d’activité correspondaient le mieux à ceux du cerveau de singe. «Ce que vous constatez, c'est que la structure des neurones est imitée dans la structure du réseau», explique Yamins. Les chercheurs ont pu faire correspondre les zones de leur réseau aux zones du cerveau avec une précision d'environ 70%.

Les résultats ont confirmé que l'architecture du flux visuel ventral est importante pour sa capacité de traitement. En 2018, Yamins et ses collègues ont réalisé un exploit similaire en utilisant le cortex auditif, dans lequel ils ont créé un réseau de neurones profonds capable d'identifier les mots et les genres de musique à partir de clips de 2 secondes avec la même précision qu'un humain.. Il a aidé les chercheurs à identifier les zones du cortex qui effectuent la reconnaissance de la parole et celles qui reconnaissent la musique – un petit pas vers la compréhension du système auditif.

Les neuroscientifiques sont encore loin de comprendre comment le cerveau s'acquitte d'une tâche telle que distinguer le jazz du rock, mais l'apprentissage automatique leur donne un moyen de construire des modèles permettant d'explorer de telles questions. Selon M. Yamins, si les chercheurs peuvent concevoir des systèmes dont les performances sont similaires à celles du cerveau, leur conception peut éclairer les idées sur la façon dont le cerveau résout de telles tâches. C’est important, car les scientifiques n’ont souvent pas d’hypothèse de travail sur le fonctionnement du cerveau. Faire exécuter à une machine une tâche particulière leur donnera au moins une explication possible de la façon dont le cerveau réalise la même chose.

Une fois que les chercheurs ont établi une hypothèse, l'étape suivante consiste à la tester. Une fois encore, les modèles d'intelligence artificielle peuvent aider en fournissant une représentation de l'activité cérébrale pouvant être modifiée pour déterminer les facteurs pouvant être importants pour la réalisation d'une tâche spécifique. Les chercheurs sont limités par des considérations éthiques quant à leur capacité d'intervenir dans les processus du cerveau humain sain. Par conséquent, de nombreux enregistrements d'activité neuronale chez les personnes proviennent du cerveau de ceux qui souffrent d'épilepsie et qui doivent retirer du tissu cérébral. En effet, il est permis d'implanter des électrodes dans des tissus cérébraux qui seront excisés de toute façon. Les modèles animaux permettent aux chercheurs d'utiliser des procédures plus invasives, mais il existe des comportements humains, notamment la parole, qui ne peuvent pas être reproduits chez d'autres espèces. Les systèmes d'IA capables d'imiter le comportement humain et d'être perturbés sans problèmes éthiques fourniront aux scientifiques des outils supplémentaires pour explorer le fonctionnement du cerveau: les chercheurs pourraient enseigner à un réseau la reproduction de la parole, puis l'altérer pour observer ce qui se passe, par exemple.

Préoccupations communes

L'informatique et les sciences cognitives s'attaquent à de grandes questions et trouver des solutions pour les résoudre dans l'un ou l'autre de ces domaines pourrait faire progresser les deux. Une de ces questions est exactement comment l'apprentissage se produit. Les réseaux de neurones effectuent généralement un apprentissage supervisé. Pour maîtriser la reconnaissance des images, par exemple, on pourrait leur montrer des images provenant d’ImageNet, une base de données de plus de 14 millions de photographies d’objets catégorisés et annotés par des personnes. Les réseaux développent une compréhension statistique de ce que des images portant le même libellé – "chat", par exemple, ont en commun. Lorsqu'une nouvelle image est affichée, les réseaux l'examinent pour rechercher des attributs numériques similaires. s'ils trouvent une correspondance, ils déclareront que l'image est celle d'un chat.

Ce n’est évidemment pas ainsi que les bébés apprennent, explique Tomaso Poggio, neuroscientifique en informatique au Centre for Brains, Minds and Machines, qui fait partie du Massachusetts Institute of Technology. «Un bébé voit quelque chose de l'ordre d'un milliard d'images au cours de ses deux premières années de vie», dit-il. Mais peu d'images sont étiquetées – seule une faible proportion d'objets sera activement signalée et nommée. "Nous ne savons pas comment gérer cela", dit Poggio. "Nous ne savons pas comment disposer de machines tirant des enseignements de données non étiquetées pour la plupart."

Son laboratoire en est aux premières étapes d'un projet qui permettrait à un réseau de neurones d'effectuer un apprentissage non supervisé, en déduisant des modèles à partir de vidéos non étiquetées. «Nous savons que la biologie peut faire cela», dit Poggio. "La question est comment."

Yamins s'attaque à l'apprentissage non supervisé en concevant des programmes qui se comportent comme des bébés en jeu, qui interrogent leur environnement par le biais d'interactions aléatoires et développent lentement une compréhension du fonctionnement du monde. Il code essentiellement par curiosité pour motiver l’ordinateur à explorer, dans l’espoir que de nouveaux comportements émergent.

Une autre question en suspens est de savoir si certains aspects de l’intelligence sont «installés» par l’évolution. Par exemple, les gens semblent être prédisposés à reconnaître un visage comme un visage; les bébés peuvent le faire dès les premières heures de la vie. Poggio suggère peut-être que nos gènes codent un mécanisme pour apprendre cette tâche rapidement et tôt dans le développement. Décrypter si cette idée est correcte pourrait permettre aux informaticiens de trouver un moyen d'aider les machines à apprendre. Et d'autres chercheurs étudient les bases neurales de la moralité. "Les gens ont peur des machines" diaboliques "", dit Poggio. "Nous ferions probablement mieux de savoir comment notre comportement moral se pose si nous voulons construire de bonnes machines, des machines éthiques."

Yamins explique qu'il est difficile de voir comment les neurosciences pourront à elles seules révéler le fonctionnement d'un apprentissage non supervisé. "Si vous ne disposez pas d'une solution d'IA, si rien ne fonctionne de manière artificielle, vous ne pouvez probablement pas avoir un modèle du cerveau", dit-il. Il est plus probable, pense-t-il, que les informaticiens proposent une ou plusieurs solutions que les neuroscientifiques pourront ensuite tester. "Il se peut qu’ils se trompent", dit-il, "mais c’est pourquoi vous les vérifiez."

Répondre à ces énigmes pourrait créer des machines plus intelligentes, capables d'apprendre de leurs environnements et de combiner la vitesse et la puissance de traitement des ordinateurs avec des capacités plus humaines. Les capacités de traitement de données et de modélisation des ordinateurs apportent déjà des avancées dans le domaine de la science du cerveau qui, selon les chercheurs, vont probablement se développer. «L’intelligence artificielle va avoir un impact énorme sur les neurosciences», déclare Sussillo, «et je veux faire partie de cela.»

[ad_2]