[ad_1]
En tant que postdoc, la physiologiste Valentina Di Santo a passé beaucoup de temps à examiner des films de poissons à haute résolution.
Di Santo enquêtait sur les mouvements impliqués lorsque des poissons tels que des patins nagent. Elle a filmé des poissons individuels dans une cuve et a annoté manuellement leurs parties du corps image par image, un effort qui a nécessité environ un mois de travail à temps plein pour une durée de 72 secondes. À l'aide d'une application open-source appelée DLTdv, développée en langage informatique MATLAB, elle a ensuite extrait les coordonnées des parties du corps, informations clés nécessaires à sa recherche. Cette analyse a montré, entre autres choses, que lorsque les petits patins (Leucoraja erinacea) ont besoin de nager plus vite, ils créent une arche sur le bord de leurs nageoires pour raidir son bord.
Cependant, alors que les recherches de Di Santo passaient d’individus à des bancs de poissons, il était clair qu’une nouvelle approche serait nécessaire. «Cela me prendrait toujours pour analyser (ces données) avec le même détail», déclare Di Santo, qui est maintenant à l'Université de Stockholm. Elle s’est donc tournée vers DeepLabCut.
DeepLabCut est un progiciel open-source développé par Mackenzie Mathis, neuroscientifique à l'université Harvard de Cambridge, dans le Massachusetts, et ses collègues, qui permet aux utilisateurs de former un modèle informatique appelé réseau de neurones pour suivre des postures animales dans des vidéos. La version disponible au public ne permettait pas de suivre facilement plusieurs animaux au fil du temps, mais l’équipe de Mathis a accepté d’exécuter une version mise à jour à l’aide des données de poissons, que Di Santo a annotée à l’aide d’une interface graphique. La sortie préliminaire semble prometteuse, dit Di Santo, bien qu'elle attende de voir comment l'outil fonctionne sur l'ensemble des données. Mais sans DeepLabCut, dit-elle, l'étude "ne serait pas possible".
Les chercheurs s'intéressent depuis longtemps au suivi du mouvement des animaux, explique Mathis, car le mouvement est «une très bonne lecture de l'intention dans le cerveau». Mais traditionnellement, cela impliquait de passer des heures à enregistrer les comportements à la main. Selon Talmo Pereira, neuroscientifique à l’Université de Princeton, dans le New Jersey, la génération précédente d’outils de repérage des animaux déterminait principalement le centre de masse et parfois l’orientation.
Au cours des dernières années, l’apprentissage en profondeur – une méthode d’intelligence artificielle qui utilise des réseaux de neurones pour reconnaître des schémas de données subtils – a permis la création d’une nouvelle série d’outils. Les logiciels libres tels que DeepLabCut, LEAP Estimates Animal (LEAP) et DeepFly3D utilisent l'apprentissage en profondeur pour déterminer les coordonnées des parties du corps d'un animal dans des vidéos. Des outils complémentaires effectuent des tâches telles que l'identification d'animaux spécifiques. Ces forfaits ont facilité la recherche dans tous les domaines, de l'étude du mouvement chez les guépards à la chasse au comportement collectif du poisson zèbre.
Chaque outil a ses limites. certains nécessitent des installations expérimentales spécifiques ou ne fonctionnent pas bien lorsque les animaux se rassemblent toujours. Mais les méthodes vont s’améliorer parallèlement aux progrès de la capture d’images et de l’apprentissage automatique, explique Sandeep Robert Datta, neuroscientifique à la Harvard Medical School de Boston, dans le Massachusetts. «Ce que vous regardez maintenant n’est que le début d’une transformation sur le long terme de la manière dont les neuroscientifiques étudient le comportement», dit-il.
Prendre la pose
DeepLabCut est basé sur un logiciel utilisé pour analyser les poses humaines. L’équipe de Mathis a adapté son réseau de neurones sous-jacent à d’autres animaux avec relativement peu de données d’entraînement. Entre 50 et 200 cadres annotés manuellement sont généralement suffisants pour des études de laboratoire standard, bien que la quantité nécessaire dépende de facteurs tels que la qualité des données et la cohérence des personnes qui effectuent l'étiquetage, explique Mathis. En plus d'annoter les parties du corps avec une interface graphique, les utilisateurs peuvent émettre des commandes via un carnet de notes Jupyter, un document de calcul très utilisé par les scientifiques. Les scientifiques ont utilisé DeepLabCut pour étudier à la fois les animaux de laboratoire et les animaux sauvages, notamment les souris, les araignées, les poulpes et les guépards. Le neuroscientifique Wujie Zhang de l'Université de Californie à Berkeley, et son collègue l'ont utilisé pour estimer l'activité comportementale des chauves-souris égyptiennes.Rousettus aegyptiacus) dans le laboratoire.
Le progiciel de suivi de la posture basé sur l'apprentissage en profondeur LEAP, développé par Pereira et ses collègues, nécessite 50 à 100 cadres annotés pour les animaux de laboratoire, explique Pereira. Davantage de données d’entraînement seraient nécessaires pour les prises de vues d’animaux sauvages, bien que son équipe n’ait pas encore mené suffisamment d’expériences pour en déterminer la quantité. Les chercheurs prévoient de publier un autre package appelé Social LEAP (SLEAP) cette année afin de mieux gérer les images de plusieurs animaux en interaction étroite.
Jake Graving, scientifique en comportement à l’Institut Max Planck du comportement animal de Constance, en Allemagne, et ses collègues ont comparé les performances d’une réimplémentation de l’algorithme DeepLabCut et de LEAP dans des vidéos de zèbres de Grevy (Equus Grevyi). Ils indiquent que les images traitées par LEAP sont environ 10% plus rapides, mais que l'algorithme DeepLabCut est environ trois fois plus précis.
L’équipe de Graving a mis au point un outil alternatif appelé DeepPoseKit, qui a été utilisé pour étudier les comportements du criquet pèlerin (Schistocerca gregaria), comme frapper et donner des coups de pied. Les chercheurs ont indiqué que DeepPoseKit allie la précision de DeepLabCut à une vitesse de traitement par lots supérieure à celle de LEAP. Par exemple, le suivi d’un zèbre dans une heure de séquences filmées à 60 images par seconde prend environ 3,6 minutes avec DeepPoseKit, 6,4 minutes avec LEAP et 7,1 minutes avec l’implémentation de l’algorithme DeepLabCut par son équipe, dit Graving.
DeepPoseKit offre «de très bonnes innovations», déclare Pereira. Mathis conteste la validité des comparaisons de performances, mais Graving affirme que «nos résultats offrent la comparaison la plus objective et la plus juste que nous puissions fournir». L’équipe de Mathis a signalé une version accélérée de DeepLabCut pouvant être exécutée sur un téléphone portable dans un article publié en septembre sur le référentiel de pré-impression arXiv..
Les biologistes qui souhaitent tester plusieurs solutions logicielles peuvent essayer Animal Part Tracker, développé par Kristin Branson, informaticienne au Janelia Research Institute du Howard Hughes Medical Institute à Ashburn, en Virginie, et ses collègues. Les utilisateurs peuvent sélectionner l’un des nombreux algorithmes de suivi de posture, y compris les versions modifiées de ceux utilisés dans DeepLabCut et LEAP, ainsi qu’un autre algorithme du laboratoire de Branson. DeepPoseKit offre également la possibilité d'utiliser des algorithmes alternatifs, comme SLEAP.
D'autres outils sont conçus pour des configurations expérimentales plus spécialisées. DeepFly3D, par exemple, suit les postures 3D d'animaux de laboratoire attachés seuls, tels que des souris avec des électrodes implantées ou des mouches des fruits marchant sur un minuscule ballon servant de tapis roulant. Pavan Ramdya, ingénieur en neuroingénierie à l'Ecole Polytechnique Fédérale de Lausanne (EPFL), et ses collègues, qui ont développé le logiciel, utilisent DeepFly3D pour identifier les neurones actifs dans les mouches des fruits lors de leurs actions spécifiques.
Et DeepBehavior, développé par le neuroscientifique Ahmet Arac de l’Université de Californie à Los Angeles, et ses collègues, permet aux utilisateurs de suivre les trajectoires de mouvements en 3D et de calculer des paramètres tels que les vitesses et les angles articulaires chez la souris et l’homme. L’équipe d’Arac utilise ce logiciel pour évaluer le rétablissement des personnes ayant subi un AVC et pour étudier les liens entre l’activité du réseau cérébral et le comportement des souris.
Donner du sens au mouvement
Les scientifiques qui souhaitent étudier plusieurs animaux ont souvent besoin de savoir qui est quel animal. Pour relever ce défi, Gonzalo de Polavieja, neuroscientifique à Champalimaud Research, le bras de recherche de la fondation privée Champalimaud à Lisbonne, et ses collègues ont développé idtracker.ai, un outil basé sur un réseau de neurones qui identifie des animaux individuels sans données de formation annotées manuellement. . Le logiciel peut gérer des vidéos d’environ 100 poissons et 80 mouches, et sa sortie peut être introduite dans DeepLabCut ou LEAP, explique De Polavieja. Son équipe a utilisé idtracker.ai pour explorer, entre autres, comment le poisson zèbre décide où se déplacer dans un groupe. Cependant, cet outil est destiné uniquement aux vidéos de laboratoire et non à des images de la faune. Il impose aux animaux de se séparer les uns des autres, du moins brièvement.
D’autres logiciels peuvent aider les biologistes à comprendre les mouvements des animaux. Par exemple, les chercheurs pourraient vouloir traduire les coordonnées de la posture en comportements tels que le toilettage, explique Mathis. Si les scientifiques connaissent le comportement qui les intéresse, ils peuvent utiliser l’Annotator Janelia Automatic Animal Behavior Annotator (JAABA), un outil d’apprentissage automatique supervisé développé par l’équipe de Branson, pour annoter des exemples et identifier automatiquement plus de cas dans des vidéos.
Une autre approche est l’apprentissage automatique non supervisé, qui n’exige pas que les comportements soient définis au préalable. Cette stratégie pourrait convenir aux chercheurs qui souhaitent saisir le répertoire complet des actions d’un animal, explique Gordon Berman, biophysicien théorique à l’Université Emory à Atlanta, en Géorgie. Son équipe a développé l'outil MotionMapper de MATLAB pour identifier les mouvements souvent répétés. Motion Sequencing (MoSeq), un outil de l’équipe Datta basé sur Python, trouve des actions telles que marcher, tourner ou élever.
En combinant et en faisant correspondre ces outils, les chercheurs peuvent extraire une nouvelle signification de l'imagerie animale. «Cela vous donne le kit complet pour pouvoir faire ce que vous voulez», dit Pereira.
[ad_2]