Apprendre les signatures de la portée humaine en utilisant un gant tactile évolutif

[ad_1]

  • 1.

    Bartolozzi, C., L. Natale, F. et Metta, G. Robots avec le sens du toucher. Nat. Mater. 15921–925 (2016).

  • 2

    Johansson, R. & Flanagan, J. Codage et utilisation de signaux tactiles du bout des doigts dans les tâches de manipulation d'objets. Nat. Rev. Neurosci. dix, 345–359 (2009).

  • 3

    J. Mahler, M. Matl, V. Satish, M. Danielczuk, B. DeRose, S. McKinley et K. Goldberg, K. Apprentissage des stratégies de saisie de robots ambidextre. Sci. Robot. 4eaau4984 (2019).

  • 4

    Levine, S., Finn, C., Darrell, T. et Abbeel, P. Entraînement de bout en bout pour les politiques de visuomotricité profonde. J. Mach. Apprendre. Res. 171334–1373 (2016).

  • 5

    Morrison, D., Corke, P. et Leitner, J. Boucler la boucle pour la saisie robotique: une approche de synthèse en temps réel générative. Dans Proc. Robotique: science et systèmes (RSS Foundation, 2018).

  • 6

    Saal, H., B. Delhaye, B. Rayhaun et B. Bensmaia. Simuler des signaux tactiles de toute la main avec une précision milliseconde. Proc. Natl Acad. Sci. Etats-Unis 114E5693 – E5702 (2017).

  • 7.

    Osborn, L. et al. Prothèse avec e-derme neuromorphique multicouche perçoit le toucher et la douleur. Sci. Robot. 3eaat3818 (2018).

  • 8

    Okamura, A. M., Smaby, N. et Cutkosky, M. R. Un aperçu de la manipulation agile. Dans Proc. Conférence internationale IEEE sur la robotique et l’automatisation (ICRA’00) 255 à 262 (2000).

  • 9

    Cannata, G., Maggiali, M., Metta, G. et Sandini, G. (2008). Une peau artificielle intégrée pour les robots humanoïdes. Dans Proc. Conférence internationale
    sur la fusion multisensor et l'intégration pour les systèmes intelligents 434–438 (2008).

  • dix.

    Romano, J., Hsiao, K., Niemeyer, G., Chitta, S. et Kuchenbecker, K.. Contrôle robotique de la saisie inspiré par l'homme avec détection tactile. IEEE Trans. Robot. 271067-1079 (2011).

  • 11

    Marzke, M. Poignées de précision, morphologie de la main et outils. Un m. J. Phys. Anthropol. 10291-110 (1997).

  • 12

    Niewoehner, W., Bergstrom, A., D. Eichele, M. Zuroff, M. et Clark, J. Dextérité manuelle chez Neanderthals. La nature 422395 (2003).

  • 13

    Feix, T., Kivell, T., Pouydebat, E. & Dollar, A. Estimation de la précision de préhension au pouce et du potentiel de manipulation chez les primates existants et fossiles. J. R. Soc. Interf. 12(2015).

  • 14

    Chortos, A., Liu, J. et Bao, Z. Poursuivant la peau électronique prothétique. Nat. Mater. 15937–950 (2016).

  • 15

    Li, R. et al. Localisation et manipulation de petites pièces à l'aide de la détection tactile GelSight. Dans Proc. Conférence internationale sur les robots et systèmes intelligents 3988–3993 (IEEE / RSJ, 2014).

  • 16

    Yamaguchi, A. & Atkeson, C.G. Combinaison de la vision au doigt et de la détection tactile optique: réduction et gestion des erreurs lors de la coupe de légumes. Dans Proc. 16ème conférence internationale de l'IEEE sur les robots humanoïdes (humanoïdes) 1045-1051 (IEEE-RAS, 2016).

  • 17

    Wettels, N. & Loeb, G. E. Extraction de caractéristiques haptiques à partir d'un capteur tactile biomimétique: force, emplacement du contact et courbure. Dans Proc. Conférence internationale sur la robotique et la biomimétique 2471–2478 (IEEE, 2011).

  • 18

    Park, J., M. Kim, Lee, Y., Lee, H. et Ko, H. Les peaux ferroélectriques microstructurées inspirées par la peau des doigts permettent de distinguer les stimuli statiques / dynamiques de la pression et de la température. Sci. Adv. 1, e1500661 (2015).

  • 19

    Yau, J., S. Kim, Thakur, P. et Bensmaia, S. Forme du sentiment: base neurale de la perception de la forme haptique. J. Neurophysiol. 115631 à 642 (2016).

  • 20

    Bachmann, T. Identification d'images tachistoscopiques de visages quantifiés spatialement: combien de pixels faut-il pour porter l'identité? EUR. J. Cogn. Psychol. 387-103 (1991).

  • 21

    Torralba, A., Fergus, R. et Freeman, W. 80 millions d'images minuscules: un vaste ensemble de données pour la reconnaissance non paramétrique d'objets et de scènes. IEEE Trans. Modèle anal. Mach. Intell. 301958-1970 (2008).

  • 22

    D’Alessio, T. Erreurs de mesure dans le balayage de réseaux de capteurs piézorésistifs. Sens. Actionneurs A 7271–76 (1999).

  • 23

    Ko, J., S. Bhullar, Y. Cho, Lee, P. et Byung-Guk Jun, M. Conception et fabrication d'un capteur de force étirable auxétique pour la rééducation des mains. Smart Mater. Struct. 24075027 (2015).

  • 24

    Lui, K., Zhang, X., Ren, S. et Sun, J. Deep, apprentissage résiduel pour la reconnaissance d'images. Dans Proc. Conférence IEEE sur la vision par ordinateur et la reconnaissance de formes (CVPR) 770–778 (IEEE, 2016).

  • 25

    Russakovsky, O. et al. Défi de reconnaissance visuelle à grande échelle d'ImageNet. Int. J. Comput. Vis. 115211-252 (2015).

  • 26

    Brodie, E. & Ross, H. Mécanismes sensorimoteurs dans la discrimination de poids. Percept Psychophysique. 36477-481 (1984).

  • 27

    Napier, J. Les mouvements préhensiles de la main humaine. J. chirurgie des articulations osseuses. Br. 38-B902 à 913 (1956).

  • 28

    Lederman, S. & Klatzky, R. Les mouvements des mains: une fenêtre sur la reconnaissance d'objet haptique. Cognit. Psychol. 19342-368 (1987).

  • 29

    Feix, T., J. Romero, H. Schmiedmayer, A. Dollar et A. Kragic, D. La taxonomie GRASP des types de prise humaine. IEEE Trans. Fredonner. Mach. Syst. 46, 66–77 (2016).

  • 30

    Simon, T., Joo, H., Matthews, I. et Sheikh, Y. Détection de point clé à la main dans des images uniques à l’aide de l’amorçage à plusieurs vues. Dans Proc.
    Conférence IEEE sur la vision par ordinateur et la reconnaissance de formes (CVPR) 4645–4653 (IEEE, 2017).

  • 31.

    Lazzarini, R., Magni, R. & Dario, P. Capteur à matrice tactile recouvert d'une peau artificielle. Dans Proc.
    Conférence internationale IEEE sur les robots et les systèmes intelligents (interaction robotique humaine et robots coopératifs) 114-119 (IEEE / RSJ, 1995).

  • 32

    Newell, F., Ernst, M., Tjan, B. et Bülthoff, H. Dépendance vis-à-vis du point de vue pour la reconnaissance d’objets visuels et haptiques. Psychol. Sci. 1237–42 (2001).

  • 33

    Higy, B., Ciliberto, C., Rosasco, L. et Natale, L. Combinaison de modalités sensorielles et de procédures exploratoires pour améliorer la reconnaissance d'objets haptiques en robotique. Dans Proc. 16ème conférence internationale sur les robots humanoïdes (humanoïdes) 117–124 (IEEE-RAS, 2016).

  • 34

    Klatzky, R., Lederman, S. & Metzger, V. Identifier des objets au toucher: un "système expert". Percept Psychophysique. 37299-302 (1985).

  • 35

    Lederman, S. & Klatzky, R. Haptic perception: un tutoriel. Atten. Percept Psychophysique. 711439-1459 (2009).

  • 36

    Kappassov, Z., Corrales, J. & Perdereau, V. Détection tactile dans des mains de robot habiles. Robot. Auton. Syst. 74, 195-220 (2015).

  • 37

    Gao, Y., Hendricks, L.A., Kuchenbecker, K.J. & Darrell, T. Deep. Apprentissage de la compréhension tactile à partir de données visuelles et haptiques. Dans Proc. Conférence internationale sur la robotique et l'automatisation (ICRA) 536-543 (IEEE, 2016).

  • 38

    Meier, M., Walck, G., Haschke, R. et Ritter, H. J. Distinguer le glissement d'un glissement lors de la poussée d'un objet. Dans Proc. Robots et systèmes intelligents IEEE (IROS) 5579–5584 (2016).

  • 39

    Baishya, S. S. & Bäuml, B. Classification de matériau robuste avec une peau tactile utilisant l'apprentissage en profondeur. Dans Proc.
    Robots et systèmes intelligents IEEE (IROS) 8-15 (2016).

  • 40

    Tompson, J., R. Goroshin, A. Jain, LeCun, Y. et Bregler, C. Localisation d'objets efficace à l'aide de réseaux de convolution. Dans Proc. Conférence IEEE sur la vision par ordinateur et la reconnaissance des formes 648–656 (IEEE, 2015).

  • 41

    Paszke, A. et al. Différenciation automatique dans PyTorch. Dans Proc. 31ème conférence sur les systèmes de traitement d'informations neuronaux (NIPS) 1-4 (2017).

  • 42

    Bau, D., B. Zhou, A. Khosla, A. Oliva et A. Torralba. Dissection en réseau: quantification de l’interprétabilité des représentations visuelles profondes. Dans Conférence IEEE sur la vision par ordinateur et la reconnaissance de formes (CVPR) 3319–3327 (IEEE, 2017).

  • 43

    Flanagan, J. & Bandomir, C. Comprendre la perception du poids: effets de la configuration de la saisie sur la lourdeur perçue. Percept Psychophysique. 621204-1219 (2000).

  • 44

    Maaten, L. V. D. & Hinton, G. Visualisation de données à l'aide de t-SNE. J. Mach. Apprendre. Res. 92579-2605 (2008).

  • 45

    Krzywinski, M. et al. Circos: une esthétique de l'information pour la génomique comparative. Génome res. 191639-1645 (2009).

  • [ad_2]