Vers une intelligence artificielle générale avec une architecture de puce hybride Tianjic

[ad_1]

  • 1.

    Goertzel, B. Intelligence artificielle générale: concept, état de la technique et perspectives d'avenir. J. Artif. Gén.Intell. 5, 1–48 (2014).

  • 2

    Benjamin, B. V. et al. Neurogrid: système multipuce analogique-numérique mixte destiné aux simulations neuronales à grande échelle. Proc. IEEE 102699 à 716 (2014).

  • 3

    Merolla, P. A. et al. Un million de circuits intégrés à spiking-neuron avec un réseau de communication et une interface évolutifs. Science 345, 668–673 (2014).

  • 4

    Furber, S. B. et al. Le projet SpiNNaker. Proc. IEEE 102, 652 à 665 (2014).

  • 5

    Schemmel, J. et al. Système matériel neuromorphique à l'échelle d'une tranche pour la modélisation neurale à grande échelle. Dans Proc. 2010 IEEE Int. Symposium sur les circuits et les systèmes 1947-1950 (IEEE, 2010).

  • 6

    Davies, M. et al. Loihi: un processeur multicœur neuromorphique avec apprentissage sur puce. IEEE Micro 38, 82–99 (2018).

  • 7.

    Chen, Y.-H. et al. Eyeriss: accélérateur reconfigurable à haut rendement énergétique pour les réseaux de neurones à convolution profonde. IEEE J. Circuits à semi-conducteurs 52, 127–138 (2017).

  • 8

    Jouppi, N. P. et al. Analyse des performances dans un centre de données d'une unité de traitement du tenseur. Dans 2017 ACM / IEEE 44e annuel Int. Symposium sur l'architecture informatique 1–12 (IEEE, 2017).

  • 9

    Markram, H. Le projet de cerveau bleu. Nat. Rev. Neurosci. 7, 153-160 (2006).

  • dix.

    Izhikevich, E. M. Modèle simple de neurones dopants. IEEE Trans. Réseau de neurones. 141569-1572 (2003).

  • 11

    Eliasmith, C. et al. Un modèle à grande échelle du cerveau en fonctionnement. Science 338, 1202–1205 (2012).

  • 12

    Song, S., Miller, K. D. et Abbott, L. F. Apprentissage hebbien compétitif grâce à la plasticité synaptique dépendant du pic de synchronisation. Nat. Neurosci. 3, 919 à 926 (2000).

  • 13

    Gusfield, D. Algorithmes sur les chaînes, les arbres et les séquences: informatique et biologie computationnelle (Cambridge Univ. Press, 1997).

  • 14

    Qiu, G. Modélisation du cortex visuel à l'aide de réseaux de neurones artificiels pour la reconstruction d'images visuelles. Dans Quatrième Int. Conférence sur les réseaux de neurones artificiels 127–132 (Institution of Engineering and Technology, 1995).

  • 15

    LeCun, Y., Bengio, Y. et Hinton, G. Deep Learning. La nature 521, 436 à 444 (2015).

  • 16

    Russell, S. J. et Norvig, P. Intelligence artificielle: une approche moderne (Pearson Education, 2016).

  • 17

    Lui, K. et al. Apprentissage résiduel en profondeur pour la reconnaissance d'image. Dans Proc. Conférence IEEE sur la vision par ordinateur et la reconnaissance des formes 770–778 (IEEE, 2016).

  • 18

    Hinton, G. et al. Réseaux de neurones profonds pour la modélisation acoustique en reconnaissance de la parole. Processus de signal IEEE. Mag. 29, 82–97 (2012).

  • 19

    Young, T. et al. Tendances récentes du traitement du langage naturel par apprentissage en profondeur. IEEE Comput. Intell. Mag. 13, 55–75 (2018).

  • 20

    Silver, D. et al. Maîtriser le jeu de Go avec les réseaux de neurones profonds et la recherche dans les arbres. La nature 529, 484–489 (2016).

  • 21

    Lake, B.M. et al. Construire des machines qui apprennent et pensent comme les gens. Comportement Cerveau sci. 40, e253 (2017).

  • 22

    Hassabis, D. et al. Intelligence artificielle inspirée des neurosciences. Neurone 95245-258 (2017).

  • 23

    Marblestone, A. H., Wayne, G. et Kording, K. P. Vers une intégration de l'apprentissage en profondeur et des neurosciences. De face. Comput. Neurosci. dix94 (2016).

  • 24

    Lillicrap, T. P. et al. Les poids de rétroaction synaptiques aléatoires prennent en charge la propagation de l'erreur pour un apprentissage en profondeur. Nat. Commun. 713276 (2016).

  • 25

    Roelfsema, P. R. & Holtmaat, A. Contrôle de la plasticité synaptique dans les réseaux corticaux profonds. Nat. Rev. Neurosci. 19166-180 (2018).

  • 26

    Ullman, S. Utilisation des neurosciences pour développer l'intelligence artificielle. Science 363692–693 (2019).

  • 27

    Xu, K. et al. Montrez, assistez et racontez: génération de légende d'image neurale avec attention visuelle. Dans Int. Conférence sur l'apprentissage automatique (eds Bach, F. & Blei, D.) 2048-2057 (Société internationale d'apprentissage par la machine, 2015).

  • 28

    Zhang, B., Shi, L. et Song, S. Robotique inspirée par le cerveau: à l'intersection de la robotique et des neurosciences (eds Sanders, S. et Oberst, J.) 4–9 (Science / AAAS, 2016).

  • 29

    Sabour, S., Frosst, N. & Hinton, G. E. Routage dynamique entre les capsules. Adv. Neural Inf. Système de traitement. 30, 3856 à 3866 (2017).

  • 30

    Mi, Y. et al. L'adaptation de fréquence de pointes met en œuvre un suivi anticipatif dans des réseaux de neurones attracteurs continus. Adv. Neural Inf. Système de traitement. 27505–513 (2014).

  • 31.

    Herrmann, M., Hertz, J. & Prügel-Bennett, A. Analyse des chaînes de feux synchro. Réseau 6403 à 414 (1995).

  • 32

    London, M. & Häusser, M. Calcul dendritique. Annu. Rev. Neurosci. 28, 503-532 (2005).

  • 33

    Imam, N. & Manohar, R. Communication adresse-événement à l'aide d'une exclusion mutuelle en anneau à jeton. Dans 2011 17ème IEEE Int. Symposium sur les circuits et systèmes asynchrones 99-108 (IEEE, 2011).

  • 34

    Deng, L. et al. GXNOR-Net: formation de réseaux de neurones profonds avec des poids ternaires et des activations sans mémoire de haute précision dans un cadre de discrétisation unifié. Réseau de neurones. 10049-58 (2018).

  • 35

    Han, S. et al. EIE: moteur d'inférence efficace sur un réseau neuronal profond comprimé. Dans 2016 ACM / IEEE 43ème Annuel Int. Symposium sur l'architecture informatique 243–254 (IEEE, 2016).

  • 36

    Diehl, P. U. et al. Classement rapide et haute précision des réseaux profonds grâce à l'équilibrage du poids et des seuils. Dans 2015 Int. Conférence conjointe sur les réseaux de neurones 1-8 (IEEE, 2015).

  • 37

    Wu, Y. et al. Backpropagation spatio-temporelle pour l’entraînement de réseaux de neurones à spiking haute performance. De face. Neurosci. 12331 (2018).

  • 38

    Orchard, G. et al. Conversion de jeux de données d'images statiques pour enrichir des jeux de données neuromorphes à l'aide de saccades. De face. Neurosci. 9437 (2015).

  • 39

    Krizhevsky, A., Sutskever, I. & Hinton, G. E. Classification ImageNet avec réseaux de neurones à convolution profonde. Adv. Neural Inf. Processus. Syst. 251097-1105 (2012).

  • 40

    Simonyan, K. & Zisserman, A. Réseaux de convolution très profonds pour la reconnaissance d'images à grande échelle. Dans Int. Conférence sur les représentations d'apprentissage; pré-impression à (2015).

  • 41

    Deng, J. et al. ImageNet: une base de données d'images hiérarchique à grande échelle. Dans Conférence IEEE 2009 sur la vision par ordinateur et la reconnaissance des formes 248–255 (IEEE, 2009).

  • 42

    LeCun, Y. et al. Apprentissage par gradients appliqué à la reconnaissance de documents. Proc. IEEE 862278-2244 (1998).

  • 43

    Courbariaux, M., Bengio, Y. et David, J.-P. BinaryConnect: formation de réseaux de neurones profonds avec des poids binaires lors de propagations. Adv. Neural Inf. Système de traitement. 28, 3123 à 3131 (2015).

  • 44

    Krizhevsky, A. & Hinton, G. Apprendre plusieurs couches de fonctionnalités à partir d'images minuscules. Thèse de maîtrise, Univ. Toronto (2009).

  • 45

    Merity, S. et al. Modèles de mélange sentinelle pointeur. Dans Int. Conférence sur les représentations d'apprentissage; pré-impression à (2017).

  • 46

    Krakovna, V. & Doshi-Velez, F. Amélioration de l'interprétabilité des réseaux de neurones récurrents à l'aide de modèles de Markov cachés. Pré-impression à (2016).

  • 47

    Wu, S. et al. Formation et inférence avec des nombres entiers dans des réseaux de neurones profonds. Dans Int. Conférence sur les représentations d'apprentissage; pré-impression à (2018).

  • 48.

    Paszke, A. et al. Différenciation automatique dans Pytorch. Dans Proc. Atelier NIPS Autodiff (2017).

  • 49

    Narang, S. et Diamos, G. Baidu DeepBench. (2017).

  • 50

    Fowers, J. et al. Un processeur DNN configurable dans le cloud pour une IA en temps réel. Dans ACM / IEEE 45th Annual Int. Symposium sur l'architecture informatique 1–14 (IEEE, 2018).

  • 51.

    Xu, M. et al. Génération de mots clés audio basés sur HMM. Dans Progrès dans le traitement de l'information multimédia – PCM 2004Vol. 3333 (eds Aizawa, K. et al.) 566-574 (Springer, 2004).

  • 52

    Mathis, A., Herz, A. V. et Stemmler, M. B. La résolution des représentations neuronales imbriquées peut être exponentielle en nombre de neurones. Phys. Rev. Lett. 109018103 (2012).

  • 53

    Gerstner, W. et al. Dynamique neuronale: du neurone unique aux réseaux et modèles de cognition (Cambridge Univ. Press, 2014).

  • 54

    Liang, D. & Indiveri, G. Calcul robuste dépendant de l'état dans les systèmes électroniques neuromorphes. Dans Conférence sur les circuits et systèmes biomédicaux IEEE 1-4 (IEEE, 2017).

  • 55

    Akopyan, F. et al. TrueNorth: conception et flux d’outils d’une puce neurosynaptique programmable d’un million de neurones. IEEE Trans. Comput. Aidé Des. Circ. Intégrée Syst. 341537-1557 (2015).

  • 56.

    Han, S. et al. ESE: moteur de reconnaissance vocale efficace avec LSTM fragmenté sur FPGA. Dans Proc. 2017 ACM / SIGDA Int. Symposium sur les réseaux de portes programmables par l'utilisateur 75–84 (ACM, 2017).

  • [ad_2]