
[ad_1]
Goertzel, B. Intelligence artificielle générale: concept, état de la technique et perspectives d'avenir. J. Artif. Gén.Intell. 5, 1–48 (2014).
Benjamin, B. V. et al. Neurogrid: système multipuce analogique-numérique mixte destiné aux simulations neuronales à grande échelle. Proc. IEEE 102699 à 716 (2014).
Merolla, P. A. et al. Un million de circuits intégrés à spiking-neuron avec un réseau de communication et une interface évolutifs. Science 345, 668–673 (2014).
Furber, S. B. et al. Le projet SpiNNaker. Proc. IEEE 102, 652 à 665 (2014).
Schemmel, J. et al. Système matériel neuromorphique à l'échelle d'une tranche pour la modélisation neurale à grande échelle. Dans Proc. 2010 IEEE Int. Symposium sur les circuits et les systèmes 1947-1950 (IEEE, 2010).
Davies, M. et al. Loihi: un processeur multicœur neuromorphique avec apprentissage sur puce. IEEE Micro 38, 82–99 (2018).
Chen, Y.-H. et al. Eyeriss: accélérateur reconfigurable à haut rendement énergétique pour les réseaux de neurones à convolution profonde. IEEE J. Circuits à semi-conducteurs 52, 127–138 (2017).
Jouppi, N. P. et al. Analyse des performances dans un centre de données d'une unité de traitement du tenseur. Dans 2017 ACM / IEEE 44e annuel Int. Symposium sur l'architecture informatique 1–12 (IEEE, 2017).
Markram, H. Le projet de cerveau bleu. Nat. Rev. Neurosci. 7, 153-160 (2006).
Izhikevich, E. M. Modèle simple de neurones dopants. IEEE Trans. Réseau de neurones. 141569-1572 (2003).
Eliasmith, C. et al. Un modèle à grande échelle du cerveau en fonctionnement. Science 338, 1202–1205 (2012).
Song, S., Miller, K. D. et Abbott, L. F. Apprentissage hebbien compétitif grâce à la plasticité synaptique dépendant du pic de synchronisation. Nat. Neurosci. 3, 919 à 926 (2000).
Gusfield, D. Algorithmes sur les chaînes, les arbres et les séquences: informatique et biologie computationnelle (Cambridge Univ. Press, 1997).
Qiu, G. Modélisation du cortex visuel à l'aide de réseaux de neurones artificiels pour la reconstruction d'images visuelles. Dans Quatrième Int. Conférence sur les réseaux de neurones artificiels 127–132 (Institution of Engineering and Technology, 1995).
LeCun, Y., Bengio, Y. et Hinton, G. Deep Learning. La nature 521, 436 à 444 (2015).
Russell, S. J. et Norvig, P. Intelligence artificielle: une approche moderne (Pearson Education, 2016).
Lui, K. et al. Apprentissage résiduel en profondeur pour la reconnaissance d'image. Dans Proc. Conférence IEEE sur la vision par ordinateur et la reconnaissance des formes 770–778 (IEEE, 2016).
Hinton, G. et al. Réseaux de neurones profonds pour la modélisation acoustique en reconnaissance de la parole. Processus de signal IEEE. Mag. 29, 82–97 (2012).
Young, T. et al. Tendances récentes du traitement du langage naturel par apprentissage en profondeur. IEEE Comput. Intell. Mag. 13, 55–75 (2018).
Silver, D. et al. Maîtriser le jeu de Go avec les réseaux de neurones profonds et la recherche dans les arbres. La nature 529, 484–489 (2016).
Lake, B.M. et al. Construire des machines qui apprennent et pensent comme les gens. Comportement Cerveau sci. 40, e253 (2017).
Hassabis, D. et al. Intelligence artificielle inspirée des neurosciences. Neurone 95245-258 (2017).
Marblestone, A. H., Wayne, G. et Kording, K. P. Vers une intégration de l'apprentissage en profondeur et des neurosciences. De face. Comput. Neurosci. dix94 (2016).
Lillicrap, T. P. et al. Les poids de rétroaction synaptiques aléatoires prennent en charge la propagation de l'erreur pour un apprentissage en profondeur. Nat. Commun. 713276 (2016).
Roelfsema, P. R. & Holtmaat, A. Contrôle de la plasticité synaptique dans les réseaux corticaux profonds. Nat. Rev. Neurosci. 19166-180 (2018).
Ullman, S. Utilisation des neurosciences pour développer l'intelligence artificielle. Science 363692–693 (2019).
Xu, K. et al. Montrez, assistez et racontez: génération de légende d'image neurale avec attention visuelle. Dans Int. Conférence sur l'apprentissage automatique (eds Bach, F. & Blei, D.) 2048-2057 (Société internationale d'apprentissage par la machine, 2015).
Zhang, B., Shi, L. et Song, S. Robotique inspirée par le cerveau: à l'intersection de la robotique et des neurosciences (eds Sanders, S. et Oberst, J.) 4–9 (Science / AAAS, 2016).
Sabour, S., Frosst, N. & Hinton, G. E. Routage dynamique entre les capsules. Adv. Neural Inf. Système de traitement. 30, 3856 à 3866 (2017).
Mi, Y. et al. L'adaptation de fréquence de pointes met en œuvre un suivi anticipatif dans des réseaux de neurones attracteurs continus. Adv. Neural Inf. Système de traitement. 27505–513 (2014).
Herrmann, M., Hertz, J. & Prügel-Bennett, A. Analyse des chaînes de feux synchro. Réseau 6403 à 414 (1995).
London, M. & Häusser, M. Calcul dendritique. Annu. Rev. Neurosci. 28, 503-532 (2005).
Imam, N. & Manohar, R. Communication adresse-événement à l'aide d'une exclusion mutuelle en anneau à jeton. Dans 2011 17ème IEEE Int. Symposium sur les circuits et systèmes asynchrones 99-108 (IEEE, 2011).
Deng, L. et al. GXNOR-Net: formation de réseaux de neurones profonds avec des poids ternaires et des activations sans mémoire de haute précision dans un cadre de discrétisation unifié. Réseau de neurones. 10049-58 (2018).
Han, S. et al. EIE: moteur d'inférence efficace sur un réseau neuronal profond comprimé. Dans 2016 ACM / IEEE 43ème Annuel Int. Symposium sur l'architecture informatique 243–254 (IEEE, 2016).
Diehl, P. U. et al. Classement rapide et haute précision des réseaux profonds grâce à l'équilibrage du poids et des seuils. Dans 2015 Int. Conférence conjointe sur les réseaux de neurones 1-8 (IEEE, 2015).
Wu, Y. et al. Backpropagation spatio-temporelle pour l’entraînement de réseaux de neurones à spiking haute performance. De face. Neurosci. 12331 (2018).
Orchard, G. et al. Conversion de jeux de données d'images statiques pour enrichir des jeux de données neuromorphes à l'aide de saccades. De face. Neurosci. 9437 (2015).
Krizhevsky, A., Sutskever, I. & Hinton, G. E. Classification ImageNet avec réseaux de neurones à convolution profonde. Adv. Neural Inf. Processus. Syst. 251097-1105 (2012).
Simonyan, K. & Zisserman, A. Réseaux de convolution très profonds pour la reconnaissance d'images à grande échelle. Dans Int. Conférence sur les représentations d'apprentissage; pré-impression à (2015).
Deng, J. et al. ImageNet: une base de données d'images hiérarchique à grande échelle. Dans Conférence IEEE 2009 sur la vision par ordinateur et la reconnaissance des formes 248–255 (IEEE, 2009).
LeCun, Y. et al. Apprentissage par gradients appliqué à la reconnaissance de documents. Proc. IEEE 862278-2244 (1998).
Courbariaux, M., Bengio, Y. et David, J.-P. BinaryConnect: formation de réseaux de neurones profonds avec des poids binaires lors de propagations. Adv. Neural Inf. Système de traitement. 28, 3123 à 3131 (2015).
Krizhevsky, A. & Hinton, G. Apprendre plusieurs couches de fonctionnalités à partir d'images minuscules. Thèse de maîtrise, Univ. Toronto (2009).
Merity, S. et al. Modèles de mélange sentinelle pointeur. Dans Int. Conférence sur les représentations d'apprentissage; pré-impression à (2017).
Krakovna, V. & Doshi-Velez, F. Amélioration de l'interprétabilité des réseaux de neurones récurrents à l'aide de modèles de Markov cachés. Pré-impression à (2016).
Wu, S. et al. Formation et inférence avec des nombres entiers dans des réseaux de neurones profonds. Dans Int. Conférence sur les représentations d'apprentissage; pré-impression à (2018).
Paszke, A. et al. Différenciation automatique dans Pytorch. Dans Proc. Atelier NIPS Autodiff (2017).
Narang, S. et Diamos, G. Baidu DeepBench. (2017).
Fowers, J. et al. Un processeur DNN configurable dans le cloud pour une IA en temps réel. Dans ACM / IEEE 45th Annual Int. Symposium sur l'architecture informatique 1–14 (IEEE, 2018).
Xu, M. et al. Génération de mots clés audio basés sur HMM. Dans Progrès dans le traitement de l'information multimédia – PCM 2004Vol. 3333 (eds Aizawa, K. et al.) 566-574 (Springer, 2004).
Mathis, A., Herz, A. V. et Stemmler, M. B. La résolution des représentations neuronales imbriquées peut être exponentielle en nombre de neurones. Phys. Rev. Lett. 109018103 (2012).
Gerstner, W. et al. Dynamique neuronale: du neurone unique aux réseaux et modèles de cognition (Cambridge Univ. Press, 2014).
Liang, D. & Indiveri, G. Calcul robuste dépendant de l'état dans les systèmes électroniques neuromorphes. Dans Conférence sur les circuits et systèmes biomédicaux IEEE 1-4 (IEEE, 2017).
Akopyan, F. et al. TrueNorth: conception et flux d’outils d’une puce neurosynaptique programmable d’un million de neurones. IEEE Trans. Comput. Aidé Des. Circ. Intégrée Syst. 341537-1557 (2015).
Han, S. et al. ESE: moteur de reconnaissance vocale efficace avec LSTM fragmenté sur FPGA. Dans Proc. 2017 ACM / SIGDA Int. Symposium sur les réseaux de portes programmables par l'utilisateur 75–84 (ACM, 2017).
[ad_2]