HyperAIHyperAI
il y a un mois

Surmonter l’oubli catastrophique dans les réseaux de neurones

James Kirkpatrick; Razvan Pascanu; Neil Rabinowitz; Joel Veness; Guillaume Desjardins; Andrei A. Rusu; Kieran Milan; John Quan; Tiago Ramalho; Agnieszka Grabska-Barwinska; Demis Hassabis; Claudia Clopath; Dharshan Kumaran; Raia Hadsell
Surmonter l’oubli catastrophique dans les réseaux de neurones
Résumé

La capacité d'apprendre des tâches de manière séquentielle est cruciale pour le développement de l'intelligence artificielle. En général, les réseaux neuronaux ne sont pas capables de cela, et il est largement admis que l'oubli catastrophique est une caractéristique inévitable des modèles connexionnistes. Nous montrons qu'il est possible de surmonter cette limitation et d'entraîner des réseaux qui peuvent maintenir leur expertise sur des tâches auxquelles ils n'ont pas été exposés depuis longtemps. Notre approche consiste à se souvenir des anciennes tâches en ralentissant sélectivement l'apprentissage sur les poids importants pour ces tâches. Nous démontrons que notre méthode est évolutive et efficace en résolvant un ensemble de tâches de classification basées sur le jeu de données MNIST de chiffres manuscrits et en apprenant plusieurs jeux Atari 2600 de manière séquentielle.