HyperAIHyperAI

Command Palette

Search for a command to run...

Surmonter l’oubli catastrophique dans les réseaux de neurones

James Kirkpatrick; Razvan Pascanu; Neil Rabinowitz; Joel Veness; Guillaume Desjardins; Andrei A. Rusu; Kieran Milan; John Quan; Tiago Ramalho; Agnieszka Grabska-Barwinska; Demis Hassabis; Claudia Clopath; Dharshan Kumaran; Raia Hadsell

Résumé

La capacité d'apprendre des tâches de manière séquentielle est cruciale pour le développement de l'intelligence artificielle. En général, les réseaux neuronaux ne sont pas capables de cela, et il est largement admis que l'oubli catastrophique est une caractéristique inévitable des modèles connexionnistes. Nous montrons qu'il est possible de surmonter cette limitation et d'entraîner des réseaux qui peuvent maintenir leur expertise sur des tâches auxquelles ils n'ont pas été exposés depuis longtemps. Notre approche consiste à se souvenir des anciennes tâches en ralentissant sélectivement l'apprentissage sur les poids importants pour ces tâches. Nous démontrons que notre méthode est évolutive et efficace en résolvant un ensemble de tâches de classification basées sur le jeu de données MNIST de chiffres manuscrits et en apprenant plusieurs jeux Atari 2600 de manière séquentielle.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp