Apprendre à Se souvenir : Un Cadre de Apprentissage Continu Guidé par la Plasticité Synaptique

Les modèles formés dans le contexte de l'apprentissage continu (CL) devraient être capables d'apprendre à partir d'un flux de données sur une période indéfinie. Les principaux défis sont : 1) maintenir les connaissances anciennes tout en en bénéficiant lors de l'apprentissage de nouvelles tâches, et 2) garantir la scalabilité du modèle avec une quantité croissante de données à apprendre. Pour relever ces défis, nous introduisons la Mémoire Générative Dynamique (DGM) - un cadre d'apprentissage continu basé sur la plasticité synaptique. La DGM s'appuie sur des réseaux adversariaux génératifs conditionnels avec une plasticité des connexions apprenable réalisée par le masquage neuronal. Plus précisément, nous évaluons deux variantes de masquage neuronal : appliquées à (i) les activations de couche et (ii) directement aux poids des connexions. De plus, nous proposons un mécanisme d'expansion dynamique du réseau qui assure une capacité suffisante du modèle pour accueillir les tâches arrivant continuellement. La quantité de capacité ajoutée est déterminée dynamiquement à partir du masque binaire appris. Nous évaluons la DGM dans le cadre d'apprentissage continu par augmentation progressive des classes sur des tâches de classification visuelle.