NAPA-VQ : Augmentation de prototypes sensible aux voisins avec quantification vectorielle pour l'apprentissage continu

L'oubli catastrophique ; la perte de connaissances antérieures lors de l'acquisition de nouvelles connaissances, est un piège auquel les réseaux neuronaux profonds sont confrontés dans les applications du monde réel. De nombreuses solutions actuelles à ce problème reposent sur le stockage d'exemples (données précédemment rencontrées), ce qui peut ne pas être réalisable dans des applications avec des contraintes de mémoire ou de confidentialité. Par conséquent, l'attention récente s'est portée sur l'apprentissage incrémentiel de classes sans exemples (NECIL) où un modèle apprend progressivement de nouvelles classes sans utiliser aucune donnée passée. Cependant, en raison du manque de données anciennes, les méthodes NECIL ont du mal à distinguer entre les classes anciennes et nouvelles, provoquant une superposition de leurs représentations caractéristiques. Nous proposons NAPA-VQ : Augmentation de Prototypes Consciente des Voisinages avec Quantification Vectorielle, un cadre qui réduit cette superposition de classes dans le NECIL. Nous nous inspirons du Neural Gas pour apprendre les relations topologiques dans l'espace caractéristique, identifiant les classes voisines qui sont le plus susceptibles d'être confondues entre elles. Ces informations sur le voisinage sont utilisées pour imposer une séparation forte entre les classes voisines ainsi que pour générer des prototypes représentatifs des classes anciennes qui peuvent mieux aider à obtenir une frontière décisionnelle discriminante entre les classes anciennes et nouvelles. Nos expériences exhaustives sur CIFAR-100, TinyImageNet et ImageNet-Subset démontrent que NAPA-VQ surpassent les méthodes NECIL d'avant-garde actuelles avec une amélioration moyenne de 5 %, 2 % et 4 % en précision et de 10 %, 3 % et 9 % en oubli respectivement. Notre code est disponible à l'adresse suivante : https://github.com/TamashaM/NAPA-VQ.git.