Apprentissage incrémental de classes à faible exemplaire

La capacité à apprendre de manière incrémentale de nouvelles classes est essentielle au développement de systèmes d’intelligence artificielle réalistes. Dans cet article, nous nous concentrons sur un problème difficile mais pratique : l’apprentissage incrémental de classes à très peu d’exemples (FSCIL, few-shot class-incremental learning). Le FSCIL exige que les modèles CNN apprennent progressivement de nouvelles classes à partir d’un très faible nombre d’exemples étiquetés, sans oublier les classes précédemment apprises. Pour résoudre ce problème, nous représentons les connaissances à l’aide d’un réseau de gaz neuronal (NG, neural gas), capable d’apprendre et de préserver la topologie de la variété de caractéristiques formée par les différentes classes. Sur cette base, nous proposons le cadre TOPIC (TOpology-Preserving knowledge InCrementer). TOPIC réduit l’oubli des classes anciennes en stabilisant la topologie du réseau NG, tout en améliorant l’apprentissage des représentations pour les nouvelles classes à très peu d’exemples grâce à la croissance et à l’adaptation du réseau NG aux nouveaux échantillons d’entraînement. Des résultats expérimentaux complets montrent que la méthode proposée surpasse significativement les autres méthodes de pointe en apprentissage incrémental de classes sur les jeux de données CIFAR100, miniImageNet et CUB200.