RECALL : Apprentissage continu sans répétition pour la classification d'objets

Les réseaux de neurones convolutifs obtiennent des résultats remarquables en classification, mais peinent à apprendre de nouvelles connaissances en temps réel. Nous proposons une nouvelle approche sans rétention de données, dans laquelle un réseau neuronal profond apprend continuellement de nouvelles catégories d’objets inconnues sans conserver aucune donnée des séquences antérieures. Notre méthode, baptisée RECALL, repose sur la capacité du réseau à « rappeler » les catégories passées en calculant les logits associés à ces dernières avant l’entraînement sur de nouvelles catégories. Ces logits sont ensuite utilisés pendant l’entraînement afin de préserver les représentations des catégories antérieures. À chaque nouvelle séquence, une nouvelle tête de classification est ajoutée pour intégrer les nouvelles catégories. Pour atténuer le phénomène d’oubli, nous introduisons une stratégie de régularisation consistant à remplacer la classification par une régression. De plus, pour les catégories connues, nous proposons une perte de type Mahalanobis qui intègre les variances afin de tenir compte des changements de densité entre les catégories connues et inconnues. Enfin, nous présentons un nouveau jeu de données dédié à l’apprentissage continu, particulièrement adapté à la reconnaissance d’objets par un robot mobile (HOWS-CL-25), comprenant 150 795 images synthétiques réparties sur 25 catégories d’objets domestiques. Notre approche RECALL surpasser les états de l’art actuels sur CORe50 et iCIFAR-100, et atteint les meilleurs résultats sur le jeu de données HOWS-CL-25.