Essentiels pour l'apprentissage incrémental de classes

Les réseaux de neurones contemporains sont limités dans leur capacité à apprendre à partir de flux évolutifs de données d'entraînement. Lorsqu'ils sont entraînés séquentiellement sur de nouvelles ou de tâches évoluant au fil du temps, leur précision diminue fortement, ce qui les rend inadaptés à de nombreuses applications réelles. Dans ce travail, nous explorons les causes de ce phénomène bien connu mais non résolu — souvent désigné sous le nom d’oubli catastrophique — dans un cadre d’apprentissage incrémental par classes (class-incremental learning, class-IL). Nous montrons qu’un mélange de composants simples, associé à une fonction de perte équilibrant l’apprentissage intra-tâche et inter-tâche, permet déjà de résoudre l’oubli à un niveau comparable à celui des méthodes plus complexes proposées dans la littérature. En outre, nous identifions une qualité insuffisante de la représentation apprise comme une autre cause de l’oubli catastrophique en class-IL. Nous démontrons que les performances sont corrélées à l’information secondaire sur les classes (« dark knowledge ») acquise par le modèle, et que cette performance peut être améliorée grâce à un régularisateur approprié. Grâce à ces avancées, nos résultats en apprentissage incrémental par classes sur CIFAR-100 et ImageNet surpassent de manière significative l’état de l’art, tout en maintenant une approche simple et élégante.