HyperAIHyperAI
il y a 11 jours

Apprentissage incrémental à faible exemplaire avec des classificateurs évoluant de manière continue

Chi Zhang, Nan Song, Guosheng Lin, Yun Zheng, Pan Pan, Yinghui Xu
Apprentissage incrémental à faible exemplaire avec des classificateurs évoluant de manière continue
Résumé

L’apprentissage incrémental de classes à peu de données (FSCIL, Few-shot Class-Incremental Learning) vise à concevoir des algorithmes d’apprentissage automatique capables d’apprendre continuellement de nouveaux concepts à partir d’un nombre restreint d’exemples, sans oublier les connaissances acquises sur les classes précédentes. Le défi réside dans le fait que les données limitées provenant des nouvelles classes entraînent non seulement de graves problèmes de surapprentissage (overfitting), mais exacerbent également le problème bien connu de l’oubli catastrophique (catastrophic forgetting). En outre, puisque les données d’entraînement arrivent séquentiellement dans le cadre du FSCIL, le classificateur appris à chaque session ne peut fournir qu’une information discriminative pour cette session seule, alors que le FSCIL exige que toutes les classes soient prises en compte lors de l’évaluation. Dans cet article, nous abordons le problème du FSCIL sous deux angles. Premièrement, nous adoptons une stratégie d’apprentissage découplé des représentations et des classificateurs, simple mais efficace, dans laquelle seuls les classificateurs sont mis à jour à chaque session incrémentale. Cette approche évite l’oubli des connaissances dans les représentations. Grâce à cette méthode, nous démontrons qu’un modèle pré-entraîné combiné à un classificateur non-paramétrique basé sur les moyennes des classes peut surpasser les méthodes de pointe. Deuxièmement, afin de rendre les classificateurs appris à chaque session applicables à l’ensemble des classes, nous proposons un Classificateur Évoluant Continuellement (CEC), qui utilise un modèle graphique pour propager les informations contextuelles entre les classificateurs afin d’assurer leur adaptation. Pour permettre l’apprentissage du CEC, nous avons conçu un paradigme d’apprentissage incrémental pseudo-épisodes, qui construit de manière épisodique une tâche d’apprentissage incrémental fictive en échantillonnant des données à partir de l’ensemble de base, afin d’optimiser les paramètres du graphe. Des expériences menées sur trois jeux de données standards – CIFAR100, miniImageNet et Caltech-USCD Birds-200-2011 (CUB200) – montrent que notre méthode surpasse significativement les méthodes de référence et établit de nouveaux états de l’art avec des avantages marqués.

Apprentissage incrémental à faible exemplaire avec des classificateurs évoluant de manière continue | Articles de recherche récents | HyperAI