HyperAIHyperAI
il y a 11 jours

Apprentissage incrémental de classes à faible exemple par échantillonnage de tâches multi-phasées

Da-Wei Zhou, Han-Jia Ye, Liang Ma, Di Xie, Shiliang Pu, De-Chuan Zhan
Apprentissage incrémental de classes à faible exemple par échantillonnage de tâches multi-phasées
Résumé

De nouvelles classes apparaissent fréquemment dans notre monde en constante évolution, par exemple des sujets émergents sur les réseaux sociaux ou de nouveaux types de produits dans le commerce électronique. Un modèle doit être capable de reconnaître ces nouvelles classes tout en maintenant une discriminabilité efficace face aux classes anciennes. Dans des conditions extrêmes, seules un nombre limité d’exemples nouveaux sont disponibles pour mettre à jour le modèle de manière incrémentale. La tâche de reconnaître de nouvelles classes en peu d’exemples sans oublier les anciennes s’appelle l’apprentissage incrémental de classes en peu d’exemples (FSCIL, few-shot class-incremental learning). Dans ce travail, nous proposons un nouveau paradigme pour le FSCIL basé sur l’apprentissage métadonnées, appelé LearnIng Multi-phase Incremental Tasks (LIMIT), qui synthétise des tâches FSCIL fictives à partir du jeu de données de base. La forme des données des tâches fictives est cohérente avec celle des tâches incrémentales réelles, permettant ainsi de construire un espace de représentation généralisable pour les tâches inédites grâce à l’apprentissage métadonnées. En outre, LIMIT intègre également un module de calibration basé sur un modèle Transformer, qui normalise les classificateurs des anciennes classes et les prototypes des nouvelles classes sur la même échelle, comblant ainsi le fossé sémantique entre elles. Ce module de calibration adapte également de manière adaptative les embeddings spécifiques aux instances à l’aide d’une fonction ensemble-à-ensemble. LIMIT s’adapte efficacement aux nouvelles classes tout en résistant au phénomène d’oubli des anciennes. Des expériences menées sur trois jeux de données de référence (CIFAR100, miniImageNet et CUB200) ainsi que sur un grand jeu de données, à savoir ImageNet ILSVRC2012, démontrent que LIMIT atteint des performances de pointe par rapport aux méthodes existantes.

Apprentissage incrémental de classes à faible exemple par échantillonnage de tâches multi-phasées | Articles de recherche récents | HyperAI