HyperAIHyperAI

Command Palette

Search for a command to run...

Apprentissage incrémental de classes à faible exemple par échantillonnage de tâches multi-phasées

Da-Wei Zhou Han-Jia Ye Liang Ma Di Xie Shiliang Pu De-Chuan Zhan

Résumé

De nouvelles classes apparaissent fréquemment dans notre monde en constante évolution, par exemple des sujets émergents sur les réseaux sociaux ou de nouveaux types de produits dans le commerce électronique. Un modèle doit être capable de reconnaître ces nouvelles classes tout en maintenant une discriminabilité efficace face aux classes anciennes. Dans des conditions extrêmes, seules un nombre limité d’exemples nouveaux sont disponibles pour mettre à jour le modèle de manière incrémentale. La tâche de reconnaître de nouvelles classes en peu d’exemples sans oublier les anciennes s’appelle l’apprentissage incrémental de classes en peu d’exemples (FSCIL, few-shot class-incremental learning). Dans ce travail, nous proposons un nouveau paradigme pour le FSCIL basé sur l’apprentissage métadonnées, appelé LearnIng Multi-phase Incremental Tasks (LIMIT), qui synthétise des tâches FSCIL fictives à partir du jeu de données de base. La forme des données des tâches fictives est cohérente avec celle des tâches incrémentales réelles, permettant ainsi de construire un espace de représentation généralisable pour les tâches inédites grâce à l’apprentissage métadonnées. En outre, LIMIT intègre également un module de calibration basé sur un modèle Transformer, qui normalise les classificateurs des anciennes classes et les prototypes des nouvelles classes sur la même échelle, comblant ainsi le fossé sémantique entre elles. Ce module de calibration adapte également de manière adaptative les embeddings spécifiques aux instances à l’aide d’une fonction ensemble-à-ensemble. LIMIT s’adapte efficacement aux nouvelles classes tout en résistant au phénomène d’oubli des anciennes. Des expériences menées sur trois jeux de données de référence (CIFAR100, miniImageNet et CUB200) ainsi que sur un grand jeu de données, à savoir ImageNet ILSVRC2012, démontrent que LIMIT atteint des performances de pointe par rapport aux méthodes existantes.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Apprentissage incrémental de classes à faible exemple par échantillonnage de tâches multi-phasées | Articles | HyperAI