Classification à faible exemplaire multi-domaine par augmentation de tâche adversaire

La classification à peu de exemples vise à reconnaître des classes non vues à partir de très peu d’exemples étiquetés par classe. De nombreux modèles d’apprentissage métacognitif conçus pour cette tâche introduisent soigneusement divers biais inductifs partagés entre les tâches (c’est-à-dire des connaissances métacognitives) afin de résoudre ces problèmes, et parviennent à des performances remarquables. Toutefois, lorsque se produit un décalage de domaine entre les tâches d’entraînement et celles de test, les biais inductifs ainsi obtenus échouent à généraliser efficacement entre les domaines, ce qui dégrade les performances des modèles d’apprentissage métacognitif. Dans ce travail, nous visons à améliorer la robustesse de ces biais inductifs grâce à une augmentation de tâche. Plus précisément, nous considérons le problème du pire cas autour de la distribution des tâches sources, et proposons une méthode d’augmentation de tâche adversaire capable de générer des tâches « difficiles » adaptées aux biais inductifs. Notre méthode peut être utilisée comme un module simple à intégrer dans divers modèles d’apprentissage métacognitif, et améliore leur capacité de généralisation entre domaines. Nous menons des expérimentations approfondies dans un cadre de décalage de domaine, en utilisant neuf jeux de données de classification à peu de exemples : mini-ImageNet, CUB, Cars, Places, Plantae, CropDiseases, EuroSAT, ISIC et ChestX. Les résultats expérimentaux montrent que notre méthode améliore efficacement les performances des modèles d’apprentissage métacognitif en présence de décalage de domaine, surpassant ainsi les approches existantes. Le code est disponible à l’adresse suivante : https://github.com/Haoqing-Wang/CDFSL-ATA.