Revisiter l'apprentissage méta-non supervisé via les caractéristiques des tâches à few-shot

Le méta-apprentissage est devenu une approche pratique pour la classification d'images à faible échantillonnage, où « une stratégie pour apprendre un classifieur » est méta-apprise sur des classes de base étiquetées et peut être appliquée à des tâches impliquant des classes nouvelles. Nous supprimons l'exigence d'étiquettes pour les classes de base et apprenons des plongements généralisables via le Méta-Apprentissage Non Supervisé (UML). Plus précisément, des épisodes de tâches sont construits avec des augmentations de données provenant de classes de base non étiquetées lors du méta-apprentissage, et nous appliquons des classifieurs basés sur les plongements à des tâches nouvelles avec des exemples faiblement échantillonnés et étiquetés lors du méta-test. Nous constatons que deux éléments jouent un rôle important dans l'UML, à savoir la manière dont les tâches sont échantillonnées et la mesure des similarités entre les instances. Ainsi, nous obtenons une ligne de base solide avec deux modifications simples : une stratégie d'échantillonnage suffisante permettant de construire efficacement plusieurs tâches par épisode, associée à une similarité semi-normalisée. Nous exploitons ensuite les caractéristiques des tâches sous deux angles pour obtenir d'améliorations supplémentaires. Premièrement, des instances confuses synthétiques sont intégrées afin d'aider à extraire des plongements plus discriminants. Deuxièmement, nous utilisons une transformation spécifique aux tâches en tant que composant auxiliaire supplémentaire lors du méta-apprentissage pour améliorer la capacité de généralisation des plongements pré-adaptés. Des expériences menées sur des benchmarks de faible échantillonnage montrent que nos approches surpassent les méthodes UML précédentes et atteignent une performance comparable ou même supérieure à celle de leurs variantes supervisées.