Amélioration de la classification d'images à few-shot grâce aux plongements multi-échelles apprenables et aux mécanismes d'attention

Dans le contexte de la classification à faible nombre d'exemples (few-shot classification), l'objectif est d'entraîner un classifieur en utilisant un nombre limité d'échantillons tout en maintenant des performances satisfaisantes. Cependant, les méthodes traditionnelles basées sur des métriques présentent certaines limitations pour atteindre cet objectif. Ces méthodes s'appuient généralement sur une seule valeur de distance entre la caractéristique de requête et la caractéristique de support, négligeant ainsi la contribution des caractéristiques superficielles (shallow features). Pour surmonter ce défi, nous proposons dans cet article une nouvelle approche. Notre méthode consiste à utiliser un réseau d'embedding à sortie multiple qui projette les échantillons dans différents espaces de caractéristiques. La méthode proposée extrait des vecteurs de caractéristiques à différents stades, permettant au modèle de capturer à la fois des caractéristiques globales et abstraites. En utilisant ces espaces de caractéristiques diversifiés, notre modèle améliore ses performances. De plus, l'utilisation d'un mécanisme d'auto-attention (self-attention) affine les caractéristiques à chaque stade, conduisant à des représentations encore plus robustes et à une meilleure performance globale. L'attribution de poids apprenables à chaque stade a également considérablement amélioré les performances et les résultats. Nous avons mené des évaluations exhaustives sur les jeux de données MiniImageNet et FC100, spécifiquement dans les scénarios 5-classes 1-exemple (5-way 1-shot) et 5-classes 5-exemples (5-way 5-shot). En outre, nous avons effectué des tâches inter-domaines sur huit jeux de données de référence, obtenant une haute précision dans les domaines de test. Ces évaluations démontrent l'efficacité de notre méthode proposée par rapport aux approches de pointe actuelles. https://github.com/FatemehAskari/MSENet