BaseTransformers : Attention portée sur les points de données de base pour l'apprentissage par une seule exemple

La classification en peu d'exemples vise à apprendre à reconnaître de nouvelles catégories à partir d’un nombre limité d’exemples par catégorie. La plupart des méthodes actuelles en peu d’exemples utilisent un ensemble de données de base riche en exemples étiquetés pour entraîner un encodeur, qui est ensuite employé pour extraire des représentations des instances de support relatives aux nouvelles classes. Toutefois, comme les instances de test proviennent d’une distribution différente de celle du jeu de données de base, leurs représentations en caractéristiques sont de mauvaise qualité, ce qui dégrade les performances. Dans cet article, nous proposons d’utiliser les représentations de caractéristiques bien entraînées issues du jeu de données de base, les plus proches de chaque instance de support, afin d’améliorer sa représentation au moment du test métadonnées. À cette fin, nous introduisons BaseTransformers, une méthode qui s’attache aux régions les plus pertinentes de l’espace des caractéristiques du jeu de données de base afin d’améliorer les représentations des instances de support. Des expériences menées sur trois jeux de données standard montrent que notre méthode fonctionne efficacement avec plusieurs architectures de base (backbones) et atteint des résultats de pointe dans le cadre inductif à un exemple. Le code est disponible à l’adresse github.com/mayug/BaseTransformers.