Tir dans le noir : Apprentissage à partir de quelques exemples sans étiquettes de classes de base

L'apprentissage à partir de quelques exemples (few-shot learning) vise à construire des classifieurs pour de nouvelles classes à partir d'un petit nombre d'exemples étiquetés et est généralement facilité par l'accès à des exemples d'un ensemble distinct de « classes de base ». La différence dans la distribution des données entre l'ensemble de test (classes nouvelles) et les classes de base utilisées pour apprendre un biais inductif entraîne souvent une mauvaise généralisation sur les classes nouvelles. Pour atténuer les problèmes causés par ce décalage de distribution, des recherches précédentes ont exploré l'utilisation d'exemples non étiquetés provenant des classes nouvelles, en plus des exemples étiquetés des classes de base, ce qui est connu sous le nom de paramètre transductif (transductive setting). Dans cette étude, nous montrons que, de manière surprenante, l'apprentissage auto-supervisé prêt-à-l'emploi (off-the-shelf self-supervised learning) surpassent les méthodes few-shot transductives de 3,9 % en termes de précision pour 5-exemples sur miniImageNet sans utiliser aucune étiquette des classes de base. Cela nous motive à examiner plus attentivement le rôle des caractéristiques apprises par auto-supervision dans l'apprentissage few-shot. Des expériences exhaustives sont menées pour comparer la transférabilité, la robustesse, l'efficacité et la complémentarité des caractéristiques supervisées et auto-supervisées.