Supposer, Augmenter et Apprendre : Apprentissage métadimensionnel non supervisé par des étiquettes aléatoires et l'augmentation de données

Le domaine de l'apprentissage à partir de peu d'exemples (few-shot learning) a été soigneusement exploré dans le cadre supervisé, où des étiquettes par classe sont disponibles. En revanche, le cadre non supervisé de l'apprentissage à partir de peu d'exemples, où aucune étiquette n'est requise, a fait l'objet de peu d'études. Nous proposons une méthode nommée Assume, Augment and Learn ou AAL, pour générer des tâches d'apprentissage à partir de peu d'exemples en utilisant des données non étiquetées. Nous attribuons aléatoirement des étiquettes à un sous-ensemble aléatoire d'images provenant d'un ensemble de données non étiqueté afin de créer un ensemble de support. Ensuite, en appliquant des techniques d'augmentation de données aux images de cet ensemble de support et en réutilisant les étiquettes associées, nous obtenons un ensemble cible. Les tâches d'apprentissage à partir de peu d'exemples ainsi générées peuvent être utilisées pour entraîner tout cadre standard d'apprentissage par méta-apprentissage (meta-learning). Une fois entraîné, un tel modèle peut être directement appliqué à des ensembles de données réels et petits avec des étiquettes sans nécessiter aucune modification ou réglage fin (fine-tuning). Dans nos expériences, les modèles appris ont obtenu de bonnes performances généralisées sur une variété de tâches établies d'apprentissage à partir de peu d'exemples sur Omniglot et Mini-Imagenet.