HyperAIHyperAI
il y a 2 mois

Apprentissage métadonné non supervisé pour la classification d'images en few-shot

Siavash Khodadadeh; Ladislau Bölöni; Mubarak Shah
Apprentissage métadonné non supervisé pour la classification d'images en few-shot
Résumé

L'apprentissage de classifieurs à partir de quelques exemples ou d'un seul exemple nécessite un biais inductif significatif en faveur du type de tâche à apprendre. Une façon d'acquérir ce biais est par l'apprentissage métadidactique sur des tâches similaires à la tâche cible. Dans cet article, nous proposons UMTRA, un algorithme qui effectue un apprentissage métadidactique non supervisé et indépendant du modèle pour les tâches de classification. L'étape d'apprentissage métadidactique d'UMTRA est réalisée sur une collection plate d'images non étiquetées. Bien que nous supposions que ces images peuvent être regroupées en une variété de classes et qu'elles sont pertinentes pour la tâche cible, aucune information explicite sur les classes ou tout label n'est nécessaire. UMTRA utilise un échantillonnage aléatoire et des augmentations pour créer des tâches d'entraînement synthétiques lors de la phase d'apprentissage métadidactique. Les labels ne sont nécessaires qu'à l'étape finale d'apprentissage de la tâche cible, et ils peuvent être aussi peu nombreux qu'un seul exemple par classe. Sur les benchmarks d'apprentissage à partir de quelques exemples Omniglot et Mini-Imagenet, UMTRA surpasses toutes les approches testées basées sur l'apprentissage non supervisé des représentations, tout en alternant avec l'algorithme récent CACTUs pour les meilleures performances. Comparativement aux approches d'apprentissage métadidactique supervisées, UMTRA sacrifie une partie de la précision de classification pour une réduction drastique du nombre de labels requis, de plusieurs ordres de grandeur.

Apprentissage métadonné non supervisé pour la classification d'images en few-shot | Articles de recherche récents | HyperAI