HyperAIHyperAI
vor 2 Monaten

Lernen, sich selbst zu trainieren für semi-supervises Few-Shot-Klassifizierung

Xinzhe Li; Qianru Sun; Yaoyao Liu; Shibao Zheng; Qin Zhou; Tat-Seng Chua; Bernt Schiele
Lernen, sich selbst zu trainieren für semi-supervises Few-Shot-Klassifizierung
Abstract

Die Few-Shot-Klassifikation (FSC) ist aufgrund der Knappheit von etikettierten Trainingsdaten (z. B. nur ein etikettierter Datensatz pro Klasse) herausfordernd. Meta-Lernen hat versprochenhafte Ergebnisse gezeigt, indem es lernt, ein Klassifikationsmodell für die FSC zu initialisieren. In dieser Arbeit schlagen wir eine neuartige semi-überwachte Meta-Lernmethode vor, die als Learning to Self-Train (LST) bezeichnet wird und unlabeled Daten nutzt. Insbesondere meta-lernend, wie man solche unüberwachten Daten selektiv auswählt und etikettiert, um die Leistung weiter zu verbessern. Dazu trainieren wir das LST-Modell durch eine große Anzahl von semi-überwachten Few-Shot-Aufgaben. Bei jeder Aufgabe trainieren wir ein Few-Shot-Modell, um Pseudo-Etiketten für unlabeled Daten vorherzusagen, und führen dann Selbsttrainings-Schritte auf etikettierten und pseudo-etikettierten Daten durch, wobei jeder Schritt durch Feinabstimmung gefolgt wird. Zusätzlich lernen wir ein Soft Weighting Network (SWN) zur Optimierung der Selbsttrainings-Gewichte der Pseudo-Etiketten, sodass bessere Etiketten stärker zum Gradientenabstiegs-Optimierungsprozess beitragen können. Wir evaluieren unsere LST-Methode an zwei ImageNet-Benchmarks für semi-überwachte Few-Shot-Klassifikation und erzielen dabei erhebliche Verbesserungen gegenüber dem aktuellen Stand der Technik. Der Quellcode ist unter https://github.com/xinzheli1217/learning-to-self-train verfügbar.