Selbstüberwachtes prototypisches Transferlernen für die Klassifikation bei wenigen Beispielen

Die meisten Ansätze im Bereich des Few-Shot-Learnings basieren während der (Vor-)Trainingsschritte auf kostspieligen annotierten Daten, die dem Zielbereich der Aufgabe zugeordnet sind. Kürzlich haben sich unüberwachte Meta-Learning-Methoden durch eine Reduzierung der Few-Shot-Klassifikationsleistung von der Anforderung an Annotationen befreit. Gleichzeitig wurde in Szenarien mit realistischem Domänenversatz gezeigt, dass übliche Transfer-Learning-Methoden überwachten Meta-Learning überlegen sind. Aufbauend auf diesen Erkenntnissen und Fortschritten im Bereich des selbstüberwachten Lernens schlagen wir einen Transfer-Learning-Ansatz vor, der eine Metrik-Einbettung konstruiert, die unlabeled prototypical samples (unbezeichnete prototypische Stichproben) und ihre Augmentierungen eng zusammenklumpen lässt. Diese vortrainierte Einbettung bildet den Ausgangspunkt für das Few-Shot-Klassifikationsverfahren durch Zusammenfassung von Klassenclustern und Feinabstimmung. Wir zeigen, dass unser selbstüberwachtes prototypisches Transfer-Learning-Verfahren ProtoTransfer die neuesten unüberwachten Meta-Learning-Methoden bei Few-Shot-Aufgaben aus dem mini-ImageNet-Datensatz übertrifft. In Few-Shot-Experimenten mit Domänenversatz erreicht unser Verfahren sogar vergleichbare Leistungen wie überwachte Methoden, benötigt aber um Größenordnungen weniger Labels.