Schuss im Dunkeln: Few-Shot-Lernen ohne Basisklassen-Labels

Das Few-Shot-Lernen strebt danach, Klassifikatoren für neue Klassen aus einer geringen Anzahl von etikettierten Beispielen zu erstellen und wird häufig durch den Zugang zu Beispielen aus einem separaten Satz von „Grundklassen“ (base classes) unterstützt. Die Unterschiede in der Datenverteilung zwischen dem Testset (neue Klassen) und den Grundklassen, die verwendet werden, um einen induktiven Bias zu lernen, führen oft zu schlechten Generalisierungsergebnissen auf den neuen Klassen. Um die Probleme, die durch den Verteilungsunterschied verursacht werden, zu mildern, haben frühere Studien die Verwendung unetikettierter Beispiele aus den neuen Klassen untersucht, zusätzlich zu etikettierten Beispielen der Grundklassen. Dies ist als transduktiver Ansatz bekannt. In dieser Arbeit zeigen wir überraschenderweise, dass vorgefertigte selbstüberwachte Lernmethoden die transduktiven Few-Shot-Methoden bei der 5-Schuss-Akkuranz auf miniImageNet um 3,9 % übertrumpfen, ohne dabei irgende Etiketten der Grundklassen zu verwenden. Dies motiviert uns, die Rolle der durch Selbstüberwachung erlernten Merkmale im Few-Shot-Lernen genauer zu untersuchen. Detaillierte Experimente wurden durchgeführt, um die Übertragbarkeit, Robustheit, Effizienz und das Komplementärverhältnis von überwachten und selbstüberwachten Merkmalen zu vergleichen.