Multi-Task Curriculum Framework für Open-Set Semi-Supervised Learning

Semi-supervised Learning (SSL) wurde vorgeschlagen, um unlabeled Daten zur Trainierung leistungsfähiger Modelle zu nutzen, wenn nur begrenzte gelabelte Daten zur Verfügung stehen. Während bestehende SSL-Methoden davon ausgehen, dass die Samples in den gelabelten und ungelabelten Daten dieselben Klassen aufweisen, behandeln wir einen komplexeren, neuen Szenario namens Open-Set SSL, bei dem ungelabelte Daten Out-of-Distribution (OOD)-Samples enthalten. Anstatt einen OOD-Detektor und SSL getrennt zu trainieren, schlagen wir einen mehraufgabenbasierten Curriculum-Learning-Framework vor. Zunächst schätzen wir zur Erkennung von OOD-Samples in ungelabelten Daten die Wahrscheinlichkeit, dass ein Sample zu einer OOD-Klasse gehört. Hierzu verwenden wir einen gemeinsamen Optimierungsansatz, der die Netzwerkparameter und die OOD-Score abwechselnd aktualisiert. Gleichzeitig erreichen wir eine hohe Leistung bei der Klassifikation von In-Distribution (ID)-Daten, indem wir ID-Samples aus den ungelabelten Daten mit geringen OOD-Scores auswählen und diese zusammen mit den gelabelten Daten zur semi-supervised Klassifikation der ID-Samples in tiefen neuronalen Netzen verwenden. Wir führen mehrere Experimente durch und erreichen mit unserer Methode state-of-the-art-Ergebnisse, indem wir den negativen Einfluss von OOD-Samples erfolgreich eliminieren.