HyperAIHyperAI
vor 2 Monaten

SequenceMatch: Eine erneute Betrachtung der Gestaltung von schwachen und starken Erweiterungen für das semisupervisierte Lernen

Khanh-Binh Nguyen
SequenceMatch: Eine erneute Betrachtung der Gestaltung von schwachen und starken Erweiterungen für das semisupervisierte Lernen
Abstract

Semi-supervised Learning (SSL) hat in den letzten Jahren an Popularität gewonnen, da es das Training eines Modells mit einer großen Menge an nicht annotierten Daten ermöglicht. Ein Problem, das jedoch viele SSL-Methoden haben, ist der Bestätigungsfehler (confirmation bias), der auftritt, wenn das Modell an die kleine annotierte Trainingsdatensatz überangepasst wird und zu selbstsichere, aber falsche Vorhersagen liefert. Um dieses Problem anzugehen, schlagen wir SequenceMatch vor, eine effiziente SSL-Methode, die mehrere Datenaugmentierungen nutzt. Das Kernstück von SequenceMatch ist die Einbeziehung einer mittleren Augmentierung für nicht annotierte Daten. Durch die Nutzung verschiedener Augmentierungen und der Konsistenzbedingungen zwischen jedem Paar augmentierter Beispiele hilft SequenceMatch dabei, die Divergenz zwischen der Vorhersageverteilung des Modells für schwach und stark augmentierte Beispiele zu reduzieren. Zudem definiert SequenceMatch zwei unterschiedliche Konsistenzbedingungen für hoch- und niedrigsichere Vorhersagen. Als Ergebnis ist SequenceMatch dateneffizienter als ReMixMatch und zeit-effizienter als sowohl ReMixMatch ($\times4$) als auch CoMatch ($\times2$), während es gleichzeitig eine höhere Genauigkeit aufweist. Trotz seiner Einfachheit übertreffen die Leistungen von SequenceMatch konsistent diejenigen früherer Methoden bei Standard-Benchmarks wie CIFAR-10/100, SVHN und STL-10. Es erzielt auch deutlich bessere Ergebnisse als bisherige state-of-the-art-Methoden bei großen Datensätzen wie ImageNet, mit einem Fehlerquote von 38,46 %. Der Quellcode ist unter https://github.com/beandkay/SequenceMatch verfügbar.

SequenceMatch: Eine erneute Betrachtung der Gestaltung von schwachen und starken Erweiterungen für das semisupervisierte Lernen | Neueste Forschungsarbeiten | HyperAI