LiDAM: Semi-supervised Learning mit lokalisiertem Domain-Adaptation und iterativer Anpassung

Obwohl Daten reichlich vorhanden sind, ist die Datenbeschriftung kostspielig. Semi-supervised Lernmethoden kombinieren eine geringe Anzahl an beschrifteten Beispielen mit einer großen Menge an unbeschrifteten Daten, um Modelle effizient zu trainieren. In diesem Artikel stellen wir unsere vorgeschlagene Methode LiDAM vor, einen semi-supervised Lernansatz, der sowohl auf Domain-Adaptation als auch auf Self-Paced Learning basiert. LiDAM führt zunächst lokale Domain-Verschiebungen durch, um bessere domain-invariante Merkmale für das Modell zu extrahieren, was zu präziseren Clustern und Pseudolabels führt. Diese Pseudolabels werden anschließend in einer selbstgesteuerten Weise mit den echten Klassenlabels mittels einer neuartigen iterativen Zuordnungstechnik aligniert, die auf der Mehrheitskonsistenz über hochzuverlässige Vorhersagen basiert. Gleichzeitig wird ein endgültiger Klassifikator trainiert, um die Ground-Truth-Labels vorhersagen zu können, bis zur Konvergenz. LiDAM erreicht eine state-of-the-art-Leistung auf dem CIFAR-100-Datensatz und schlägt FixMatch (73,50 % gegenüber 71,82 %) bei Verwendung von 2500 Labels.