MetaCorrection: domain-agnostische Meta-Verlustkorrektur für unsupervised Domain Adaptation in der semantischen Segmentierung

Unsupervised Domain Adaptation (UDA) zielt darauf ab, Wissen aus einem beschrifteten Quelldomäne auf eine unbeschriftete Ziel-Domäne zu übertragen. Bestehende UDA-Ansätze, die auf Selbsttraining basieren, weisen den Ziel-Daten sogenannte Pseudolabels zu und behandeln diese als wahre Etiketten, um das unlabeled Ziel-Datenmaterial vollständig für die Modellanpassung auszunutzen. Allerdings enthalten die aus dem Modell abgeleiteten Pseudolabels, das auf der Quelldomäne optimiert wurde, aufgrund der Domänenlücke zwangsläufig Rauschen. Um dieses Problem anzugehen, führen wir einen MetaCorrection-Framework ein, bei dem eine domänenbewusste Meta-Lernstrategie entwickelt wurde, um die Verlustkorrektur (DMLC) für die UDA-Semantiksegmentierung zu verbessern. Insbesondere modellieren wir die Rauschverteilung der Pseudolabels in der Ziel-Domäne durch Einführung einer Rauschübergangsmatrix (NTM) und erstellen eine Meta-Datensatz mit domäneninvarianten Quelldaten, um die Schätzung der NTM zu leiten. Durch die Risikominimierung auf dem Meta-Datensatz kann die optimierte NTM somit die Rauschprobleme in den Pseudolabels korrigieren und die Generalisierungsfähigkeit des Modells auf den Ziel-Daten verbessern. Berücksichtigend die Kapazitätslücke zwischen flachen und tiefen Merkmalen, wenden wir die vorgeschlagene DMLC-Strategie weiterhin an, um den verschiedenen Merkmalsstufen passende und kompatible Überwachungssignale bereitzustellen, wodurch eine tiefe Anpassung gewährleistet wird. Umfangreiche experimentelle Ergebnisse unterstreichen die Wirksamkeit unserer Methode gegenüber bestehenden State-of-the-Art-Verfahren an drei Benchmarks.