Adaptive Boosting für Domain Adaptation: Hin zu robusteren Vorhersagen bei der Szenensegmentierung

Domain Adaptation bezieht sich auf die Übertragung des gemeinsam aus der Quell-Domäne erlernten Wissens in eine neue Umgebung, also die Ziel-Domäne. Eine gängige Vorgehensweise besteht darin, das Modell sowohl mit beschrifteten Daten aus der Quell-Domäne als auch mit unbeschrifteten Daten aus der Ziel-Domäne zu trainieren. Allerdings sind die resultierenden Modelle oft durch die starke Supervision der Quell-Domäne beeinflusst und weisen eine Bias-Tendenz auf. Die meisten Forscher greifen daher auf die frühe Stopp-Strategie (early stopping) zurück, um Überanpassung zu vermeiden; das Problem liegt jedoch darin, dass die Entscheidung, wann genau der Training abgebrochen werden soll, aufgrund des Fehlens einer Validierungsdatenmenge aus der Ziel-Domäne schwer zu treffen ist. In diesem Artikel stellen wir eine effiziente Bootstrapping-Methode vor, die wir AdaBoost Student nennen, die explizit komplementäre Modelle während des Trainings lernt und Nutzer von der empirischen frühen Stopp-Strategie entlastet. AdaBoost Student kombiniert das tiefe Modell-Lernen mit der klassischen Trainingsstrategie des adaptiven Boosting (adaptive boosting) und ermöglicht Wechselwirkungen zwischen den gelernten Modellen und dem Daten-Sampler. Wir verwenden einen adaptiven Daten-Sampler, der das Lernen an schwierigen Beispielen schrittweise fördert, und aggregieren „schwache“ Modelle, um Überanpassung zu vermeiden. Umfangreiche Experimente zeigen, dass (1) AdaBoost Student ohne Sorge um die optimale Stoppzeit eine robuste Lösung durch effizientes Lernen komplementärer Modelle während des Trainings bietet. (2) AdaBoost Student orthogonal zu den meisten bestehenden Domain-Adaptationsmethoden ist und mit bereits etablierten Ansätzen kombiniert werden kann, um die derzeit beste Leistung weiter zu verbessern. Wir erzielen wettbewerbsfähige Ergebnisse auf drei weit verbreiteten Benchmark-Datenmengen für Szenen-Segmentierung im Kontext der Domain Adaptation.