Context-Aware Mixup für domain-adaptive semantische Segmentierung

Unsupervised Domain Adaptation (UDA) zielt darauf ab, ein Modell aus einem beschrifteten Quellbereich auf einen unbeschrifteten Zielbereich anzupassen. Bestehende UDA-basierte Ansätze für die semantische Segmentierung reduzieren in der Regel die Domänenverschiebungen auf Pixel-, Merkmals- und Ausgabebene. Allerdings vernachlässigen fast alle dieser Ansätze weitgehend die kontextuelle Abhängigkeit, die typischerweise über verschiedene Domänen hinweg gemeinsam ist, was zu einer suboptimalen Leistung führt. In diesem Artikel stellen wir einen neuartigen Context-Aware Mixup (CAMix)-Ansatz für die domänenadaptierte semantische Segmentierung vor, der diese wichtige Eigenschaft der kontextuellen Abhängigkeit als explizite Vorwissen in einer vollständig end-to-end trainierbaren Weise nutzt, um die Anpassungsfähigkeit gegenüber dem Zielbereich zu verbessern. Zunächst präsentieren wir eine Strategie zur Generierung kontextueller Masken, die auf den akkumulierten räumlichen Verteilungen und vorherigen kontextuellen Beziehungen basiert. Die generierte kontextuelle Maske ist entscheidend für diese Arbeit und leitet die kontextbewusste Domänen-Mixup-Operation auf drei unterschiedlichen Ebenen an. Darüber hinaus nutzen wir die bereitgestellte Kontextinformation, um eine signifikanzgewichtete Konsistenzverlustfunktion einzuführen, die die Inkonsistenz zwischen der gemischten Schülervorhersage und der gemischten Lehrervorhersage bestraft und somit die negative Übertragung der Anpassung – beispielsweise eine frühe Leistungseinbuße – verringert. Ausführliche Experimente und Analysen belegen die Wirksamkeit unseres Ansatzes gegenüber den derzeit besten Methoden auf gängigen UDA-Benchmarks.