Attentive WaveBlock: Komplementaritätsverstärkte gegenseitige Netzwerke für unsupervised Domain Adaptation in der Person Re-identification und darüber hinaus

Unsupervised Domain Adaptation (UDA) für Person Re-Identification ist herausfordernd aufgrund der erheblichen Diskrepanz zwischen Quell- und Zielbereich. Eine typische Self-Training-Methode besteht darin, durch Clustering-Algorithmen generierte Pseudolabels zu verwenden, um das Modell iterativ im Zielbereich zu optimieren. Ein Nachteil dieser Vorgehensweise ist jedoch, dass rauschhafte Pseudolabels im Allgemeinen Probleme beim Lernen verursachen. Um dieses Problem anzugehen, wurde ein gegenseitiges Lernverfahren mittels dualer Netzwerke entwickelt, um zuverlässige Soft-Labels zu erzeugen. Allerdings schwächt sich mit fortschreitender Konvergenz der beiden neuronalen Netzwerke ihre Komplementarität, wodurch sie tendenziell einer gleichen Art von Rauschen verfallen. In dieser Arbeit wird ein neuartiges, leichtgewichtiges Modul vorgestellt, das Attentive WaveBlock (AWB), das nahtlos in die dualen Netzwerke des gegenseitigen Lernens integriert werden kann, um die Komplementarität zu stärken und den Rausch in den Pseudolabels weiter zu reduzieren. Konkret führen wir zunächst ein parameterfreies Modul, das WaveBlock, ein, das durch unterschiedliches „Wellen“ von Feature-Map-Blöcken eine Differenz zwischen den von den beiden Netzwerken gelernten Features erzeugt. Anschließend wird eine Aufmerksamkeitsmechanik eingesetzt, um die erzeugte Differenz zu vergrößern und weitere komplementäre Merkmale zu identifizieren. Darüber hinaus werden zwei Arten von Kombinationsstrategien, nämlich Vor-Aufmerksamkeit und Nach-Aufmerksamkeit, untersucht. Experimente zeigen, dass die vorgeschlagene Methode auf mehreren UDA-Aufgaben zur Person Re-Identification eine state-of-the-art-Leistung erzielt und dabei signifikante Verbesserungen erzielt. Wir belegen zudem die Allgemeingültigkeit des vorgeschlagenen Ansatzes, indem wir ihn auf Aufgaben der Fahrzeug-Re-Identification und Bildklassifikation anwenden. Unsere Code-Implementierung und Modelle sind unter https://github.com/WangWenhao0716/Attentive-WaveBlock verfügbar.