HyperAIHyperAI
vor 15 Tagen

Perzeptive Verlust für robuste unsupervised Homographie-Schätzung

Daniel Koguciuk, Elahe Arani, Bahram Zonooz
Perzeptive Verlust für robuste unsupervised Homographie-Schätzung
Abstract

Die Schätzung von Homographien ist oft ein unverzichtbarer Schritt in vielen Aufgaben des Computersehens. Die bestehenden Ansätze sind jedoch nicht robust gegenüber Änderungen der Beleuchtung und/oder größeren Veränderungen des Blickwinkels. In diesem Paper stellen wir eine bidirektionale implizite Homographie-Schätzung (biHomE)-Verlustfunktion für die unsupervised Homographie-Schätzung vor. Die biHomE-Funktion minimiert die Distanz im Merkmalsraum zwischen der verformten Bildregion aus der Quellperspektive und dem entsprechenden Bild aus der Zielperspektive. Da wir einen festen, vortrainierten Merkmalsextraktor verwenden und der einzige lernbare Bestandteil unseres Frameworks das Homographienetzwerk ist, entkoppeln wir die Homographie-Schätzung effektiv von der Repräsentationslernung. Zur besseren Abbildung der Beleuchtungsvariationen realer Szenarien integrieren wir zusätzlich eine photometrische Verzerrungsschritt bei der Generierung des synthetischen COCO-Datensatzes. Wir zeigen, dass biHomE eine state-of-the-art-Leistung auf dem synthetischen COCO-Datensatz erzielt, die zudem vergleichbar oder sogar besser ist als die von überwachten Ansätzen. Zudem belegen empirische Ergebnisse die Robustheit unseres Ansatzes gegenüber Beleuchtungsvariationen im Vergleich zu bestehenden Methoden.

Perzeptive Verlust für robuste unsupervised Homographie-Schätzung | Neueste Forschungsarbeiten | HyperAI