Korrespondenzlernen durch linear-invariante Einbettung

In dieser Arbeit schlagen wir eine vollständig differenzierbare Pipeline zur Schätzung genauer dichter Korrespondenzen zwischen 3D-Punktwolken vor. Das vorgeschlagene Verfahren ist eine Erweiterung und Verallgemeinerung des Frameworks der Funktionskarten. Im Gegensatz zu den bisherigen Arbeiten in diesem Bereich, die fast ausschließlich die Eigenfunktionen des Laplace-Beltrami-Operators verwenden, zeigen wir, dass das Lernen der Basis aus Daten sowohl die Robustheit erhöhen als auch in anspruchsvollen Szenarien eine höhere Genauigkeit erzielen kann. Wir interpretieren die Basis als ein gelerntes Einbettungsverfahren in einen höherdimensionalen Raum. Gemäß dem Paradigma der Funktionskarten muss die optimale Transformation in diesem Einbettungsraum linear sein, und wir schlagen eine separate Architektur vor, die darauf abzielt, die Transformation durch das Lernen optimaler Deskriptorfunktionen zu schätzen. Dies führt zum ersten end-to-end trainierbaren funktionskartenbasierten Korrespondenzansatz, bei dem sowohl die Basis als auch die Deskriptoren aus Daten gelernt werden. Interessanterweise beobachten wir auch, dass das Lernen einer \emph{kanonischen} Einbettung zu schlechteren Ergebnissen führt, was darauf hindeutet, dass das Beibehalten eines zusätzlichen linearen Freiheitsgrades für das Einbettungsnetzwerk dessen Robustheit erhöht und damit auch Licht auf den Erfolg früherer Methoden wirft. Schließlich demonstrieren wir, dass unser Ansatz in herausfordernden Anwendungen zur nicht-starreren 3D-Punktwolkenkorrespondenz standesüberragende Ergebnisse erzielt.