Command Palette
Search for a command to run...
Gemeinsame tiefere Mehrgraphen-Abbildung und 3D-Geometrielernung aus inhomogenen 2D-Bildkollektionen
Gemeinsame tiefere Mehrgraphen-Abbildung und 3D-Geometrielernung aus inhomogenen 2D-Bildkollektionen
Zhenzhang Ye Tarun Yenamandra Florian Bernard Daniel Cremers
Zusammenfassung
Das Graph-Matching-Ziel besteht darin, Entsprechungen zwischen den Knoten von Graphen herzustellen, sodass sowohl Knoten- als auch Kantenattribute übereinstimmen. In jüngster Zeit wurden verschiedene lernbasierte Methoden vorgeschlagen, um Entsprechungen zwischen Bildschlüsselpunkten basierend auf tiefen Graph-Matching-Formulierungen zu finden. Während diese Ansätze sich hauptsächlich auf die Lernung von Knoten- und Kantenattributen konzentrieren, ignorieren sie vollständig die 3D-Geometrie der zugrundeliegenden 3D-Objekte, die in den 2D-Bildern dargestellt sind. Wir schließen diese Lücke, indem wir einen trainierbaren Rahmen vorschlagen, der Graph-Neuronale Netze nutzt, um ein verformbares 3D-Geometriemodell aus inhomogenen Bildkollektionen zu lernen, also einer Menge von Bildern, die verschiedene Exemplare von Objekten derselben Kategorie darstellen. Experimentell zeigen wir, dass unsere Methode gegenwärtige lernbasierte Ansätze für das Graph-Matching sowohl hinsichtlich Genauigkeit als auch hinsichtlich Zyklus-Konsistenzfehler übertrifft, wobei wir zusätzlich die zugrundeliegende 3D-Geometrie der in den 2D-Bildern dargestellten Objekte ermitteln.