D3Feat: Gemeinsames Lernen von dichter Detektion und Beschreibung von 3D lokalen Merkmalen

Die erfolgreiche Registrierung von Punktwolken beruht oft auf einer robusten Herstellung spärlicher Korrespondenzen durch diskriminative 3D-Lokalmerkmale. Trotz der schnellen Entwicklung von lernbasierten 3D-Feature-Deskriptoren wurde bisher wenig Aufmerksamkeit auf die Lernung von 3D-Feature-Detektoren gelegt, geschweige denn auf eine gemeinsame Lernung beider Aufgaben. In diesem Artikel nutzen wir ein 3D-voll konvolutionales Netzwerk für Punktwolken und stellen ein neuartiges und praktikables Lernmechanismus vor, der für jeden 3D-Punkt dicht eine Detektionsbewertung sowie ein Beschreibungsmerkmal vorhersagt. Insbesondere schlagen wir eine Schlüsselpunkt-Auswahlstrategie vor, die den inhärenten Dichtevariationen in 3D-Punktwolken entgegenwirkt, und weiterhin einen selbstüberwachten Detektor-Verlust vor, der durch die Echtzeit-Feature-Übereinstimmungsergebnisse während des Trainings geleitet wird. Abschließend erzielt unsere Methode state-of-the-art Ergebnisse sowohl in Innen- als auch Außenbereichen, evaluiert an den Datensätzen 3DMatch und KITTI, und zeigt eine starke Generalisierungsfähigkeit auf dem ETH-Datensatz. Für praktische Anwendungen zeigen wir, dass durch die Verwendung eines zuverlässigen Feature-Detektors eine geringere Anzahl an Merkmalen ausreicht, um eine genaue und schnelle Ausrichtung von Punktwolken zu erreichen. Code-Release