HyperAIHyperAI
vor 7 Tagen

Distinktive 3D lokale tiefe Beschreibungen

Fabio Poiesi, Davide Boscaini
Distinktive 3D lokale tiefe Beschreibungen
Abstract

Wir präsentieren eine einfache, jedoch hochwirksame Methode zur Lernung von charakteristischen 3D-lokalen tiefen Beschreibern (DIPs), die zur Registrierung von Punktwolken verwendet werden können, ohne eine anfängliche Ausrichtung zu erfordern. Punktwolken-Patches werden extrahiert, bezüglich ihres geschätzten lokalen Referenzsystems kanonisiert und mittels eines auf PointNet basierenden tiefen neuronalen Netzes in rotationsinvariante, kompakte Beschreiber kodiert. DIPs können effektiv über verschiedene Sensormodalitäten hinweg generalisieren, da sie end-to-end aus lokal und zufällig ausgewählten Punkten gelernt werden. Da DIPs lediglich lokale geometrische Informationen kodieren, sind sie robust gegenüber Störungen, Verdeckungen und fehlenden Bereichen. Wir evaluieren und vergleichen DIPs mit alternativen handgefertigten und tiefen Beschreibern an mehreren Innen- und Außenbereichs-Datensätzen, die mit unterschiedlichen Sensoren rekonstruiert wurden. Die Ergebnisse zeigen, dass DIPs (i) Ergebnisse auf dem Stand der Technik für RGB-D-Innenbereichsszenen (3DMatch-Datensatz) erreichen, (ii) die Stand-of-the-Art-Methoden bei Laserscanner-Außenbereichsszenen (ETH-Datensatz) deutlich übertrumpfen und (iii) auf Innenbereichsszenen generalisieren, die mit dem Visual-SLAM-System von Android ARCore rekonstruiert wurden. Quellcode: https://github.com/fabiopoiesi/dip.

Distinktive 3D lokale tiefe Beschreibungen | Neueste Forschungsarbeiten | HyperAI