OMNet: Lernen überlappender Masken für die partielle-zu-partiellen Punktwolkenregistrierung

Die Registrierung von Punktwolken ist eine zentrale Aufgabe in zahlreichen computergestützten Disziplinen. Bisherige Methoden, die auf Korrespondenzübereinstimmungen basieren, erfordern Eingabedaten mit charakteristischen geometrischen Strukturen, um eine 3D-starre Transformation anhand spärlicher punktweiser Merkmale zu bestimmen. Die Genauigkeit der Transformation hängt jedoch stark von der Qualität der extrahierten Merkmale ab, die aufgrund von Unvollständigkeiten und Rauschen anfällig für Fehler sind. Zudem können diese Ansätze das geometrische Wissen aus allen überlappenden Regionen nicht vollständig nutzen. Andererseits können herkömmliche auf globalen Merkmalen basierende Ansätze das gesamte Punktwolken-Modell zur Registrierung heranziehen, ignorieren jedoch die negativen Auswirkungen nicht überlappender Punkte bei der Aggregation globaler Merkmale. In diesem Paper stellen wir OMNet vor – ein iteratives Netzwerk auf Basis globaler Merkmale für die Registrierung von Teil-zu-Teil-Punktwolken. Wir lernen Überlappungsmasken, um nicht überlappende Regionen auszuschließen, wodurch die Teil-zu-Teil-Registrierung in die Registrierung identischer Formen umgewandelt wird. Darüber hinaus wird die ursprünglich verwendete Datenquelle jeweils nur einmal aus den CAD-Modellen pro Objekt abgetastet, was zu identischen Punktwolken für Quelle und Referenz führt. Wir schlagen eine praktikablere Methode zur Datengenerierung vor, bei der ein CAD-Modell zweimal abgetastet wird – jeweils für Quelle und Referenz – wodurch das früher weit verbreitete Problem der Überanpassung (over-fitting) vermieden wird. Experimentelle Ergebnisse zeigen, dass unsere Methode im Vergleich zu traditionellen und tiefen Lernansätzen führende Leistung erzielt. Der Quellcode ist unter https://github.com/megvii-research/OMNet verfügbar.