Lernen einer geometrie-entkoppelten Darstellung zur ergänzenden Verständnis von 3D-Objekt-Punktwolken

Bei der 2D-Bildverarbeitung werden einige Ansätze Bilder in Hoch- und Niederfrequenzkomponenten zerlegt, um jeweils Kanten und glatte Bereiche zu beschreiben. Ähnlich lassen sich bei 3D-Objekten, wie beispielsweise die Kontur und die Sitzfläche eines Stuhls, unterschiedliche, jedoch ergänzende Geometrien charakterisieren. Diese Unterscheidung geht in bisherigen tiefen Netzwerken verloren, die Punktwolken durch gleichwertige Behandlung aller Punkte oder lokaler Patche verstehen. Um dieses Problem zu lösen, schlagen wir das Geometry-Disentangled Attention Network (GDANet) vor. GDANet führt eine Geometry-Disentangle-Modul ein, das Punktwolken dynamisch in die Kontur- und Flächenanteile von 3D-Objekten zerlegt, die jeweils als scharfe und sanfte Variationskomponenten bezeichnet werden. Anschließend nutzt GDANet die Sharp-Gentle Complementary Attention-Modul, die die Merkmale der scharfen und sanften Variationskomponenten als zwei integrale Darstellungen betrachtet und jeweils unterschiedliche Aufmerksamkeit darauf richtet, während sie diese mit den ursprünglichen Punktwolkenmerkmalen fusioniert. Auf diese Weise erfassen und verfeinern wir die globalen und sich ergänzenden geometrischen Semantiken dreidimensionaler Objekte aus zwei unterschiedlich entkoppelten Komponenten, um die lokalen Informationen zu ergänzen. Umfangreiche Experimente auf gängigen Benchmarks für 3D-Objektklassifikation und -segmentierung zeigen, dass GDANet mit weniger Parametern den Stand der Technik erreicht. Der Quellcode ist unter https://github.com/mutianxu/GDANet verfügbar.