Skalierbare 3D-Panoptische Segmentierung als Superpoint-Graph-Clustering

Wir stellen eine hoch-effiziente Methode für die panoptische Segmentierung großer 3D-Punktwolken vor, indem wir diese Aufgabe neu definieren als ein skalierbares Graph-Clustering-Problem. Dieser Ansatz kann ausschließlich mit lokalen Hilfsaufgaben trainiert werden, wodurch der ressourcenintensive Schritt des Instanz-Matching während des Trainings entfällt. Darüber hinaus lässt sich unsere Formulierung problemlos an das Superpoint-Paradigma anpassen, was die Effizienz weiter steigert. Dadurch kann unser Modell Szenen mit Millionen von Punkten und Tausenden von Objekten in einer einzigen Inferenz verarbeiten. Unser Verfahren, SuperCluster genannt, erreicht eine neue State-of-the-Art-Leistung bei der panoptischen Segmentierung für zwei Innenraum-Scanning-Datensätze: $50,1$ PQ ($+7,8$) für S3DIS Area~5 und $58,7$ PQ ($+25,2$) für ScanNetV2. Zudem erzielen wir erstmals einen State-of-the-Art-Wert für zwei großskalige Mobile-Mapping-Benchmark-Datensätze: KITTI-360 und DALES. Mit lediglich $209$ k Parametern ist unser Modell mehr als 30-mal kleiner als die bestperformende Konkurrenz und trainiert bis zu 15-mal schneller. Unser Code sowie vortrainierte Modelle sind unter https://github.com/drprojects/superpoint_transformer verfügbar.