4D-StOP: Panoramische Segmentierung von 4D-LiDAR durch räumlich-zeitliche Objektvorschlagsgenerierung und -aggregation

In dieser Arbeit stellen wir ein neues Paradigma vor, das 4D-StOP genannt wird, um die Aufgabe der 4D-Panoramat-LiDAR-Segmentierung anzugehen. 4D-StOP generiert zunächst raumzeitliche Vorschläge durch abstimmungsbasierte Zentrumsvorhersagen, bei denen jeder Punkt im 4D-Volumen für ein entsprechendes Zentrum abstimmt. Diese Tracklet-Vorschläge werden dann mithilfe gelernter geometrischer Merkmale aggregiert. Die Tracklet-Aggregationsmethode erzeugt effektiv eine videoebene 4D-Szenendarstellung über das gesamte Raum-Zeit-Volumen. Dies steht im Gegensatz zu den existierenden, von Ende zu Ende trainierbaren state-of-the-art-Methoden, die raumzeitliche Einbettungen verwenden, die durch Gaußsche Wahrscheinlichkeitsverteilungen repräsentiert sind. Unser Vorgehen mit abstimmungsbasierter Tracklet-Erzeugung und anschließender Aggregation auf Basis geometrischer Merkmale führt zu einer deutlichen Verbesserung der panoptischen LiDAR-Segmentierungskualität im Vergleich zum Modellieren des gesamten 4D-Volumens durch Gaußsche Wahrscheinlichkeitsverteilungen. 4D-StOP erreicht einen neuen Stand der Technik, wenn es auf den Testdatensatz von SemanticKITTI angewendet wird, mit einem Score von 63,9 LSTQ, was eine große (+7 %) Verbesserung gegenüber den momentan besten von Ende zu Ende trainierbaren Methoden darstellt. Der Code und die vortrainierten Modelle sind unter folgender URL verfügbar: https://github.com/LarsKreuzberg/4D-StOP.请注意,"Panoramat" 这个词在德语中并不常用,通常直接使用 "panoptische" 或 "panoramatische" 来描述全景的。因此,根据上下文和专业领域的习惯,这里选择了 "panoptische"。如果需要进一步的专业术语确认,请告知。