FRNet: Frustum-Range Networks für skalierbare LiDAR-Segmentation

LiDAR-Segmentation ist zu einer entscheidenden Komponente fortschrittlicher autonomen Fahrsysteme geworden. Kürzlich vorgestellte Ansätze zur Segmentierung von LiDAR-Daten in Range-View-Form zeigen vielversprechende Ergebnisse für Echtzeitverarbeitung. Allerdings leiden sie zwangsläufig unter beeinträchtigter kontextueller Information und sind stark auf Nachbearbeitungstechniken zur Verbesserung der Vorhersagen angewiesen. In dieser Arbeit stellen wir FRNet vor – eine einfache, aber leistungsstarke Methode, die darauf abzielt, die kontextuelle Information der Pixel in Range-Bildern durch entsprechende Frustum-LiDAR-Punkte wiederherzustellen. Zunächst wird ein Frustum-Feature-Encoder-Modul eingesetzt, um punktweise Merkmale innerhalb des Frustum-Bereichs zu extrahieren, wodurch die Szenen-Konsistenz erhalten bleibt und eine präzise punktuelle Vorhersage ermöglicht wird. Anschließend wird ein Frustum-Punkt-Fusionsmodul eingeführt, das die punktweisen Merkmale hierarchisch aktualisiert und es jedem Punkt ermöglicht, durch die Frustum-Merkmale mehr umliegende Information zu erfassen. Schließlich wird ein Head-Fusionsmodul verwendet, um Merkmale auf verschiedenen Ebenen zu kombinieren, um schließlich semantische Vorhersagen zu erzeugen. Umfassende Experimente an vier gängigen LiDAR-Segmentierungsbenchmarks unter verschiedenen Aufgabenkonfigurationen belegen die Überlegenheit von FRNet. Insbesondere erreicht FRNet mIoU-Werte von 73,3 % und 82,5 % auf den Testsets von SemanticKITTI und nuScenes. Während konkurrenzfähige Leistung erzielt wird, arbeitet FRNet fünfmal schneller als aktuell beste Ansätze. Diese hohe Effizienz eröffnet neue Möglichkeiten für skalierbarere LiDAR-Segmentierung. Der Quellcode ist öffentlich verfügbar unter https://github.com/Xiangxu-0103/FRNet.