Sparse Single Sweep LiDAR-Punktwolke-Segmentierung durch das Lernen kontextabhängiger Formpriors aus der Szenevollständigung

Die Analyse von LiDAR-Punktwolken ist eine zentrale Aufgabe für die 3D-Bildverarbeitung, insbesondere für autonomes Fahren. Aufgrund der starken Sparsität und Störungen durch Rauschen in einzelnen LiDAR-Punktwolkenstreichen ist jedoch eine genaue semantische Segmentierung nicht trivial zu erreichen. In dieser Arbeit schlagen wir einen neuen Rahmen zur semantischen Segmentierung von dünnen LiDAR-Punktwolken vor, der durch gelernte kontextuelle Formvorken unterstützt wird. In der Praxis kann eine initiale semantische Segmentierung (SS) einer einzelnen Punktwolkenstreichung durch ein beliebiges effektives Netzwerk erreicht werden und fließt dann als Eingabe in das Modul zur semantischen Szenevervollständigung (SSC). Durch die Zusammenführung mehrerer Frames in der LiDAR-Sequenz als Überwachung hat das optimierte SSC-Modul kontextuelle Formvorken aus sequentiellen LiDAR-Daten gelernt, wodurch die dünnen einzelnen Punktwolkenstreichen zu dichten umgewandelt werden. Dies verbessert inherent die Optimierung der SS durch vollständiges End-to-End-Training. Darüber hinaus wird ein Point-Voxel Interaction (PVI)-Modul vorgeschlagen, um die Wissensfusion zwischen den SS- und SSC-Aufgaben weiter zu verstärken, d.h., die Interaktion unvollständiger lokaler Geometrien der Punktwolke mit vollständigen voxelbasierten globalen Strukturen zu fördern. Zudem können die unterstützenden SSC- und PVI-Module während des Inferenzprozesses ohne zusätzliche Belastung für die SS verworfen werden. Umfangreiche Experimente bestätigen, dass unser JS3C-Net auf den Benchmarks SemanticKITTI und SemanticPOSS überlegene Leistungen erzielt, nämlich Verbesserungen um 4 % und 3 % entsprechend.请注意,这里“JS3C-Net”是一个专有名词,指的是文中提出的一种网络模型,因此在德语中保留了其原始形式。此外,“Point-Voxel Interaction (PVI)”模块的概念在德语中同样保留了英文原名,并在其后添加了德语解释(Punkt-Voxel-Interaktion),以确保专业性和信息完整性。