K-Lane: Lidar Lane Dataset und Benchmark für Stadtstraßen und Autobahnen

Die Spurserkennung ist eine entscheidende Funktion für autonome Fahrzeuge. Infolge der jüngsten Fortschritte im Bereich des Deep Learning sowie der Veröffentlichung von Kameradatensätzen und Benchmark-Daten für Spurerkennung haben sich Kamerabasierte Spurerkennungsnetzwerke (CLDNs) erheblich weiterentwickelt. Leider beruhen CLDNs auf Kamerabildern, die in der Nähe der Verschwindungslinie oft verzerren und anfällig für schlechte Beleuchtungsbedingungen sind. Dies steht im Gegensatz zu Lidar-basierten Spurerkennungsnetzwerken (LLDNs), die direkt Spurverläufe aus einer Vogelperspektive (Bird’s Eye View, BEV) extrahieren können, was für die Bewegungsplanung geeignet ist, und dabei unter verschiedenen Lichtverhältnissen robust funktionieren. Allerdings wurden LLDNs bisher kaum erforscht, hauptsächlich aufgrund des Fehlens großer öffentlicher Lidar-Datensätze für Spurerkennung. In dieser Arbeit stellen wir K-AIST-Lane (K-Lane) vor – den weltweit ersten und größten öffentlichen Datensatz für Lidar-basierte Spurerkennung in urbanen Straßen und Autobahnen. K-Lane umfasst mehr als 15.000 Bilder und enthält Annotationen von bis zu sechs Spuren unter unterschiedlichsten Straßen- und Verkehrsbedingungen, wie beispielsweise verdeckte Straßen mit mehreren Ebenen der Verdeckung, Straßen sowohl tagsüber als auch nachts, sowie sich vereinigende (konvergierende und divergierende) und gekrümme Spuren. Außerdem präsentieren wir Baseline-Netzwerke, die wir Lidar-Spurerkennungsnetzwerke mit globaler Merkmalskorrelation (LLDN-GFC) nennen. LLDN-GFC nutzt die räumlichen Eigenschaften von Spuren in Punktewolken aus, die spärlich, schmal und sich über die gesamte Bodenebene der Punktewolke erstrecken. Die experimentellen Ergebnisse zeigen, dass LLDN-GFC eine state-of-the-art-Leistung mit einem F1-Score von 82,1 % auf dem K-Lane-Datensatz erreicht. Zudem demonstriert LLDN-GFC eine starke Leistung unter verschiedenen Lichtbedingungen – im Gegensatz zu CLDNs – und bleibt auch bei starker Verdeckung robust, im Gegensatz zu traditionellen CNN-basierten LLDNs. Der K-Lane-Datensatz, der Trainingscode für LLDN-GFC, vortrainierte Modelle sowie vollständige Entwicklungstools inklusive Evaluations-, Visualisierungs- und Annotationstools sind unter https://github.com/kaist-avelab/k-lane verfügbar.