Strukturierte Bird’s-Eye-View-Verkehrszenenverstehens aus Bordkamera-Bildern

Autonome Navigation erfordert eine strukturierte Darstellung des Straßennetzwerks sowie die instanzweise Identifikation anderer Verkehrsakteure. Da die Verkehrsszene auf der Erdoberfläche definiert ist, entspricht dies der Szenenverstehensaufgabe in Vogelperspektive (Bird’s-Eye-View, BEV). Die Bordkameras autonomer Fahrzeuge sind jedoch üblicherweise horizontal montiert, um eine bessere Sicht auf die Umgebung zu ermöglichen, was diese Aufgabe sehr herausfordernd macht. In dieser Arbeit untersuchen wir das Problem der Extraktion eines gerichteten Graphen, der das lokale Straßennetzwerk in BEV-Koordinaten repräsentiert, aus einem einzigen Bordkamera-Bild. Darüber hinaus zeigen wir, dass die Methode auf die Detektion dynamischer Objekte in der BEV-Ebene erweitert werden kann. Die Semantik, Position und Orientierung der detektierten Objekte zusammen mit dem Straßengraphen ermöglichen ein umfassendes Szenenverständnis. Ein solches Verständnis ist grundlegend für nachgeschaltete Aufgaben wie Pfadplanung und Navigation. Wir validieren unseren Ansatz gegenüber leistungsfähigen Baselines und zeigen, dass unser Netzwerk eine überlegene Leistung erzielt. Zudem demonstrieren wir die Auswirkungen verschiedener Designentscheidungen mittels Ablation Studies. Code: https://github.com/ybarancan/STSU