aiMotive-Datensatz: Ein multimodaler Datensatz für robustes autonomes Fahren mit langreichweitiger Wahrnehmung

Autonomes Fahren ist ein etablierter Forschungsbereich innerhalb der Computer-Vision-Community. Da autonome Fahrzeuge hochsicherheitskritisch sind, ist die Gewährleistung von Robustheit für eine praktische Anwendung entscheidend. Obwohl mehrere öffentliche multimodale Datensätze verfügbar sind, bestehen diese überwiegend aus zwei Sensormodalitäten (Kamera, LiDAR), die sich nicht optimal für schlechtes Wetter eignen. Zudem fehlen weitreichende Annotationen, was die Schulung von neuronalen Netzen erschwert, die die Grundlage für Funktionen eines Highway-Assistenten autonomer Fahrzeuge bilden. Daher stellen wir einen multimodalen Datensatz für robustes autonomes Fahren mit langreichweiter Wahrnehmung vor. Der Datensatz umfasst 176 Szenen mit synchronisierten und kalibrierten LiDAR-, Kamera- und Radar-Sensoren, die einen 360-Grad-Sichtbereich abdecken. Die gesammelten Daten wurden auf Autobahnen, in städtischen und vorstädtischen Gebieten während Tag, Nacht und Regen erfasst und mit 3D-Bounding-Boxes annotiert, wobei die Identifikatoren über die Frames hinweg konsistent sind. Zudem haben wir einmodale und multimodale Baseline-Modelle für die 3D-Objekterkennung trainiert. Die Daten sind unter \url{https://github.com/aimotive/aimotive_dataset} verfügbar.