HyperAIHyperAI

Command Palette

Search for a command to run...

aiMotive-Datensatz: Ein multimodaler Datensatz für robustes autonomes Fahren mit langreichweitiger Wahrnehmung

Zusammenfassung

Autonomes Fahren ist ein etablierter Forschungsbereich innerhalb der Computer-Vision-Community. Da autonome Fahrzeuge hochsicherheitskritisch sind, ist die Gewährleistung von Robustheit für eine praktische Anwendung entscheidend. Obwohl mehrere öffentliche multimodale Datensätze verfügbar sind, bestehen diese überwiegend aus zwei Sensormodalitäten (Kamera, LiDAR), die sich nicht optimal für schlechtes Wetter eignen. Zudem fehlen weitreichende Annotationen, was die Schulung von neuronalen Netzen erschwert, die die Grundlage für Funktionen eines Highway-Assistenten autonomer Fahrzeuge bilden. Daher stellen wir einen multimodalen Datensatz für robustes autonomes Fahren mit langreichweiter Wahrnehmung vor. Der Datensatz umfasst 176 Szenen mit synchronisierten und kalibrierten LiDAR-, Kamera- und Radar-Sensoren, die einen 360-Grad-Sichtbereich abdecken. Die gesammelten Daten wurden auf Autobahnen, in städtischen und vorstädtischen Gebieten während Tag, Nacht und Regen erfasst und mit 3D-Bounding-Boxes annotiert, wobei die Identifikatoren über die Frames hinweg konsistent sind. Zudem haben wir einmodale und multimodale Baseline-Modelle für die 3D-Objekterkennung trainiert. Die Daten sind unter \url{https://github.com/aimotive/aimotive_dataset} verfügbar.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
aiMotive-Datensatz: Ein multimodaler Datensatz für robustes autonomes Fahren mit langreichweitiger Wahrnehmung | Paper | HyperAI