HyperAIHyperAI

Command Palette

Search for a command to run...

MUSES: Der Mehrsensorische Semantische Wahrnehmungsdatensatz für das Fahren unter Unsicherheit

Tim Brödermann*1, David Bruggemann*1, Christos Sakaridis1, Kevin Ta1, Odysseas Liagouris1, Jason Corkill1, and Luc Van Gool1,2 * Equal contribution 1 ETH Zürich, Switzerland 2 INSAIT, Sofia Un., Bulgaria

Zusammenfassung

Die Erreichung der Stufe-5-Fahrerassistenz in autonomen Fahrzeugen erfordert ein robustes semantisches visuelles Wahrnehmungssystem, das in der Lage ist, Daten von verschiedenen Sensoren unter unterschiedlichen Bedingungen zu verarbeiten. Bestehende semantische Wahrnehmungsdatensätze fehlen jedoch oft wichtige Nicht-Kamera-Modalitäten, die in autonomen Fahrzeugen üblicherweise verwendet werden, oder sie nutzen diese Modalitäten nicht aus, um bei schwierigen Bedingungen die semantischen Annotationen zu unterstützen und zu verbessern. Um dies zu beheben, stellen wir MUSES vor, den MUlti-SEnsor-Semantikdatensatz für das Fahren unter ungünstigen Bedingungen bei erhöhter Unsicherheit. MUSES enthält synchronisierte multimodale Aufzeichnungen mit 2D-Panoptik-Annotationen für 2500 Bilder, die unter verschiedenen Wetter- und Beleuchtungsbedingungen aufgenommen wurden. Der Datensatz integriert eine Rahmenkamera (frame camera), einen Lidar, einen Radar, eine Ereigniskamera (event camera) und einen IMU/GNSS-Sensor. Unprotokoll unseres neuen zweistufigen Panoptik-Annotierungsprozesses erfasst sowohl die Klassen- als auch die Instanzunsicherheit in der Ground Truth und ermöglicht die neu eingeführte Aufgabe des unsicherheitsbewussten Panoptik-Segmentierens neben den standardmäßigen semantischen und Panoptik-Segmentierungsaufgaben. MUSES erweist sich sowohl als effektiv für das Training als auch herausfordernd für die Evaluierung von Modellen unter diversen visuellen Bedingungen und öffnet neue Forschungspfade im Bereich der multimodalen und unsicherheitsbewussten dichten semantischen Wahrnehmung. Unser Datensatz und Benchmark sind öffentlich verfügbar unter https://muses.vision.ee.ethz.ch.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
MUSES: Der Mehrsensorische Semantische Wahrnehmungsdatensatz für das Fahren unter Unsicherheit | Paper | HyperAI