RELLIS-3D-Datensatz: Daten, Benchmarks und Analyse

Die semantische Szenenverstehens ist entscheidend für eine robuste und sichere autonome Navigation, insbesondere in außerstädtischen Umgebungen. Neuere Fortschritte in der tiefen Lernverarbeitung für die 3D-semantische Segmentierung beruhen stark auf großen Mengen an Trainingsdaten. Bestehende Datensätze für Autonomieanwendungen repräsentieren jedoch entweder städtische Umgebungen oder fehlen an multimodalen Daten aus außerstädtischen Szenarien. Wir schließen diese Lücke mit RELLIS-3D, einem multimodalen Datensatz, der in einer außerstädtischen Umgebung erfasst wurde und Annotationen für 13.556 LiDAR-Scans sowie 6.235 Bilder enthält. Die Daten wurden auf dem Rellis-Campus der Texas A&M University gesammelt und stellen bestehenden Algorithmen Herausforderungen hinsichtlich Klassenungleichgewichts und topografischer Komplexität der Umgebung. Darüber hinaus evaluieren wir aktuelle state-of-the-art-Modelle der tiefen Lernverarbeitung für semantische Segmentierung anhand dieses Datensatzes. Experimentelle Ergebnisse zeigen, dass RELLIS-3D Algorithmen, die für die Segmentierung in städtischen Umgebungen konzipiert sind, erhebliche Schwierigkeiten bereitet. Der neuartige Datensatz liefert Forschern die notwendigen Ressourcen, um fortschrittlichere Algorithmen weiterzuentwickeln und neue Forschungsfelder zur Verbesserung der autonomen Navigation in außerstädtischen Umgebungen zu erschließen. RELLIS-3D ist unter https://github.com/unmannedlab/RELLIS-3D verfügbar.