Command Palette
Search for a command to run...
InconSeg: Residual-gesteuerte Fusion mit inkonsistenten multimodalen Daten zur Segmentierung negativer und positiver Verkehrsbehinderungen
InconSeg: Residual-gesteuerte Fusion mit inkonsistenten multimodalen Daten zur Segmentierung negativer und positiver Verkehrsbehinderungen
and Yuxiang Sun Yueyong Lyu ID David Navarro-Alarcon ID Yanning Guo ID Zhen Feng ID
Zusammenfassung
Die Segmentierung von Straßenhindernissen, einschließlich positiver und negativer Hindernisse, ist entscheidend für die sichere Navigation autonomer Fahrzeuge. In jüngster Zeit hat sich ein zunehmendes Interesse an der Nutzung von Multi-Modus-Datenfusion (z. B. RGB- und Tiefen-/Disparitätsbildern) gezeigt. Obwohl diese Ansätze eine verbesserte Segmentierungsgenauigkeit erzielt haben, stellen wir fest, dass ihre Leistung leicht beeinträchtigt wird, wenn die beiden Modalitäten inkonsistente Informationen liefern – beispielsweise bei entfernten Hindernissen, die in RGB-Bildern sichtbar sind, aber in Tiefen- oder Disparitätsbildern nicht erfasst werden können. Um dieses Problem zu lösen, schlagen wir ein neuartiges zweier-Encoder-zweier-Decoder-Netzwerk für RGB-Tiefen-/Disparitäts-Daten mit Residual-Guided Fusion-Modulen vor. Im Gegensatz zu den meisten bestehenden Netzwerken, die Merkmalskarten im Encoder fusionieren, führen wir die Fusion im Decoder durch. Zudem veröffentlichen wir einen großskaligen RGB-Tiefen-/Disparitäts-Datensatz, der sowohl in städtischen als auch in ländlichen Umgebungen aufgenommen wurde und manuell annotierte Ground-Truth-Daten für die Segmentierung sowohl negativer als auch positiver Hindernisse enthält. Umfangreiche experimentelle Ergebnisse zeigen, dass unser Netzwerk im Vergleich zu anderen Ansätzen eine state-of-the-art-Leistung erzielt.