要約
道路障害物(負の障害物および正の障害物を含む)のセグメンテーションは、自動運転車両の安全なナビゲーションにとって極めて重要である。近年の手法では、RGB画像と深度/視差画像などのマルチモーダルデータの統合に注目が集まっている。これらの手法により、セグメンテーション精度の向上が実現されたものの、依然として、2つのモダリティ間に情報の不一致が生じた場合(たとえば、RGB画像では視認可能だが深度/視差画像では視認不可能な遠方の障害物など)、性能が著しく低下する傾向があることが明らかになった。この課題に対処するため、本研究では、Residual-Guided Fusionモジュールを備えた、二つのエンコーダと二つのデコーダを持つRGB-深度/視差マルチモーダルネットワークを提案する。既存の多くはエンコーダにおける特徴マップの統合に依拠しているが、本手法ではデコーダにおける特徴マップの統合を採用している。また、都市部および農村部の両方の環境で収集された大規模なRGB-深度/視差データセットを公開しており、負の障害物および正の障害物のセグメンテーションを対象とした手動ラベル付き真値データを含んでいる。広範な実験結果から、本ネットワークが他の手法と比較して最先端の性能を達成していることが示された。