17日前

搭載カメラ画像からの構造化された鳥瞰図的交通シーン理解

Yigit Baran Can, Alexander Liniger, Danda Pani Paudel, Luc Van Gool
搭載カメラ画像からの構造化された鳥瞰図的交通シーン理解
要約

自律走行には、道路ネットワークの構造化された表現および他の交通機関の個別識別が不可欠である。交通シーンは地面平面に定義されるため、これは鳥瞰図視点(Bird's-Eye-View: BEV)におけるシーン理解に対応する。しかし、自律走行車両に搭載されるカメラは通常、周囲の視界を確保するために水平方向に設置されるため、このタスクは極めて困難である。本研究では、単一の搭載カメラ画像から、BEV座標系における局所的な道路ネットワークを表す有向グラフを抽出する問題に着目する。さらに、本手法がBEV平面上における動的物体の検出にも拡張可能であることを示す。検出された物体の意味情報、位置および方向と道路グラフを統合することで、シーンに対する包括的な理解が可能となる。このような理解は、経路計画やナビゲーションといった下流タスクにとって基盤的な役割を果たす。我々は強力なベースラインと比較してアプローチの有効性を検証し、ネットワークが優れた性能を達成することを示した。また、アブレーションスタディを通じて、さまざまな設計選択の影響を実証した。コード:https://github.com/ybarancan/STSU