11日前
3次元LiDARポイントクラウドにおけるリアルタイムセマンティックセグメンテーションのためのマルチプロジェクション融合
Yara Ali Alnaggar, Mohamed Afifi, Karim Amer, Mohamed Elhelw

要約
3次元点群データの意味的セグメンテーションは、自律型プラットフォームにおける高レベルの認識性能を向上させるために不可欠である。さらに、自動車やドローンに搭載されるLiDARセンサーの普及が進む中で、モバイルGPU上で効率的に動作する計算負荷の低いアルゴリズムの開発が特に重視されている。従来の効率的な最先端手法は、2次元の全畳み込みニューラルネットワーク(fully convolutional neural network)を用いるために、点群データを2次元の球面投影(spherical projection)に変換することで、精度と速度のトレードオフを調整していた。本研究では、単一投影による手法に内在する情報損失を軽減するため、点群データの複数の投影を活用する新たなアプローチを提案する。提案するマルチプロジェクション統合(Multi-Projection Fusion, MPF)フレームワークは、球面視点と鳥瞰視点(bird’s-eye view)の両方の投影を、それぞれ高効率な2次元全畳み込みモデルで分析し、得られたセグメンテーション結果を統合する。このフレームワークはSemanticKITTIデータセット上で検証され、mIoU(mean Intersection over Union)55.5を達成した。これは、既存の投影ベース手法であるRangeNet++およびPolarNetを上回る性能であり、前者より1.6倍、後者より3.1倍高速な処理速度を実現した。