Meta-RangeSeg:複数特徴量アグリゲーションを用いたLiDARシーケンスのセマンティックセグメンテーション

LiDARセンサは自動運転車両およびインテリジェントロボットの認識システムにおいて不可欠な要素である。現実世界におけるリアルタイム要件を満たすためには、LiDARスキャンの効率的なセグメンテーションが必須である。従来の多くは、3次元点群を2次元の球面範囲画像(spherical range image)に直接投影することで、画像セグメンテーションに効率的な2次元畳み込み演算を活用していた。これにより、望ましい成果が得られているものの、球面投影において近接領域情報が十分に保持されていないという課題がある。さらに、単一スキャンのセグメンテーションタスクでは時間的情報を考慮していない点も問題である。これらの課題に対処するため、本研究では新しい範囲残差画像表現(range residual image representation)を導入し、空間時間情報を効果的に捉えることのできる、LiDARシーケンス向けの新しいセマンティックセグメンテーション手法「Meta-RangeSeg」を提案する。具体的には、メタ特徴(meta features)を抽出するためにMeta-Kernelを採用し、入力となる2次元範囲画像座標と出力となる3次元デカルト座標の不整合を低減する。また、効率的なU-Netバックボーンを用いてマルチスケール特徴を獲得する。さらに、特徴集約モジュール(Feature Aggregation Module, FAM)により、範囲チャネルの役割を強化し、異なるレベルの特徴を統合する。本手法はSemanticKITTIおよびSemanticPOSSのデータセット上で広範な実験を実施し、性能評価を行った。得られた結果は、既存手法と比較して本手法がより効率的かつ有効であることを示している。本研究の完全な実装コードは、公開されている:https://github.com/songw-zju/Meta-RangeSeg。