11日前

スーパポイントトランスフォーマーを用いた効率的な3Dセマンティックセグメンテーション

Damien Robert, Hugo Raguet, Loic Landrieu
スーパポイントトランスフォーマーを用いた効率的な3Dセマンティックセグメンテーション
要約

大規模な3Dシーンにおける効率的なセマンティックセグメンテーションを実現する、新規のスーパーポイントベースのトランスフォーマー構造を提案する。本手法は、点群を階層的なスーパーポイント構造に迅速に分割するアルゴリズムを導入しており、従来のスーパーポイントベース手法と比較して前処理速度が7倍向上している。さらに、複数スケールにおけるスーパーポイント間の関係を捉えるために自己注意(self-attention)機構を活用することで、S3DIS(76.0% mIoU、6fold検証)、KITTI-360(Valで63.5%)、DALES(79.6%)の3つの困難なベンチマークデータセットにおいて、最先端の性能を達成した。パラメータ数はわずか212kであり、他の最先端モデルと比べて最大200倍もコンパクトでありながら、同等の性能を維持している。また、S3DISデータセットの1foldに対する学習も単一GPUで3時間で完了可能であり、性能が最優秀な他の手法と比べてGPU時間は7倍から70倍も削減されている。本研究のコードおよびモデルは、github.com/drprojects/superpoint_transformerにて公開されている。

スーパポイントトランスフォーマーを用いた効率的な3Dセマンティックセグメンテーション | 最新論文 | HyperAI超神経