2ヶ月前

高速ニューラルシーンフロー

Xueqian Li; Jianqiao Zheng; Francesco Ferroni; Jhony Kaesemodel Pontes; Simon Lucey
高速ニューラルシーンフロー
要約

ニューラル・シーンフロー・プリオール(Neural Scene Flow Prior: NSFP)は、その本質的な外れ値(Out-of-Distribution: OOD)効果への堅牢性と、高密度なLiDARポイントの処理能力により、ビジョンコミュニティから大きな関心を集めています。この手法は、ランタイムでシーンフローを推定するために座標ニューラルネットワークを利用しますが、事前学習は必要ありません。しかし、現行の最先端の学習手法に比べて最大100倍遅いという問題があります。画像、動画、放射度関数再構成などの他の応用分野では、座標ネットワークの実行時性能向上のための革新が主にアーキテクチャ変更を中心に進んでいます。本論文では、シーンフローにおいて主要な計算ボトルネックが損失関数自体(例:チャムファー距離)であることを示しています。さらに、対応点なしで効率的に動作する距離変換(Distance Transform: DT)を損失関数として再発見し、実行時の最適化を大幅に高速化することを示しています。我々の高速ニューラルシーンフロー(Fast Neural Scene Flow: FNSF)アプローチは初めて、Waymo OpenおよびArgoverseという最大級の公開自動運転(Autonomous Vehicle: AV)LiDARデータセットにおいて、学習手法と同等のリアルタイム性能を報告しており、事前学習やOODバイアスなしでこれを達成しています。