11日前
ScaleDepth:メトリック深度推定をスケール予測と相対深度推定に分解する
Ruijie Zhu, Chuxin Wang, Ziyang Song, Li Liu, Tianzhu Zhang, Yongdong Zhang

要約
単一画像からの深度推定は、困難な視覚タスクである。相対深度推定に比べて、メトリック深度推定は実用的な物理的意味合いと現実世界における重要な応用性から、より注目を集めている。しかし、既存のメトリック深度推定手法は、類似したシーンを持つ特定のデータセット上で訓練されることが多く、スケールの大幅な変動を伴うシーン間での一般化能力に課題を抱えている。この課題に対処するため、本研究では新しい単眼深度推定手法「ScaleDepth」を提案する。本手法は、メトリック深度を「シーンスケール」と「相対深度」に分解し、それぞれを「意味的特徴を意識したスケール予測(SASP)モジュール」と「適応的相対深度推定(ARDE)モジュール」によって予測する。提案手法のScaleDepthには以下の利点がある。第一に、SASPモジュールは画像の構造的特徴と意味的特徴を暗黙的に統合し、正確なシーンスケールを予測できる。第二に、ARDEモジュールは、正規化された深度空間内において、各画像の相対深度分布を適応的に推定可能である。第三に、本手法は、深度範囲の設定やモデルの微調整を必要とせずに、屋内・屋外の両方のシーンにおいて一貫した枠組みでメトリック深度推定を実現できる。広範な実験により、本手法が屋内・屋外・制約のない・未観測のシーンを含む複数の環境において、最先端の性能を達成することが示された。プロジェクトページ:https://ruijiezhu94.github.io/ScaleDepth