11日前

DiffusionTrack:視覚的オブジェクト追跡のためのポイント集合拡散モデル

{Chao Ma, Zhongdao Wang, Fei Xie}
DiffusionTrack:視覚的オブジェクト追跡のためのポイント集合拡散モデル
要約

従来のシアンセイ型またはトランスフォーマー型のトラッカーは、視覚オブジェクト追跡をワンショット検出問題として定式化していることが多い。すなわち、1回の順伝播(forward evaluation)によって対象オブジェクトの位置を特定する方式である。これらのトラッカーは、その成功が実証されているものの、単一の順伝播構造では自己修正機能が欠如しており、外観が類似するノイズや干渉オブジェクトに容易に誤追跡(drift)してしまうという課題を抱えている。この問題に対処するため、本研究では視覚追跡をポイント集合に基づくノイズ除去拡散プロセスとして定式化し、新たな生成学習ベースのトラッカー「DiffusionTrack」を提案する。本手法は以下の2つの優れた特徴を持つ。1) 一フレームごとに複数回のノイズ除去拡散ステップを用いて、動的に探索する「ノイズから対象へ」の追跡パラダイムを採用。これにより、より柔軟かつ正確な位置推定が可能となる。2) 拡散プロセスをポイント集合表現でモデル化することで、外観の変化に強く、より高精度なオブジェクト位置推定が実現される。さらに、副次的な利点として、DiffusionTrackは後処理を大幅に簡素化できる。たとえば、ウィンドウペナルティ(window penalty)スキームの導入が不要となる。華麗な追加機能を一切使用せずとも、最先端のトラッカーを上回る優れた性能を達成し、リアルタイムでの動作も実現している。コードは以下のGitHubリポジトリにて公開されている:https://github.com/VISION-SJTU/DiffusionTrack