16日前
ETTrack:マルチオブジェクト追跡のための強化された時系列運動予測モデル
Xudong Han, Nobuyuki Oishi, Yueying Tian, Elif Ucurum, Rupert Young, Chris Chatwin, Philip Birch

要約
多くの多対象追跡(Multi-Object Tracking: MOT)手法は、フレーム間で検出された対象を関連付ける際に運動情報を活用している。しかし、カルマンフィルタなどのフィルタリングベースのアルゴリズムに依存する多くの手法は、線形運動のシナリオでは良好に動作するものの、複雑かつ非線形な運動を示す対象の位置を正確に予測するには困難を伴う。こうした課題に対処するため、本研究では時間的運動予測器を強化した運動ベースのMOT手法、ETTrackを提案する。具体的には、運動予測器がトランスフォーマーと時系列畳み込みネットワーク(Temporal Convolutional Network: TCN)を統合することで、短期的および長期的な運動パターンを捉え、過去の運動情報に基づいて個々の対象の将来の運動を予測する。さらに、訓練中に対象の運動方向に関する追加情報を提供する新たなモーメント補正損失関数(Momentum Correction Loss)を提案した。これにより、運動予測器は運動の変化に迅速に適応し、より正確に将来の運動を予測可能となる。実験結果から、ETTrackはDanceTrackおよびSportsMOTにおいて最先端の追跡手法と比較して競争力ある性能を示し、それぞれHOTA指標で56.4%および74.4%を達成した。