12日前
学習されたアテンション:高性能なオンライン視覚追跡のための残差アテンション型シアンモイズネットワーク
{Junliang Xing, Zhu Teng, Jin Gao, Stephen Maybank, Weiming Hu, Qiang Wang}

要約
オブジェクト追跡におけるオフライン学習は、追跡精度と速度のバランスを取る上で近年大きな可能性を示している。しかし、オフラインで学習されたモデルをオンラインで追跡対象に適応させるのは依然として困難である。本研究では、高性能なオブジェクト追跡を実現するためのリジッドアテンション型シアメスネットワーク(RASNet)を提案する。RASNetは、シアメス追跡フレームワーク内において相関フィルタを再定式化し、モデルのオンライン更新を必要とせずにモデル適応を可能にする多様なアテンション機構を導入している。特に、オフライン学習で得られた汎用アテンション、ターゲットに適応した残差アテンション、およびチャネル有利な特徴アテンションを活用することで、RASNetは深層ネットワーク学習における過学習問題を緩和するとともに、表現学習と識別器学習の分離により、識別能と適応性を向上させている。提案する深層アーキテクチャはエンドツーエンドで学習され、豊富な空間時系列情報を最大限に活用することで、堅牢な視覚追跡を実現している。OTB-2015およびVOT2017という最新のベンチマークに対する実験結果から、RASNetは最先端の追跡精度を達成しつつ、80フレーム/秒以上の高速動作を実現していることが示された。