
摘要
近年来,相关滤波器在视觉目标跟踪中展现了卓越且显著的成果。这些跟踪器所使用的特征类型对其性能有着重要影响。最终目标是在预测目标位置时,即使在目标外观发生变化的情况下,也能像没有外观变化时一样准确地利用鲁棒特征。随着基于深度学习的方法的出现,针对特定任务学习特征的研究加速发展。例如,基于深度架构的判别式视觉跟踪方法已经取得了令人鼓舞的性能。然而,基于相关滤波器(CFB)的跟踪器仍然局限于使用为物体分类问题预训练的网络。为此,本文提出了一个用于CFB视觉跟踪的深度全卷积特征学习问题的公式化方法。为了学习所提出的模型,本文介绍了一种新颖且高效的反向传播算法,该算法基于网络的损失函数。所提出的框架使得网络模型具有灵活定制的能力,并减轻了对分类任务预训练网络的依赖。广泛的性能分析表明,在CFB跟踪框架中,所提出的定制设计的有效性。通过对最先进的网络的卷积部分进行微调,并将其集成到一个表现最佳的VOT2016 CFB跟踪器中,预期平均重叠率提高了18%,同时跟踪失败次数减少了25%,并且在OTB-2013和OTB-2015跟踪数据集上仍保持优于现有最先进方法的优势。