11 天前

在孪生跟踪器中学习融合非对称特征图

Wencheng Han, Xingping Dong, Fahad Shahbaz Khan, Ling Shao, Jianbing Shen
在孪生跟踪器中学习融合非对称特征图
摘要

近年来,基于孪生网络的跟踪器在视觉跟踪任务中取得了令人瞩目的性能表现。大多数现有的基于孪生网络的跟踪器通常采用深度可分离交叉相关(Depth-wise Cross-Correlation, DW-XCorr)操作,从目标区域与搜索区域的两个特征图中提取多通道相关性信息。然而,DW-XCorr在基于孪生网络的跟踪任务中存在若干局限性:易受干扰项误导、激活通道数量较少,且对目标边界的区分能力较弱。此外,DW-XCorr是一个手工设计的无参数模块,无法充分受益于大规模数据上的离线训练。为此,本文提出一种可学习模块——非对称卷积模块(Asymmetric Convolution Module, ACM),该模块通过在大规模数据上进行离线训练,能够更有效地捕捉语义相关性信息。与DW-XCorr及其前身XCorr不同,后者将单一特征图视为卷积核,本文提出的ACM将拼接后的特征图上的卷积操作分解为两个数学等价的运算步骤,从而避免了在拼接过程中要求两个特征图具有相同的空间尺寸(宽高一致)的限制。该设计不仅提升了灵活性,还允许ACM融合诸如边界框尺寸等先验信息,与标准视觉特征相结合。此外,ACM可无缝集成至基于DW-XCorr或XCorr的现有孪生跟踪器中。为验证其泛化能力,我们将ACM分别引入三种代表性跟踪器:SiamFC、SiamRPN++和SiamBAN。实验结果表明,所提出的ACM显著提升了跟踪性能,在六个主流跟踪基准测试上均优于现有方法。在LaSOT测试集上,基于ACM的跟踪器在成功率(AUC)指标上相较基线模型取得了5.8%的显著提升。

在孪生跟踪器中学习融合非对称特征图 | 最新论文 | HyperAI超神经