摘要
弱监督时序动作定位旨在仅利用视频级别的标签,定位未剪辑视频中动作实例的时间边界,并为其分配相应的动作类别。通常,该问题通过“分类引导定位”(localization-by-classification)的流水线方法解决,即通过对视频片段进行分类来识别动作实例。然而,由于该方法优化的是视频级别的分类目标,生成的激活序列容易受到与类别相关的场景干扰,导致预测结果中出现大量误报(false positives)。现有许多方法将背景视为一个独立类别,强制模型学习区分背景片段。但在弱监督条件下,背景信息本身模糊且不确定,使得该策略难以有效实施。为缓解误报带来的影响,本文提出一种新型的“动作性引导误报抑制”(Actionness-guided False Positive Suppression, AFPS)框架。该方法在不引入背景类别的情况下,实现对误报背景的有效抑制。具体而言,首先提出一种自训练的动作性分支(self-training actionness branch),用于学习与类别无关的动作性特征,通过忽略视频标签信息,最大限度地减少类别相关场景的干扰。其次,设计了一个误报抑制模块,用于挖掘并抑制误报片段。最后,引入前景增强模块,借助注意力机制与类别无关的动作性特征,引导模型更专注于学习前景信息。我们在三个主流基准数据集(THUMOS14、ActivityNet1.2 和 ActivityNet1.3)上进行了大量实验。结果表明,所提方法在抑制误报方面具有显著效果,并取得了当前最优的性能表现。代码已开源:https://github.com/lizhilin-ustc/AFPS。