
摘要
时间动作定位(Temporal Action Localization, TAL)是视频理解领域中一项具有挑战性的任务,其目标是在视频序列中识别并精确定位各类动作。近年来的研究强调了在提取的视频片段特征上应用长期时间上下文建模(Temporal Context Modeling, TCM)模块的重要性,例如采用复杂的自注意力机制。本文提出了一种迄今为止最为简洁的方法来应对该任务,并论证了:仅依靠提取的视频片段特征本身,即可实现卓越的性能,而无需依赖复杂的网络架构。为此,我们提出了TemporalMaxer,该方法在最小化长期时间上下文建模的同时,通过一个基础、无参数且仅作用于局部区域的最大池化(max-pooling)模块,最大化地利用提取的视频片段特征中的信息。该模块仅保留相邻及局部片段嵌入中最关键的信息,从而构建出更为高效的TAL模型。实验结果表明,TemporalMaxer在多个主流TAL数据集上均优于采用长期TCM(如自注意力机制)的现有先进方法,同时显著减少了模型参数量与计算资源消耗。本文所提方法的代码已公开,可访问 https://github.com/TuanTNG/TemporalMaxer 获取。