
摘要
由于基于骨架的人体动作识别能够提供紧凑且富含高层语义信息的表示,近年来已成为一个高度活跃的研究方向。以往研究表明,在时空维度上探索关节之间的关联关系,可为动作识别提供关键的有效信息。然而,在时空特征提取过程中,如何有效编码关节间的全局依赖关系仍是挑战。本文提出了一种名为“动作胶囊”(Action Capsule)的新方法,该方法通过分析骨架序列中关节之间的潜在关联,识别出与特定动作相关的关键关节。实验表明,在推理阶段,我们的端到端网络会关注与每类动作相对应的一组特定关节,其编码的时空特征被聚合用于动作识别。此外,引入多阶段动作胶囊显著增强了网络对相似动作的分类能力。在N-UCLA数据集上,我们的方法超越了当前最先进的技术水平;在NTURGBD数据集上也取得了具有竞争力的性能表现。与此同时,基于GFLOPs的计算量评估显示,本方法的计算开销显著低于现有方法。