17 天前

基于骨架的动作识别:移位图卷积网络

{ Hanqing Lu, Jian Cheng, Weihan Chen, Xiangyu He, Yifan Zhang, Ke Cheng}
基于骨架的动作识别:移位图卷积网络
摘要

基于骨骼数据的动作识别在计算机视觉领域正受到越来越多的关注。近年来,图卷积网络(Graph Convolutional Networks, GCNs)通过将人体骨骼建模为时空图,取得了显著的性能提升。然而,基于GCN的方法计算复杂度较高,单个动作样本的计算量通常超过15 GFLOPs,部分最新方法甚至达到约100 GFLOPs。此外,空间图与时间图的感受野均存在灵活性不足的问题。尽管一些工作通过引入增量自适应模块增强了空间图的表达能力,但其性能仍受限于传统的GCN结构。为此,本文提出一种新型的移位图卷积网络(Shift Graph Convolutional Network, Shift-GCN),以同时解决上述两个问题。与依赖复杂常规图卷积不同,Shift-GCN由新颖的移位图操作和轻量级逐点卷积构成,其中移位图操作为时空图提供了灵活的感受野。在三个基于骨骼的动作识别数据集上的实验结果表明,所提出的Shift-GCN在性能上显著超越现有最先进方法,同时计算复杂度降低超过10倍。