2 个月前

结构感知的人类动作生成

Yu, Ping ; Zhao, Yang ; Li, Chunyuan ; Yuan, Junsong ; Chen, Changyou
结构感知的人类动作生成
摘要

生成长距离基于骨架的人类动作一直是一个具有挑战性的问题,因为某一帧的微小偏差可能会导致整个动作序列失真。现有的大多数方法借鉴了视频生成的思想,简单地将骨架节点/关节视为图像中的像素,而没有考虑丰富的帧间和帧内结构信息,这可能导致潜在的动作扭曲。图卷积网络(Graph Convolutional Networks, GCNs)是一种有前景的方法,可以利用结构信息来学习结构表示。然而,直接将GCNs应用于时空连续的动作序列中仍然存在挑战,因为动作图可能非常庞大。为了解决这一问题,我们提出了一种GCNs的变体,通过强大的自注意力机制在时间空间中自适应地稀疏化完整的动作图。我们的方法能够动态关注重要的历史帧,并构建一个稀疏图以应用于GCN框架中,从而有效地捕捉动作序列中的结构信息。大量的实验结果表明,与现有方法相比,我们的方法在这两个标准的人类动作数据集上表现出显著的优势。