Command Palette
Search for a command to run...
基于莫比乌斯图卷积网络的三维人体姿态估计
基于莫比乌斯图卷积网络的三维人体姿态估计
Niloofar Azizi Horst Possegger Emanuele Rodolà Horst Bischof
摘要
三维人体姿态估计是理解人类行为的基础。近年来,图卷积网络(Graph Convolutional Networks, GCNs)取得了令人瞩目的进展,不仅达到了当前最优的性能水平,还提供了相对轻量级的网络架构。然而,GCNs 的一个主要局限在于其无法显式编码关节之间的全部变换关系。为解决这一问题,本文提出一种基于莫比乌斯变换(Möbius transformation)的新型谱图卷积网络(MöbiusGCN)。该方法能够直接且显式地建模关节间的变换关系,从而获得更为紧凑的表示。与迄今为止最轻量的架构相比,本文提出的模型参数量减少了90%至98%,其中最轻量的MöbiusGCN仅需0.042M个可训练参数。除了参数量的显著降低,显式编码关节变换还使模型在性能上达到当前最优水平。我们在两个具有挑战性的姿态估计基准数据集——Human3.6M 和 MPI-INF-3DHP 上对所提方法进行了评估,结果表明,MöbiusGCN 不仅在性能上达到前沿水平,还展现出优异的泛化能力。