2 个月前

研究个体:联合人体解析与姿态估计网络及新基准测试

Xiaodan Liang; Ke Gong; Xiaohui Shen; Liang Lin
研究个体:联合人体解析与姿态估计网络及新基准测试
摘要

人体解析和姿态估计近年来因其广泛的应用潜力而受到了极大的关注。然而,现有的数据集在图像数量和注释方面存在局限性,并且缺乏多样的人体外观和在无约束环境下的挑战性案例覆盖。本文介绍了一个名为“Look into Person (LIP)”的新基准,该基准在可扩展性、多样性和难度方面提供了显著的改进,这些特性对于未来以人为中心的分析研究至关重要。这一全面的数据集包含超过50,000张精心注释的图像,每张图像带有19个语义部分标签和16个人体关节标签,这些图像是从广泛的视角、遮挡情况和背景复杂度下拍摄的。利用这些丰富的注释,我们对领先的人体解析和姿态估计方法进行了详细的分析,从而获得了对这些方法成功与失败的深刻见解。为了进一步探索并利用这两个任务之间的语义关联,我们提出了一种新的联合人体解析和姿态估计网络,以探索高效的上下文建模方法,该网络能够同时以极高的质量预测解析结果和姿态。此外,我们通过探索一种新的自监督结构敏感学习方法简化了网络,该方法能够在不依赖额外监督的情况下将人体姿态结构引入解析结果中。数据集、代码和模型可在 http://www.sysu-hcp.net/lip/ 获取。