7日前

HPRNet:全身人体ポーズ推定のための階層的ポイント回帰

Nermin Samet, Emre Akbas
HPRNet:全身人体ポーズ推定のための階層的ポイント回帰
要約

本稿では、全身ポーズ推定のための新しいボトムアップ型ワンステージ手法を提案する。この手法を「階層的ポイント回帰(Hierarchical Point Regression)」と呼び、略してHPRNetと呼ぶ。標準的な人体ポーズ推定では、人体の約17個の主要関節の位置を推定するが、全身ポーズ推定では、顔(68点)、手(1本あたり21点)、足(1本あたり3点)といった細粒度のキーポイントも同時に推定するため、異なる身体部位間でスケールのばらつきが生じるという課題が発生する。このスケールのばらつきに対処するため、我々は身体部位ごとの階層的ポイント表現を構築し、それらを同時に回帰する。各部位(例:顔)内の細粒度キーポイントの相対位置は、その部位の中心を基準として回帰され、その部位中心自体の位置は人物中心に対して推定される。また、従来の二段階手法とは異なり、本手法は画像内の人物数に依存せず、一定時間で全身ポーズを予測できる。COCO WholeBodyデータセットにおいて、HPRNetはすべての全身部位(体、足、顔、手)のキーポイント検出において、これまでのすべてのボトムアップ手法を大きく上回り、顔キーポイント検出(75.4 AP)および手キーポイント検出(50.4 AP)においても最先端の性能を達成した。コードおよびモデルは、\url{https://github.com/nerminsamet/HPRNet} で公開されている。