
要約
従来の3次元人体ポーズ推定は、まず2次元のボディキーポイントを検出し、その後2次元から3次元への対応付け問題を解くというアプローチに依存している。この学習枠組みは有望な結果を示しているものの、2次元キーポイント検出器の品質に強く依存しており、遮蔽や画像外への逸脱といった状況では必然的に脆弱である。本論文では、キーポイント検出器に依存せずに、方向性のみを学習することで、画像情報が不足する状況下でも頑健に3次元ポーズを推定可能な新たなPose Orientation Net(PONet)を提案する。部分的に隠蔽された肢の画像に対しては、局所的な画像情報を利用することでその3次元方向を推定し、3次元ポーズを回復する。さらに、四肢が完全に可視されない画像に対しても、可視肢間の方向相関を活用することで、全体の3次元ポーズを推論可能であり、これにより3次元ポーズ推定の頑健性がさらに向上する。本手法は、Human3.6M、MPII、MPI-INF-3DHP、3DPWを含む複数のデータセット上で評価された。理想的な設定下では最先端技術と同等の性能を達成しつつ、キーポイント検出器への依存性およびそれに伴う計算負荷を顕著に低減している。特に切断や消去といった極めて困難な状況下でも、最先端手法と比較して著しく優れた性能を発揮し、実世界応用における潜在的価値を示している。