Command Palette
Search for a command to run...
A2J: 単一深度画像からの3次元関節姿勢推定のためのAnchor-to-Joint回帰ネットワーク
A2J: 単一深度画像からの3次元関節姿勢推定のためのAnchor-to-Joint回帰ネットワーク
Fu Xiong extsuperscript1* Boshen Zhang extsuperscript1* Yang Xiao extsuperscript1† Zhiguo Cao extsuperscript1 Taidong Yu extsuperscript1 Joey Tianyi Zhou extsuperscript2 Junsong Yuan extsuperscript3
概要
深層画像における3次元手と体の姿勢推定タスクに対して、エンドツーエンド学習能力を持つ新しいアンカーベースの手法であるAnchor-to-Joint回帰ネットワーク(A2J)が提案されています。A2Jでは、関節の局所回帰器として、深層画像上にグローバル-ローカル空間コンテキスト情報を捉えることができるアンカーポイントを密集させて設定します。これらのアンカーポイントは、集団的な方法で関節の位置を予測し、汎化能力を向上させるのに寄与します。提案された3次元アーティキュレーテッドポーズ推定パラダイムは、最先端のエンコーダー-デコーダーに基づくFCN、3D CNN、およびポイントセットベースの手法とは異なります。特定の関節に対する情報量豊富なアンカーポイントを見つけるために、A2J用のアンカープロポーザルプロシージャも提案されています。また、時間のかかる3D畳み込みや逆畳み込み層を使用せずに、ResNet-50などの2D CNNをバックボーンネットワークとして使用してA2Jを駆動します。3つの手データセットと2つの体データセットでの実験により、A2Jの優位性が確認されました。さらに、単一のNVIDIA 1080Ti GPU上で約100 FPSという高速な実行速度が達成されています。