8日前
モデルベース3Dハンド再構成における自己教師学習
Yujin Chen, Zhigang Tu, Di Kang, Linchao Bao, Ying Zhang, Xuefei Zhe, Ruizhi Chen, Junsong Yuan

要約
単一視点のRGB画像から3次元(3D)手を再構築することは、手の姿勢の多様性および深度の曖昧さのため、困難な課題である。モノクロナル画像から信頼性の高い3D手の再構築を実現するため、最新の多数の手法は訓練段階で3Dアノテーションに強く依存しているが、3Dアノテーションの取得は高コストである。ラベル付き学習データへの依存を軽減するため、本研究ではS2HANDを提案する。これは自己教師学習型の3D手再構築ネットワークであり、同時に手のポーズ、形状、テクスチャ、カメラ視点を推定可能である。具体的には、入力画像から容易に取得可能な2Dキーポイント検出結果を用いて幾何学的ヒントを抽出する。これらのノイズを含む幾何学的ヒントから正確な手再構築モデルを学習するため、2Dと3D表現間の整合性を活用し、ニューラルネットワークの出力を合理化するための一連の新しい損失関数を提案する。本研究では、初めて手動アノテーションに依存せずに正確な3D手再構築ネットワークを訓練可能であることを実証した。実験の結果、提案手法は従来の完全教師あり手法と同等の性能を達成しつつ、必要な監視データ量を大幅に削減することを示した。