
要約
ハンドアクション認識は、人間-ロボットインタラクション、バーチャルリアリティ、ライフログシステムなどに応用されるアクション認識の特殊なケースである。こうした多様なアクション領域に対応できる分類器を構築することは極めて困難である。同一アプリケーション内では微細なアクションの差異が存在する一方で、領域間(たとえばバーチャルリアリティとライフログ)では大きな変動が見られる。本研究では、こうした課題に取り組むための新しいスケルトンベースのハンドモーション表現モデルを提案する。提示するフレームワークは、アプリケーション領域やカメラの撮影視点に依存しない。単一領域内での分類(イントラドメインアクション分類)において、既存の最先端手法と同等またはそれ以上の性能を、有名なハンドアクション認識ベンチマークで達成している。さらに重要なのは、訓練時に用いられなかった領域やカメラ視点におけるアクション認識(クロスドメインアクション分類)においても、イントラドメインの最先端手法と同等の性能を実現できることである。これらの実験結果から、本フレームワークの高いロバスト性および汎化能力が示された。