
要約
本稿では、深層学習モデルを用いた新しい3次元手のジェスチャー認識手法を提案する。我々は、手の骨格関節位置の時系列データを並列畳み込みによって処理する新たな畳み込みニューラルネットワーク(CNN)を構築し、そのモデルが手のジェスチャー時系列分類タスクにおける性能を検証した。本モデルは深度画像を一切使用せず、手の骨格データのみを入力として用いる。実験結果から、SHREC 2017 3D形状検索コンテストで提供された難易度の高いデータセット(DHGデータセット)において、他の既存手法と比較して最先端の性能を達成することが明らかになった。14種類のジェスチャー分類タスクにおいて91.28%の分類精度を、28種類のジェスチャー分類タスクにおいては84.35%の分類精度を達成した。