Command Palette
Search for a command to run...
骨格情報を用いた行動認識のための非局所グラフ畳み込みネットワーク
骨格情報を用いた行動認識のための非局所グラフ畳み込みネットワーク
Hanqing Lu Jian Cheng Yifan Zhang Lei Shi
概要
骨格に基づく行動認識の従来の深層学習手法は、骨格を座標の系列または疑似画像として表現し、RNNやCNNに供給するものが一般的である。しかしながら、こうした手法は関節間の自然な接続性を明示的に活用できないという課題がある。近年、CNNをより一般的な非ユークリッド構造に拡張するグラフ畳み込みネットワーク(GCN)が、骨格に基づく行動認識において優れた性能を示している。しかし、従来のGCNではグラフのトポロジーが手動で設定され、すべての層にわたって固定されるため、行動認識タスクや階層的CNN構造に対して最適ではない可能性がある。さらに、従来のGCNは主に一次情報(関節の座標)を用いているが、二次情報(骨の長さや方向)はあまり活用されていない。本研究では、これらの課題を解決するため、新しい二系統非局所グラフ畳み込みネットワークを提案する。本モデルの各層におけるグラフのトポロジーは、バックプロパゲーション(BP)アルゴリズムによって一様に学習するか、個別に学習するかのどちらかが可能であり、柔軟性と汎用性を高めている。また、関節情報と骨情報の両方を同時にモデル化する二系統フレームワークを提案することで、認識性能をさらに向上させた。NTU-RGB+DおよびKineticsの2つの大規模データセットにおける広範な実験により、本モデルの性能が既存の最先端手法を顕著に上回ることが示された。