16日前

グラフ畳み込み時系列チャンクにおけるマルチスケール残差学習による人間の運動予測

Mohsen Zand, Ali Etemad, Michael Greenspan
グラフ畳み込み時系列チャンクにおけるマルチスケール残差学習による人間の運動予測
要約

人間の運動予測のための新たな手法が提案される。近年、多スケールグラフが人体をより抽象的なレベルでモデル化する手段として開発され、より安定した運動予測が実現されている。しかしながら、既存の手法はスケールレベルを事前に定め、人間の事前知識に基づいて空間的に近接する関節を組み合わせて粗いスケールを生成している。しかし、異なる運動シーケンスにおける運動パターンは多様であり、固定された空間的連結関節グラフに完全に適合するわけではない。また、グラフ畳み込み手法には「モード崩壊(mode collapse)」という問題も存在する。これは、特に長期予測において、予測されたポーズが平均ポーズに収束し、明確な運動が見られなくなる現象である。こうした課題に対処するため、本研究では、個々のシーケンスにおけるすべての関節間の対間関係に基づき、動的に相関する身体部位を探索するエンドツーエンドネットワーク「ResChunk」を提案する。ResChunkは、自己回帰的にターゲットシーケンスのチャンク間の残差を学習することで、連続するチャンク間の時間的連関性を強制する。このため、複数のスケールで動的空間時系列特徴を考慮したシーケンスからシーケンスへの予測ネットワークとして機能する。CMU MocapおよびHuman3.6Mという2つの難易度の高いベンチマークデータセットにおける実験結果から、本手法が運動予測のためのシーケンス情報の有効なモデル化を可能にし、他の手法を上回る性能を発揮し、新たな最先端(state-of-the-art)を達成することを示した。本研究のコードは、https://github.com/MohsenZand/ResChunk にて公開されている。

グラフ畳み込み時系列チャンクにおけるマルチスケール残差学習による人間の運動予測 | 最新論文 | HyperAI超神経