16日前

Music2Dance:音楽駆動型ダンス生成のためのDanceNet

Wenlin Zhuang, Congyi Wang, Siyu Xia, Jinxiang Chai, Yangang Wang
Music2Dance:音楽駆動型ダンス生成のためのDanceNet
要約

音楽から人間の動きを合成する、すなわち「音楽からダンスを生成する」ことは、近年、非常に魅力的であり、多くの研究関心を引き寄せている。このタスクは、ダンスに求められる現実的で複雑な人間の動きを再現する必要があるだけでなく、特に重要なのは、生成された動きが音楽のスタイル、リズム、メロディーと整合性を持つ必要がある点にある。本論文では、音楽のスタイル、リズム、メロディーを制御信号として用い、高リアルさと多様性を備えた3次元ダンス動きを生成するための新たな自己回帰型生成モデル、DanceNetを提案する。本モデルの性能向上を図るため、プロのダンサーを用いて複数の同期した音楽-ダンスペアを収集し、高品質な音楽-ダンスペアデータセットを構築した。実験の結果、提案手法が最先端の性能を達成できることを示した。

Music2Dance:音楽駆動型ダンス生成のためのDanceNet | 最新論文 | HyperAI超神経