Command Palette
Search for a command to run...
Kyungmin Lee Sibeen Kim Minho Park Hyunseung Kim Dongyoon Hwang Hojoon Lee Jaegul Choo

要約
モーションイミテーションは、人型ロボットの歩行制御において有望なアプローチであり、エージェントが人間らしい行動を習得可能にする。従来の手法は、AMASSなど高品質なモーションキャプチャデータセットに依存しているが、こうしたデータは限られ、収集コストも高いため、スケーラビリティと多様性に制約が生じている。近年の研究では、大規模なインターネット動画を活用してデータ収集をスケールアップする試みがなされており、Humanoid-Xがその一例である。しかしこのアプローチは、浮遊、重なり合い、足のスケーティングといった物理的不整合を引き起こすことが多く、安定したイミテーションを阻害する。こうした課題に対応して、本研究では、大規模な人間の動画データを活用しつつ、厳密なデータ選定と物理制約を施したリターゲティングによって物理的不整合を解消する、物理的根拠を持つ人型歩行データセット「PHUMA(Physically-grounded HUMAnoid locomotion dataset)」を提案する。PHUMAは関節制限の強制、地面接触の確保、足のスケーティングの排除を実現し、大規模かつ物理的に信頼性の高いモーションを生成する。本研究では、PHUMAの有効性を2つの条件下で評価した:(i) 自己記録したテスト動画における未観測モーションのイミテーション、および (ii) 骨盤のみのガイダンスによる経路追従。両方の設定において、PHUMAで訓練されたポリシーは、Humanoid-XおよびAMASSを上回り、多様なモーションの再現性において顕著な向上を達成した。コードは https://davian-robotics.github.io/PHUMA にて公開されている。