PHUMA: Physikalisch-gegründeter Datensatz für humanoides Gehen
Kyungmin Lee Sibeen Kim Minho Park Hyunseung Kim Dongyoon Hwang Hojoon Lee Jaegul Choo

Abstract
Die Nachahmung von Bewegungen ist ein vielversprechender Ansatz für die Laufbewegung humanoider Roboter, der es Agenten ermöglicht, menschenähnliche Verhaltensweisen zu erlernen. Bisherige Methoden stützen sich typischerweise auf hochwertige Motion-Capture-Datensätze wie AMASS, die jedoch selten und kostspielig sind, was die Skalierbarkeit und Vielfalt einschränkt. Kürzlich versuchen Forschungsarbeiten, die Datensammlung zu skalieren, indem sie große Internet-Videos umwandeln, beispielhaft vertreten durch Humanoid-X. Allerdings führen diese Ansätze oft zu physikalischen Artefakten wie Schweben, Durchdringungen und Fußgleiten, die eine stabile Nachahmung behindern. Daraufhin stellen wir PHUMA vor – einen physikalisch fundierten Datensatz für humanoiden Lauf, der menschliche Videos in großem Maßstab nutzt und physikalische Artefakte durch sorgfältige Datenauswahl und physikbasierte Retargeting-Methoden adressiert. PHUMA setzt Gelenkbeschränkungen durch, gewährleistet Bodenkontakt und beseitigt Fußgleiten, wodurch Bewegungen entstehen, die sowohl großskalig als auch physikalisch zuverlässig sind. Wir haben PHUMA in zwei Testkonditionen evaluiert: (i) die Nachahmung bisher unbekannter Bewegungen aus selbst aufgenommenen Testvideos und (ii) Pfadverfolgung mit lediglich pelvisbasiertem Leitungsinput. In beiden Fällen übertrifft die mit PHUMA trainierte Politik die Ergebnisse von Humanoid-X und AMASS und erzielt signifikante Verbesserungen bei der Nachahmung vielfältiger Bewegungen. Der Quellcode ist unter https://davian-robotics.github.io/PHUMA verfügbar.
KI mit KI entwickeln
Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.