Ein ganz neuer Tanzpartner: musikbedingte pluralistische Tanzsteuerung durch mehrere Tanzstile

Beim Entwerfen von Bewegungsmustern verfügen Choreografen alle über eigene Gewohnheiten, da sie mit ihren spezifischen Tanzgenres vertraut sind. Daher neigen sie dazu, wiederkehrende Muster aus den Tanzformen zu verwenden, denen sie gewohnt sind. Was wäre, wenn künstliche Intelligenz eingesetzt werden könnte, um Choreografen dabei zu unterstützen, verschiedene Tanzgenres zu kombinieren, indem sie verschiedene Tänze vorschlägt, die zu ihrem choreografischen Stil passen? Zahlreiche auf spezifische Aufgaben zugeschnittene Varianten autoregressiver Netzwerke wurden bereits für die Generierung von Tanz entwickelt. Dennoch bleibt ein gravierender Nachteil bestehen: Alle bestehenden Algorithmen liefern für eine gegebene Ausgangspose-Sequenz wiederholte Muster, was oft zu minderwertigen Ergebnissen führt. Um dieses Problem zu mildern, schlagen wir MNET vor – einen neuartigen und skalierbaren Ansatz, der Musikbedingte, mehrfache Tanzgenerierung unter Verwendung mehrerer Tanzgenres mit nur einem einzigen Modell ermöglicht. Hier lernen wir eine genrebewusste latente Darstellung, indem wir ein bedingtes generatives adversariales Netzwerk mit Transformer-Architektur trainieren. Wir führen umfangreiche Experimente auf der AIST++-Datenbank sowie Nutzerstudien durch. Im Vergleich zu den derzeit fortschrittlichsten Methoden generiert unser Ansatz plausibel erscheinende und vielfältige Ausgaben, die mehrere Tanzgenres berücksichtigen, und erzielt qualitativ wie quantitativ überlegene Tanzsequenzen.