Kontrollierbare Gruppenchoreografie mittels kontrastiver Diffusion

Musikgetriebene Gruppenchoreografien stellen eine erhebliche Herausforderung dar, bergen jedoch ein großes Potenzial für eine Vielzahl industrieller Anwendungen. Die Fähigkeit, synchronisierte und visuell ansprechende Gruppentanzbewegungen zu generieren, die präzise auf Musik abgestimmt sind, eröffnet vielfältige Möglichkeiten in Bereichen wie Unterhaltung, Werbung und virtuelle Aufführungen. Allerdings sind die meisten aktuellen Ansätze nicht in der Lage, hochfidelitätsvolle, langfristige Bewegungsabläufe zu erzeugen oder eine kontrollierbare Benutzererfahrung zu ermöglichen. In dieser Arbeit zielen wir darauf ab, die Nachfrage nach hochwertiger und anpassbarer Generierung von Gruppentänzen durch eine effektive Steuerung der Konsistenz und Vielfalt von Choreografien zu befriedigen. Insbesondere nutzen wir einen auf Diffusion basierenden generativen Ansatz, um die Synthese einer flexiblen Anzahl von Tänzern und langfristiger Gruppentänze zu ermöglichen, während gleichzeitig die Kohärenz zur Eingabemusik gewährleistet wird. Schließlich führen wir eine Group Contrastive Diffusion (GCD)-Strategie ein, um die Verbindung zwischen den Tänzern und ihrer Gruppe zu verstärken und die Kontrolle über das Maß an Konsistenz oder Vielfalt der generierten Gruppenanimationen mittels classifier-guided Sampling-Technik zu ermöglichen. Durch umfangreiche Experimente und Evaluationen zeigen wir die Wirksamkeit unseres Ansatzes bei der Erzeugung visuell fesselnder und konsistenter Gruppentanzbewegungen. Die experimentellen Ergebnisse belegen die Fähigkeit unserer Methode, die gewünschten Grade an Konsistenz und Vielfalt zu erreichen, während die Gesamtqualität der generierten Choreografie erhalten bleibt. Der Quellcode ist unter https://aioz-ai.github.io/GCD verfügbar.