Command Palette
Search for a command to run...
Fashion-VDM: Video-Diffusionsmodell für virtuelle Anproben
Fashion-VDM: Video-Diffusionsmodell für virtuelle Anproben
Johanna Karras Yingwei Li Nan Liu Luyang Zhu Innfarn Yoo Andreas Lugmayr Chris Lee Ira Kemelmacher-Shlizerman
Zusammenfassung
Wir stellen Fashion-VDM vor, ein Video-Diffusionsmodell (VDM), das virtuelle Anprobevideos generiert. Bei einem Eingabebild eines Kleidungsstücks und einem Personenvideo zielt unsere Methode darauf ab, ein hochwertiges Anprobevideo zu erzeugen, bei dem die Person das gegebene Kleidungsstück trägt, während gleichzeitig ihre Identität und Bewegung erhalten bleiben. Bildbasierte virtuelle Anproben haben beeindruckende Ergebnisse gezeigt; jedoch fehlen den existierenden Video-virtuellen Anprobemethoden (VVT) noch Kleidungsdetails und zeitliche Konsistenz. Um diese Probleme zu lösen, schlagen wir eine diffusionsbasierte Architektur für Video-virtuelle Anproben vor, eine geteilte klassifikatorfreie Steuerung für eine erhöhte Kontrolle über die konditionierenden Eingaben sowie eine progressive zeitliche Trainingsstrategie zur Erzeugung von 64-Bildern, 512-Pixel-Videos in einer einzigen Passage. Wir zeigen außerdem die Effektivität des gemeinsamen Bild-Video-Trainings für Videoanproben, insbesondere wenn die verfügbaren Videodaten begrenzt sind. Unsere qualitativen und quantitativen Experimente belegen, dass unser Ansatz den neuen Stand der Technik in der Video-virtuellen Anprobe darstellt. Für weitere Ergebnisse besuchen Sie bitte unsere Projektseite: https://johannakarras.github.io/Fashion-VDM.