ClothFlow: Ein flussbasiertes Modell zur Generierung bekleideter Personen

Wir präsentieren ClothFlow, ein auf Erscheinungsbild-Fluss basierendes generatives Modell zur Synthese bekleideter Personen für posegesteuerte Personenbildgenerierung und virtuelles Anprobieren. Durch die Schätzung eines dichten Flusses zwischen Quell- und Zielkleidungsbereichen modelliert ClothFlow effektiv geometrische Veränderungen und überträgt die Erscheinung nahtlos, um neue Bilder zu erzeugen, wie in Abbildung 1 gezeigt. Dies erreichen wir durch einen dreistufigen Rahmen: 1) Unter der Bedingung einer Zielpose schätzen wir zunächst eine personensemantische Anordnung, um den Generierungsprozess durch reichhaltigere Anleitungen zu unterstützen. 2) Aufbauend auf zwei Feature-Pyramiden-Netzwerken schätzt ein kaskadierendes Fluss-Schätzungs-Netzwerk präzise die Erscheinungskorrespondenz zwischen entsprechenden Kleidungsbereichen. Der resultierende dichte Fluss verformt das Quellbild flexibel, um Deformationen angemessen zu berücksichtigen. 3) Schließlich nimmt ein generatives Netzwerk die verformten Kleidungsbereiche als Eingaben entgegen und rendernt die Zielansicht. Wir führen umfangreiche Experimente auf dem DeepFashion-Datensatz für posegesteuerte Personenbildgenerierung und auf dem VITON-Datensatz für die Aufgabe des virtuellen Anprobierens durch. Starke qualitative und quantitative Ergebnisse bestätigen die Wirksamkeit unseres Ansatzes.