Schwach beschriftete Generierung hochfidelitätsreicher Kleidungsmodelle

Die Entwicklung der Online-Wirtschaft erzeugt einen steigenden Bedarf an der Erzeugung von Bildern von Modellen in Kleidung, um neue Produkte zu präsentieren und den Verkauf zu fördern. Allerdings stellen die kostspieligen proprietären Modellbilder eine Herausforderung für bestehende Methoden des virtuellen Anprobierens von Kleidung dar, da die meisten dieser Methoden auf umfangreichen Datensätzen aus Modellbildern in Kombination mit entsprechenden Kleidungsbildern trainiert werden müssen. In diesem Artikel stellen wir eine kostengünstige und skalierbare, schwach überwachte Methode namens Deep Generative Projection (DGP) vor, um genau dieses Szenario zu adressieren. Im Kern der vorgeschlagenen Methode steht die Nachahmung des menschlichen Prozesses der Vorhersage des Trageeffekts – einer unsupervisierten Vorstellungskraft, die auf Lebenserfahrung basiert und nicht auf berechnete Regeln, die aus überwachten Daten gelernt wurden. Hierbei wird ein vortrainiertes StyleGAN genutzt, um die praktische Erfahrung des Tragens zu erfassen. Experimente zeigen, dass die Projektion der groben Ausrichtung von Kleidung und Körper in den StyleGAN-Raum photo-realistische Trageergebnisse erzeugen kann. Experimente mit realen, proprietären Modellbildern aus der Praxis belegen die Überlegenheit von DGP gegenüber mehreren state-of-the-art-Methoden mit starker Aufsicht bei der Generierung von Kleidungsmodellbildern.