Command Palette
Search for a command to run...
Génération de modèle de vêtement à haute fidélité avec supervision faible
Génération de modèle de vêtement à haute fidélité avec supervision faible
Ruili Feng Cheng Ma Chengji Shen Xin Gao Zhenjiang Liu Xiaobo Li Kairi Ou Zhengjun Zha
Résumé
Le développement de l’économie en ligne renforce la demande de génération d’images de mannequins portant des vêtements, afin de présenter de nouveaux produits et d’accroître les ventes. Toutefois, les modèles d’images de mannequins propriétaires coûteux posent un défi aux méthodes existantes de simulation virtuelle de vêtements, car la plupart d’entre elles nécessitent un entraînement sur de grandes quantités d’images de mannequins accompagnées d’images appariées de vêtements. Dans cet article, nous proposons une méthode faiblement supervisée, peu coûteuse et évolutif, appelée Deep Generative Projection (DGP), conçue spécifiquement pour ce contexte. Au cœur de cette méthode réside l’imitation du processus par lequel un être humain prédit l’effet d’un vêtement porté — une imagination non supervisée fondée sur l’expérience de la vie quotidienne, plutôt que sur des règles de calcul apprises à partir d’étiquetages. Pour cela, un StyleGAN pré-entraîné est utilisé afin de capturer l’expérience pratique du port de vêtements. Les expériences montrent qu’en projetant une alignment brute entre le corps et le vêtement dans l’espace du StyleGAN, il est possible d’obtenir des résultats de port photo-réalistes. Des évaluations sur des images réelles de mannequins propriétaires démontrent l’avantage de DGP par rapport à plusieurs méthodes supervisées de pointe dans la génération d’images de mannequins portant des vêtements.