HyperAIHyperAI
il y a 2 mois

MeshTalk : Animation 3D du visage à partir de la parole en utilisant la désentrelacement inter-modalités

Richard, Alexander ; Zollhoefer, Michael ; Wen, Yandong ; de la Torre, Fernando ; Sheikh, Yaser
MeshTalk : Animation 3D du visage à partir de la parole en utilisant la désentrelacement inter-modalités
Résumé

Ce document présente une méthode générique pour la génération d'animations 3D faciales à partir de la parole. Les approches existantes pour l'animation faciale pilotée par l'audio présentent souvent des animations du haut du visage étranges ou statiques, échouent à produire des co-articulations précises et plausibles, ou dépendent de modèles spécifiques à une personne qui limitent leur capacité d'échelle. Pour améliorer ces modèles existants, nous proposons une approche générique d'animation faciale pilotée par l'audio qui permet d'obtenir des résultats de synthèse de mouvement très réalistes pour l'ensemble du visage. Au cœur de notre méthode se trouve un espace latent catégoriel pour l'animation faciale qui dissocie les informations corrélées et non corrélées à l'audio grâce à une nouvelle perte inter-modalité (cross-modality loss). Notre approche garantit des mouvements labiaux très précis, tout en synthétisant des animations plausibles des parties du visage non corrélées au signal audio, telles que les clignements d'yeux et les mouvements des sourcils. Nous montrons que notre méthode surpasse plusieurs méthodes de référence et atteint un niveau de qualité de pointe tant qualitativement que quantitativement. Une étude perceptive auprès des utilisateurs démontre que notre méthode est jugée plus réaliste que l'état actuel de l'art dans plus de 75 % des cas. Nous recommandons de visionner la vidéo supplémentaire avant de lire le document :https://github.com/facebookresearch/meshtalk