Réseau Agrégé de Style pour la Détection de Points de Repère Faciaux

Les récentes avancées dans la détection des points de repère faciaux obtiennent des succès en apprenant des caractéristiques discriminantes à partir des déformations riches des formes et des poses du visage. Outre la variabilité inhérente aux visages eux-mêmes, la variabilité intrinsèque des styles d'images, par exemple, les images en niveaux de gris versus les images couleur, les images claires versus les images sombres, les images vives versus les images ternes, etc., a constamment été négligée. Ce problème devient inévitable alors que de plus en plus d'images web sont collectées à partir de diverses sources pour l'entraînement des réseaux neuronaux. Dans ce travail, nous proposons une approche agrégée par le style pour traiter la grande variabilité intrinsèque des styles d'images dans la détection des points de repère faciaux. Notre méthode transforme les images faciales originales en images agrégées par le style grâce à un module génératif adversarial. Le schéma proposé utilise l'image agrégée par le style pour maintenir des images faciales plus robustes aux changements environnementaux. Ensuite, les images faciales originales accompagnées d'images agrégées par le style jouent un duo pour entraîner un détecteur de points de repère qui se complètent mutuellement. De cette manière, pour chaque visage, notre méthode prend deux images en entrée, c'est-à-dire une image dans son style original et l'autre dans le style agrégé. Dans nos expériences, nous observons que la grande variabilité des styles d'images peut dégrader les performances des détecteurs de points de repère faciaux. De plus, nous montrons la robustesse de notre méthode face à la grande variabilité des styles d'images en comparaison avec une version modifiée de notre approche, où le module génératif adversarial est supprimé et aucune image agrégée par le style n'est utilisée. Notre approche est démontrée comme performante lorsqu'elle est comparée aux algorithmes de pointe sur les jeux de données de référence AFLW et 300-W. Le code source est disponible publiquement sur GitHub : https://github.com/D-X-Y/SAN