HyperAIHyperAI
il y a 2 mois

SynthDistill : Reconnaissance faciale avec distillation de connaissances à partir de données synthétiques

Shahreza, Hatef Otroshi ; George, Anjith ; Marcel, Sébastien
SynthDistill : Reconnaissance faciale avec distillation de connaissances à partir de données synthétiques
Résumé

Les réseaux de reconnaissance faciale de pointe sont souvent coûteux en termes de calcul et ne peuvent pas être utilisés pour les applications mobiles. L'entraînement de modèles de reconnaissance faciale légers nécessite également des jeux de données volumineux étiquetés par identité. Parallèlement, il existe des préoccupations liées à la vie privée et à l'éthique concernant la collecte et l'utilisation de grands jeux de données de reconnaissance faciale. Bien que la génération de jeux de données synthétiques pour entraîner des modèles de reconnaissance faciale soit une option alternative, il est difficile de générer des données synthétiques avec une variabilité intra-classe suffisante. De plus, il subsiste un écart considérable entre les performances des modèles entraînés sur des données réelles et synthétiques. Dans cet article, nous proposons un nouveau cadre (nommé SynthDistill) pour entraîner des modèles de reconnaissance faciale légers en distillant les connaissances d'un modèle pré-entraîné de reconnaissance faciale à l'aide de données synthétiques. Nous utilisons un réseau génératif facial pré-entraîné pour générer des images faciales synthétiques et ces images synthétisées pour apprendre un réseau étudiant léger. Nous utilisons des images faciales synthétiques sans étiquettes d'identité, atténuant ainsi les problèmes liés à la génération de variabilité intra-classe dans les jeux de données synthétiques. À la place, nous proposons une nouvelle stratégie d'échantillonnage dynamique à partir de l'espace latent intermédiaire du réseau génératif facial afin d'inclure de nouvelles variations d'images difficiles tout en explorant davantage d'images faciales dans le lot d'entraînement. Les résultats sur cinq différents jeux de données de reconnaissance faciale démontrent la supériorité de notre modèle léger par rapport aux modèles entraînés sur des jeux de données synthétiques précédents, atteignant une précision de vérification de 99,52 % sur le jeu de données LFW avec un réseau léger. Les résultats montrent également que notre cadre proposé réduit considérablement l'écart entre l'entraînement avec des données réelles et synthétiques. Le code source permettant la reproduction des expériences est rendu publiquement disponible.

SynthDistill : Reconnaissance faciale avec distillation de connaissances à partir de données synthétiques | Articles de recherche récents | HyperAI