HyperAIHyperAI

Command Palette

Search for a command to run...

SynthDistill : Reconnaissance faciale avec distillation de connaissances à partir de données synthétiques

Hatef Otroshi Shahreza Anjith George Sébastien Marcel

Résumé

Les réseaux de reconnaissance faciale de pointe sont souvent coûteux en termes de calcul et ne peuvent pas être utilisés pour les applications mobiles. L'entraînement de modèles de reconnaissance faciale légers nécessite également des jeux de données volumineux étiquetés par identité. Parallèlement, il existe des préoccupations liées à la vie privée et à l'éthique concernant la collecte et l'utilisation de grands jeux de données de reconnaissance faciale. Bien que la génération de jeux de données synthétiques pour entraîner des modèles de reconnaissance faciale soit une option alternative, il est difficile de générer des données synthétiques avec une variabilité intra-classe suffisante. De plus, il subsiste un écart considérable entre les performances des modèles entraînés sur des données réelles et synthétiques. Dans cet article, nous proposons un nouveau cadre (nommé SynthDistill) pour entraîner des modèles de reconnaissance faciale légers en distillant les connaissances d'un modèle pré-entraîné de reconnaissance faciale à l'aide de données synthétiques. Nous utilisons un réseau génératif facial pré-entraîné pour générer des images faciales synthétiques et ces images synthétisées pour apprendre un réseau étudiant léger. Nous utilisons des images faciales synthétiques sans étiquettes d'identité, atténuant ainsi les problèmes liés à la génération de variabilité intra-classe dans les jeux de données synthétiques. À la place, nous proposons une nouvelle stratégie d'échantillonnage dynamique à partir de l'espace latent intermédiaire du réseau génératif facial afin d'inclure de nouvelles variations d'images difficiles tout en explorant davantage d'images faciales dans le lot d'entraînement. Les résultats sur cinq différents jeux de données de reconnaissance faciale démontrent la supériorité de notre modèle léger par rapport aux modèles entraînés sur des jeux de données synthétiques précédents, atteignant une précision de vérification de 99,52 % sur le jeu de données LFW avec un réseau léger. Les résultats montrent également que notre cadre proposé réduit considérablement l'écart entre l'entraînement avec des données réelles et synthétiques. Le code source permettant la reproduction des expériences est rendu publiquement disponible.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp