Command Palette
Search for a command to run...
Estimation de l'âge et du sexe dans des conditions naturelles à l'aide d'une architecture profonde RoR
Estimation de l'âge et du sexe dans des conditions naturelles à l'aide d'une architecture profonde RoR
Résumé
Prédire automatiquement le groupe d’âge et le sexe à partir d’images faciales acquises dans des conditions non contraintes constitue une tâche importante mais difficile dans de nombreuses applications réelles. Toutefois, les méthodes classiques basées sur des caractéristiques conçues manuellement sur des jeux de données « in-the-wild » se révèlent insatisfaisantes en raison de leur incapacité à gérer les grandes variations présentes dans ces images. Cette difficulté est partiellement atténuée grâce aux Réseaux de Neurones Convolutionnels (CNN), grâce à leur puissante capacité de représentation des caractéristiques. Dans cet article, nous proposons une nouvelle méthode basée sur les CNN pour l’estimation du groupe d’âge et du sexe, exploitant les Réseaux à Résidus de Résidus (RoR), qui présente une meilleure capacité d’optimisation pour la classification du groupe d’âge et du sexe par rapport à d’autres architectures CNN. En outre, deux mécanismes modestes, fondés sur l’observation des caractéristiques propres au groupe d’âge, sont introduits afin d’améliorer davantage les performances de l’estimation de l’âge. Afin d’optimiser davantage les performances et de réduire le surapprentissage, le modèle RoR est d’abord pré-entraîné sur ImageNet, puis finement ajusté sur le jeu de données IMDB-WIKI-101 afin d’acquérir des caractéristiques spécifiques aux images faciales, avant d’être finement ajusté une dernière fois sur le jeu de données Adience. Nos expérimentations démontrent l’efficacité de la méthode RoR pour l’estimation du groupe d’âge et du sexe dans des conditions réelles, où elle obtient des performances supérieures à celles des autres méthodes basées sur les CNN. Enfin, la configuration RoR-152 + IMDB-WIKI-101, combinée aux deux mécanismes, atteint de nouveaux records sur le benchmark Adience.