Segmentation et localisation conjointes de l'iris à l'aide d'un cadre d'apprentissage multi-tâches profond

La segmentation et la localisation de l'iris dans un environnement non coopératif sont des défis en raison des variations d'éclairage, des distances importantes, des sujets en mouvement et d'une coopération limitée de l'utilisateur, entre autres. Les méthodes traditionnelles souffrent souvent d'une performance médiocre lorsqu'elles sont confrontées à des images d'iris capturées dans ces conditions. Des études récentes ont montré que les méthodes d'apprentissage profond pouvaient obtenir des performances impressionnantes pour la tâche de segmentation de l'iris. De plus, comme l'iris est défini comme une région annulaire située entre la pupille et le scléra, il est possible d'imposer des contraintes géométriques pour aider à localiser l'iris avec plus de précision et améliorer les résultats de segmentation. Dans cet article, nous proposons un cadre d'apprentissage multitâche profond, nommé IrisParseNet, qui exploite les corrélations inhérentes entre la pupille, l'iris et le scléra afin d'améliorer la performance de la segmentation et de la localisation de l'iris dans un modèle unifié. Plus précisément, IrisParseNet applique tout d'abord un réseau d'attention encodeur-décodeur entièrement convolutionnel pour estimer simultanément le centre de la pupille, le masque de segmentation de l'iris et les frontières intérieure/extérieure de l'iris. Ensuite, une méthode efficace de post-traitement est adoptée pour la localisation circulaire interne/externe de l'iris. Pour entraîner et évaluer la méthode proposée, nous avons manuellement annoté trois jeux de données d'iris difficiles : CASIA-Iris-Distance, UBIRIS.v2 et MICHE-I, qui couvrent divers types de bruits. Des expériences approfondies ont été menées sur ces nouveaux jeux de données annotés, et les résultats montrent que notre méthode surpasse les méthodes les plus avancées sur diverses références. Toutes les annotations véritables (ground-truth), les codes d'annotation et les protocoles d'évaluation sont disponibles au public sur https://github.com/xiamenwcy/IrisParseNet.