HyperAIHyperAI

Command Palette

Search for a command to run...

Segmentation et localisation conjointes de l'iris à l'aide d'un cadre d'apprentissage multi-tâches profond

Caiyong Wang Yuhao Zhu Yunfan Liu Ran He Zhenan Sun

Résumé

La segmentation et la localisation de l'iris dans un environnement non coopératif sont des défis en raison des variations d'éclairage, des distances importantes, des sujets en mouvement et d'une coopération limitée de l'utilisateur, entre autres. Les méthodes traditionnelles souffrent souvent d'une performance médiocre lorsqu'elles sont confrontées à des images d'iris capturées dans ces conditions. Des études récentes ont montré que les méthodes d'apprentissage profond pouvaient obtenir des performances impressionnantes pour la tâche de segmentation de l'iris. De plus, comme l'iris est défini comme une région annulaire située entre la pupille et le scléra, il est possible d'imposer des contraintes géométriques pour aider à localiser l'iris avec plus de précision et améliorer les résultats de segmentation. Dans cet article, nous proposons un cadre d'apprentissage multitâche profond, nommé IrisParseNet, qui exploite les corrélations inhérentes entre la pupille, l'iris et le scléra afin d'améliorer la performance de la segmentation et de la localisation de l'iris dans un modèle unifié. Plus précisément, IrisParseNet applique tout d'abord un réseau d'attention encodeur-décodeur entièrement convolutionnel pour estimer simultanément le centre de la pupille, le masque de segmentation de l'iris et les frontières intérieure/extérieure de l'iris. Ensuite, une méthode efficace de post-traitement est adoptée pour la localisation circulaire interne/externe de l'iris. Pour entraîner et évaluer la méthode proposée, nous avons manuellement annoté trois jeux de données d'iris difficiles : CASIA-Iris-Distance, UBIRIS.v2 et MICHE-I, qui couvrent divers types de bruits. Des expériences approfondies ont été menées sur ces nouveaux jeux de données annotés, et les résultats montrent que notre méthode surpasse les méthodes les plus avancées sur diverses références. Toutes les annotations véritables (ground-truth), les codes d'annotation et les protocoles d'évaluation sont disponibles au public sur https://github.com/xiamenwcy/IrisParseNet.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp