HyperAIHyperAI
il y a 17 jours

Les explications fondées sur la correspondance visuelle améliorent la robustesse de l'IA et la précision de l'équipe humain-IA

Giang Nguyen, Mohammad Reza Taesiri, Anh Nguyen
Les explications fondées sur la correspondance visuelle améliorent la robustesse de l'IA et la précision de l'équipe humain-IA
Résumé

L’explication des prédictions effectuées par l’intelligence artificielle (IA) devient de plus en plus importante, voire impérative, dans de nombreuses applications à enjeux élevés où les humains sont les décideurs finaux. Dans ce travail, nous proposons deux nouvelles architectures de classificateurs d’images auto-interprétables qui expliquent d’abord, puis prédirent (contrairement aux explications post-hoc), en exploitant les correspondances visuelles entre une image interrogée et des exemples représentatifs. Nos modèles améliorent de manière cohérente (de 1 à 4 points) les performances sur des jeux de données hors distribution (OOD), tout en se situant légèrement en dessous (de 1 à 2 points) de ResNet-50 et du classificateur à plus proches voisins (kNN) sur les tests in-distribution. À travers une étude humaine à grande échelle menée sur ImageNet et CUB, nous constatons que les explications fondées sur les correspondances sont perçues comme plus utiles par les utilisateurs que les explications issues du kNN. De plus, nos explications aident les utilisateurs à rejeter plus précisément les décisions erronées de l’IA que toutes les autres méthodes testées. De façon intéressante, pour la première fois, nous démontrons qu’il est possible d’atteindre une précision combinée complémentaire humain-IA (c’est-à-dire supérieure à celle de l’IA seule ou de l’humain seul) dans les tâches de classification d’images sur ImageNet et CUB.