Apprentissage profond explicatif : une approche d'analytique visuelle basée sur des matrices de transition
La transparence insuffisante des systèmes d’intelligence artificielle (IA), en particulier dans le domaine de l’apprentissage profond (DL), pose des défis majeurs quant à leur compréhensibilité et leur fiabilité. Cette étude vise à améliorer l’explicabilité des modèles d’apprentissage profond grâce à des méthodes d’analyse visuelle (VA) et aux principes d’interaction humaine dans la boucle (HITL), rendant ainsi ces systèmes plus transparents et accessibles aux utilisateurs finaux. Dans ce travail, nous proposons une approche originale qui utilise une matrice de transition pour interpréter les résultats des modèles DL à l’aide de modèles d’apprentissage automatique (ML) plus compréhensibles. La méthodologie consiste à construire une matrice de transition entre les espaces de caractéristiques des modèles DL et ML, considérés respectivement comme des modèles formels et mentaux, afin d’améliorer l’explicabilité des tâches de classification. Nous avons validé notre approche à l’aide d’expériences computationnelles sur les jeux de données MNIST, FNC-1 et Iris, en utilisant des critères qualitatifs et quantitatifs, à savoir la différence entre les résultats obtenus par notre méthode et la vérité terrain des échantillons d’entraînement et de test. L’approche proposée a considérablement amélioré la clarté et la compréhension du modèle sur le jeu de données MNIST, avec des valeurs respectives de SSIM et PSNR de 0,697 et 17,94, témoignant de reconstructions à haute fidélité. Par ailleurs, en atteignant un score F1m de 77,76 % et une précision pondérée de 89,38 %, notre méthode s’est révélée efficace pour la détection de position (stance detection) sur le jeu de données FNC-1, tout en étant capable d’expliquer des nuances textuelles clés. Pour le jeu de données Iris, l’hyperplan de séparation construit selon l’approche proposée a permis d’améliorer la précision de classification. Globalement, en combinant VA, les principes HITL et une matrice de transition, notre approche améliore significativement l’explicabilité des modèles DL sans compromettre leurs performances, marquant ainsi une avancée importante vers le développement de systèmes d’IA plus transparents et plus fiables.