Explication causale des réseaux de neurones convolutionnels
Dans cet article, nous introduisons une technique d’explication pour les réseaux de neurones convolutifs (CNN) fondée sur la théorie de la causalité développée par Halpern et Pearl [12]. La technique d’explication causale (CexCNN) repose sur la mesure de l’importance des filtres dans la décision d’un CNN, évaluée à l’aide d’un raisonnement contre-factuel. En outre, nous utilisons des définitions étendues de la causalité, à savoir la responsabilité et la faute, afin de pondérer l’importance de ces filtres et de projeter leur contribution sur les images d’entrée. Étant donné que les CNN présentent une structure hiérarchique, et que les modèles causaux peuvent également être abstraits de manière hiérarchique, nous exploitons cette similarité pour réaliser la contribution la plus importante de ce travail : localiser les caractéristiques importantes de l’image d’entrée qui ont le plus contribué à la décision du CNN. En plus de sa capacité à localiser ces caractéristiques, nous montrons également que CexCNN peut s’avérer utile pour la compression de modèles par élagage (pruning) des filtres moins importants. Nous avons testé CexCNN sur plusieurs architectures de CNN et plusieurs jeux de données. (Le code est disponible à l’adresse https://github.com/HichemDebbi/CexCNN)