HyperAIHyperAI

Command Palette

Search for a command to run...

Explication causale des réseaux de neurones convolutionnels

Hichem Debbi

Résumé

Dans cet article, nous introduisons une technique d’explication pour les réseaux de neurones convolutifs (CNN) fondée sur la théorie de la causalité développée par Halpern et Pearl [12]. La technique d’explication causale (CexCNN) repose sur la mesure de l’importance des filtres dans la décision d’un CNN, évaluée à l’aide d’un raisonnement contre-factuel. En outre, nous utilisons des définitions étendues de la causalité, à savoir la responsabilité et la faute, afin de pondérer l’importance de ces filtres et de projeter leur contribution sur les images d’entrée. Étant donné que les CNN présentent une structure hiérarchique, et que les modèles causaux peuvent également être abstraits de manière hiérarchique, nous exploitons cette similarité pour réaliser la contribution la plus importante de ce travail : localiser les caractéristiques importantes de l’image d’entrée qui ont le plus contribué à la décision du CNN. En plus de sa capacité à localiser ces caractéristiques, nous montrons également que CexCNN peut s’avérer utile pour la compression de modèles par élagage (pruning) des filtres moins importants. Nous avons testé CexCNN sur plusieurs architectures de CNN et plusieurs jeux de données. (Le code est disponible à l’adresse https://github.com/HichemDebbi/CexCNN)


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Explication causale des réseaux de neurones convolutionnels | Articles | HyperAI