Command Palette
Search for a command to run...
« Pourquoi devrais-je vous faire confiance ? » : Explication des prédictions de tout classificateur
« Pourquoi devrais-je vous faire confiance ? » : Explication des prédictions de tout classificateur
Ribeiro Marco Tulio Singh Sameer Guestrin Carlos
Résumé
Malgré son adoption généralisée, le fonctionnement des modèles d’apprentissage automatique reste en grande partie une boîte noire. Comprendre les raisons sous-jacentes aux prédictions est toutefois essentiel pour évaluer la confiance qu’on peut leur accorder, ce qui est fondamental lorsqu’on envisage d’agir en se basant sur une prédiction, ou lorsqu’il s’agit de décider si l’on doit déployer un nouveau modèle. Cette compréhension fournit également des éclairages précieux sur le modèle lui-même, pouvant être utilisés pour transformer un modèle ou une prédiction peu fiables en modèles ou prédictions fiables. Dans ce travail, nous proposons LIME, une nouvelle technique d’explication qui explique les prédictions de tout classificateur de manière interprétable et fidèle, en apprenant un modèle interprétable localement autour de la prédiction. Nous proposons également une méthode pour expliquer les modèles en présentant de manière non redondante des prédictions individuelles représentatives ainsi que leurs explications, en reformulant la tâche comme un problème d’optimisation sous-modulaire. Nous démontrons la souplesse de ces méthodes en les appliquant à différents modèles de classification de texte (par exemple, forêts aléatoires) et d’images (par exemple, réseaux de neurones). Nous illustrons l’utilité des explications à travers de nouveaux expériences, à la fois simulées et menées avec des sujets humains, dans divers scénarios nécessitant de la confiance : décider si l’on doit faire confiance à une prédiction, choisir entre plusieurs modèles, améliorer un classificateur peu fiable, ou identifier les raisons pour lesquelles un classificateur ne devrait pas être considéré comme fiable.