HyperAIHyperAI
il y a 16 jours

Take 5 : Classification d'images interprétable avec une poignée de caractéristiques

Thomas Norrenbrock, Marco Rudolph, Bodo Rosenhahn
Take 5 : Classification d'images interprétable avec une poignée de caractéristiques
Résumé

Les réseaux de neurones profonds utilisent des milliers de caractéristiques, généralement peu compréhensibles, pour identifier une seule classe, une décision que l’humain ne peut pas suivre. Nous proposons une couche de décision finale interprétable, creuse et à faible dimension dans un réseau de neurones profond, avec des aspects mesurables d’interprétabilité, et démontrons son efficacité sur une tâche de classification d’images fine. Nous soutenons qu’un humain ne peut comprendre la décision d’un modèle d’apprentissage automatique que si les caractéristiques utilisées sont interprétables et si très peu d’entre elles sont mobilisées pour chaque décision. À cet effet, la couche finale doit être creuse, et pour rendre l’interprétation des caractéristiques réalisable, à faible dimension. Nous appelons un tel modèle un modèle SLDD (Sparse Low-Dimensional Decision). Nous montrons qu’un modèle SLDD est plus facile à interpréter, tant localement qu’au niveau global, qu’une couche de décision dense et à haute dimension, tout en maintenant une précision compétitive. En outre, nous proposons une fonction de perte qui améliore la diversité des caractéristiques et la précision du modèle. Notre modèle SLDD, plus interprétable, n’utilise que 5 caractéristiques parmi 50 par classe, tout en conservant entre 97 % et 100 % de la précision sur quatre jeux de données standards par rapport au modèle de référence utilisant 2048 caractéristiques.

Take 5 : Classification d'images interprétable avec une poignée de caractéristiques | Articles de recherche récents | HyperAI