Vers les meilleures pratiques pour expliquer les décisions des réseaux de neurones à l’aide de LRP

Au cours de la dernière décennie, les prédicteurs basés sur les réseaux de neurones ont fait preuve de capacités remarquables — parfois même supérieures à celles de l’humain. Ce niveau de performance est souvent obtenu au prix d’un processus de prédiction opaque, ce qui a suscité de nombreuses contributions dans le domaine émergent de l’intelligence artificielle explicable (XAI, Explainable Artificial Intelligence). Dans cet article, nous nous concentrons sur une méthode populaire et largement utilisée dans le cadre de l’XAI : la propagation de la pertinence couche par couche (LRP, Layer-wise Relevance Propagation). Depuis sa proposition initiale, la LRP s’est développée en tant que méthode, et une pratique optimale s’est progressivement établie, bien que fondée uniquement sur des observations humaines. Dans ce travail, nous étudions — pour la première fois de manière quantitative — l’impact de cette pratique actuelle sur les réseaux de neurones à propagation avant dans un contexte de détection d’objets visuels. Les résultats confirment que l’approche de LRP dépendante de la couche, utilisée dans les publications récentes, représente de manière plus fidèle le raisonnement du modèle, tout en améliorant simultanément la localisation des objets et la discriminativité de la classe dans les cartes de pertinence LRP.