Apprentissage de caractéristiques locales discrètes dans les réseaux neuronaux convolutifs conçus pour être explicables

Notre cadre proposé vise à rompre le compromis entre performance et explicabilité en introduisant un réseau neuronal convolutif (CNN) explicable par conception, basé sur le mécanisme d'inhibition latérale. Le modèle ExplaiNet se compose du prédicteur, qui est un CNN de haute précision avec des connexions résiduelles ou denses, et de l'expliqueur, un graphe probabiliste qui exprime les interactions spatiales des neurones du réseau. La valeur de chaque nœud du graphe est un vecteur de caractéristiques discrètes locales (LDF), un descripteur de patch qui représente les indices des neurones antagonistes ordonnés selon la force de leurs activations, appris par descente de gradient. En utilisant les LDF comme séquences, nous pouvons augmenter la concision des explications en réutilisant EXTREME, une méthode de découverte de motifs de séquence basée sur l'algorithme EM généralement utilisée en biologie moléculaire. Posséder une matrice de motifs de caractéristiques discrètes pour chacune des représentations intermédiaires d'image, au lieu d'un tenseur d'activation continu, nous permet d'exploiter l'explicabilité inhérente des réseaux bayésiens. En collectant des observations et en calculant directement les probabilités, nous pouvons expliquer les relations causales entre les motifs des niveaux adjacents et attribuer la sortie du modèle aux motifs globaux. De plus, des expériences menées sur divers jeux de données基准数据集(benchmark datasets)de petites images confirment que notre prédicteur assure le même niveau de performance que l'architecture de référence pour un nombre donné de paramètres et/ou de couches. Notre nouvelle méthode montre un potentiel pour surpasser cette performance tout en fournissant une source supplémentaire d'explications. Dans la tâche résolue de classification MNIST, elle atteint une performance comparable à celle des modèles mono-modèle les plus avancés, en utilisant une configuration d'entraînement standard et 0,75 million de paramètres.注:由于“基准数据集”在法语中通常翻译为“jeux de données benchmark”,但为了保持术语的一致性和完整性,我在括号内保留了英文原词。