Compréhensibilité
L’explicabilité signifie que lorsque vous avez besoin de comprendre ou de résoudre un problème, vous pouvez obtenir les informations pertinentes dont vous avez besoin.
Interprétabilité au niveau des données : permettre au réseau neuronal d'avoir une expression symbolique claire des connaissances internes pour correspondre au cadre de connaissances humaines, afin que les gens puissent diagnostiquer et modifier le réseau neuronal au niveau sémantique.
Interprétabilité de l’apprentissage automatique : Le modèle d’arbre de décision peut être considéré comme un modèle interprétable, qui joue un rôle clé dans la recherche connexe. Les réseaux neuronaux profonds sont souvent considérés comme des modèles de boîte noire. L'interprétabilité est la caractéristique qui rend le modèle interprétable.