11 天前

Q-SENN:量化自解释神经网络

Thomas Norrenbrock, Marco Rudolph, Bodo Rosenhahn
Q-SENN:量化自解释神经网络
摘要

在计算机视觉领域,模型解释性备受期待,但大多数深度神经网络仅能提供可信度存疑的显著性图(saliency maps)。自解释神经网络(Self-Explaining Neural Networks, SENN)能够提取具有保真度、多样性和语义基础的可解释概念,并通过线性组合进行决策。尽管SENN能够解释模型“识别了什么”,但其初始实现存在准确性不足和泛化能力有限的问题。为此,我们提出量化自解释神经网络(Quantized-Self-Explaining Neural Network, Q-SENN)。Q-SENN在满足甚至超越SENN各项理想特性的同时,适用于更复杂的数据集,并在保持接近或完全等同于不可解释基线模型的准确率的前提下,优于以往所有方法在各项评估指标上的表现。Q-SENN将每个类别与特征之间的关系定义为正向、负向或中性三种类型,而非任意数量的连续关系,从而强制生成更具二值化、更符合人类认知的可解释特征。平均而言,每个类别仅依赖5个可解释特征,使得Q-SENN在局部和全局层面均展现出令人信服的可解释性。此外,我们提出一种特征对齐方法,无需额外监督即可将模型学习到的特征与基于人类语言的概念进行对齐,从而更易于将模型所学知识以自然语言形式进行表述。相关代码已公开发布:https://github.com/ThomasNorr/Q-SENN

Q-SENN:量化自解释神经网络 | 最新论文 | HyperAI超神经