摘要
在对可解释性要求极高的领域中,理解深度学习模型在图像分类任务中做出决策的内在机制至关重要。近年来,基于概念的解释方法被提出,旨在通过高层次语义概念揭示深度学习模型的内部运作机制。然而,这类方法往往面临准确率与可解释性之间的权衡困境。例如,在现实场景中,相较于经过精心整理的训练数据,由于不同物体引入的多样化失真与复杂性,模型准确识别预期概念变得极具挑战。为突破这一权衡瓶颈,本文提出概念图嵌入模型(Concept Graph Embedding Models, CGEM),通过学习概念之间的双向依赖关系,有效捕捉概念间的复杂结构与关联。作为CGEM的下游任务,概念图卷积神经网络(Concept GCN)与以往仅判断概念是否存在的方式不同,其最终分类决策基于图嵌入所学习到的概念间关系。这一机制使模型在面对错误概念输入时仍具备高度鲁棒性。此外,我们在模型早期阶段引入可变形二分图卷积网络(deformable bipartite GCN),实现以物体为中心的概念编码,进一步提升了概念的一致性与内在同质性。实验结果表明,基于可变形概念编码的CGEM有效缓解了任务准确率与可解释性之间的权衡问题。同时验证了该方法在保持对现实世界中概念失真和错误概念干扰的鲁棒性的同时,显著增强了模型的可解释性与抗干扰能力。相关代码已开源,地址为:https://github.com/jumpsnack/cgem。