
摘要
图神经网络(GNN)的后验解释技术为在不重新训练模型的前提下揭示黑箱图模型的内部机制提供了经济高效的解决方案。尽管多种GNN解释方法已在各类基准测试中取得了当前最优的解释性能,但这些方法普遍缺乏对其内在属性及解释能力的理论分析。针对GNN解释中结构感知特征交互这一关键挑战,本文提出了一种结构感知的基于Shapley值的多段式解释方法——SAME(Structure-Aware Shapley-based Multipiece Explanation)。具体而言,SAME采用基于扩展的蒙特卡洛树搜索策略,探索多粒度的、结构感知的连通子结构。随后,通过优化不同单个子结构的组合方式,使解释结果能够充分反映图结构的特性。在分析多个重要连通子结构的过程中,SAME充分考虑了特征间的公平交互,从而使得其生成的解释在多项式时间内具备接近理论上最优Shapley值解释的可解释性。在真实世界与合成基准数据集上的大量实验表明,在相同测试条件下,SAME相较于现有最先进方法,在BBBP数据集上将解释保真度提升了12.9%,在MUTAG上提升了7.01%,在Graph-SST2上提升了42.3%,在Graph-SST5上提升了38.9%,在BA-2Motifs上提升了11.3%,在BA-Shapes上提升了18.2%。代码已公开,地址为:https://github.com/same2023neurips/same。投稿编号:12143。