
摘要
理解模型为何做出特定预测在许多应用中与预测的准确性同样重要。然而,对于大型现代数据集,最高准确率通常是由复杂模型实现的,即使是专家也难以解释这些模型,如集成模型或深度学习模型,这导致了准确性和可解释性之间的矛盾。为了解决这一问题,最近提出了一些方法来帮助用户解读复杂模型的预测结果,但这些方法之间的关系以及何时选择一种方法优于另一种方法往往并不明确。为此,我们提出了一个统一的预测解释框架——SHAP(SHapley Additive exPlanations)。SHAP为每个特征分配了一个特定预测的重要性值。其创新组件包括:(1) 识别了一类新的加性特征重要性度量;(2) 理论结果表明,在这一类度量中存在唯一具有理想属性的解决方案。这一新类别统一了六种现有的方法,值得注意的是,该类别中的几种近期方法缺乏所提出的理想属性。基于这一统一性的见解,我们提出了新的方法,这些方法在计算性能和/或与人类直觉的一致性方面优于以往的方法。