
要約
モデルが特定の予測を行う理由を理解することは、多くの応用においてその予測の精度と同じくらい重要であることがあります。しかし、大規模な現代のデータセットで最高の精度を達成するには、専門家ですら解釈に苦労するような複雑なモデル、例えばアンサンブルモデルや深層学習モデルを使用することがしばしば必要であり、これにより精度と解釈可能性の間で緊張関係が生じています。この問題に対処するために、最近ではユーザーが複雑なモデルの予測を解釈するための様々な手法が提案されていますが、これらの手法がどのように関連しているのか、またどの手法が他の手法よりも優れているかはしばしば明確ではありません。本稿では、予測の解釈に関する統一的な枠組みとしてSHAP(SHapley Additive exPlanations)を提示します。SHAPは、特定の予測に対して各特徴量に重要度値を割り当てます。その新規な構成要素には以下の2点があります。(1) 新たな加法的な特徴量重要度尺度クラスの識別、(2) 望ましい特性を持つ一意の解があることを示す理論的結果。この新しいクラスは既存の6つの方法を統合しており、特に最近提唱されたいくつかの方法がこれらの望ましい特性を持たないという点で注目されます。この統合から得られた洞察に基づいて、我々は計算性能の向上と/または人間の直感とのより良い整合性を持つ新規手法を提示します。