
초록
모델이 특정 예측을 하는 이유를 이해하는 것은 많은 응용 분야에서 예측의 정확성만큼 중요할 수 있습니다. 그러나 대규모 현대 데이터셋에 대한 가장 높은 정확성은 종종 전문가들조차 해석하기 어려운 복잡한 모델, 예를 들어 앙상블 또는 딥러닝 모델에 의해 달성되곤 합니다. 이는 정확성과 해석 가능성 사이의 긴장 관계를 초래합니다. 이러한 문제를 해결하기 위해 최근에는 사용자가 복잡한 모델의 예측을 해석하는 데 도움이 되는 다양한 방법들이 제안되었습니다. 하지만 이러한 방법들이 어떻게 관련되어 있는지, 그리고 언제 어떤 방법이 다른 방법보다 더 선호되는지 명확하지 않은 경우가 많습니다.이 문제를 해결하기 위해 우리는 SHAP (SHapley Additive exPlanations)라는 통합 프레임워크를 제시합니다. SHAP은 특정 예측에 대해 각 특징에 중요도 값을 할당합니다. 이 프레임워크의 혁신적인 구성 요소는 다음과 같습니다: (1) 새로운 가산적 특징 중요도 측정법 클래스의 식별, (2) 이 클래스 내에서 원하는 성질들의 집합을 갖춘 유일한 솔루션이 존재한다는 이론적 결과. 새로운 클래스는 기존의 여섯 가지 방법을 통합하며, 최근 제안된 몇몇 방법들은 이러한 원하는 성질들을 갖추고 있지 않다는 점이 주목됩니다.통합 프레임워크로부터 얻은 인사이트를 바탕으로, 우리는 이전 접근 방식보다 향상된 계산 성능과/또는 인간 직관과 더 잘 일치하는 새로운 방법들을 제시합니다.