이해성
설명 가능성은 문제를 이해하거나 해결해야 할 때 필요한 관련 정보를 얻을 수 있다는 것을 의미합니다.
데이터 수준에서의 해석 가능성: 신경망이 인간의 지식 프레임워크와 일치하도록 내부 지식에 대한 명확한 상징적 표현을 갖도록 하여, 사람들이 의미 수준에서 신경망을 진단하고 수정할 수 있도록 합니다.
머신 러닝의 해석 가능성: 의사결정 트리 모델은 해석 가능한 모델로 간주될 수 있으며, 관련 연구에서 핵심적인 역할을 합니다. 딥 신경망은 종종 블랙박스 모델로 간주됩니다. 해석가능성은 모델을 해석 가능하게 만드는 특성입니다.