Verständlichkeit
Erklärbarkeit bedeutet, dass Sie die relevanten Informationen erhalten, die Sie benötigen, wenn Sie ein Problem verstehen oder lösen müssen.
Interpretierbarkeit auf Datenebene: Geben Sie dem neuronalen Netzwerk einen klaren symbolischen Ausdruck des internen Wissens, der dem menschlichen Wissensrahmen entspricht, sodass Menschen das neuronale Netzwerk auf semantischer Ebene diagnostizieren und ändern können.
Interpretierbarkeit des maschinellen Lernens: Das Entscheidungsbaummodell kann als interpretierbares Modell angesehen werden, das in der entsprechenden Forschung eine Schlüsselrolle spielt. Tiefe neuronale Netzwerke werden oft als Black-Box-Modelle betrachtet. Interpretierbarkeit ist die Eigenschaft, die das Modell interpretierbar macht.