Ein Einheitlicher Ansatz zur Interpretation von Modellvorhersagen

Das Verständnis dafür, warum ein Modell eine bestimmte Vorhersage trifft, kann in vielen Anwendungen genauso wichtig sein wie die Genauigkeit der Vorhersage. Allerdings wird die höchste Genauigkeit für große moderne Datensätze oft durch komplexe Modelle erreicht, die selbst Experten schwer zu interpretieren haben, wie Ensemble- oder Tiefenlernmodelle (ensemble or deep learning models), was eine Spannung zwischen Genauigkeit und Interpretierbarkeit schafft. Um dieses Problem anzugehen, wurden in letzter Zeit verschiedene Methoden vorgeschlagen, um Benutzern bei der Interpretation von Vorhersagen komplexer Modelle zu helfen. Oft ist jedoch unklar, wie diese Methoden miteinander zusammenhängen und wann eine Methode vorzuziehen ist. Wir präsentieren daher einen einheitlichen Rahmen zur Interpretation von Vorhersagen, SHAP (SHapley Additive exPlanations). SHAP weist jedem Merkmal einen Wichtigkeitswert für eine bestimmte Vorhersage zu. Die neuen Komponenten umfassen: (1) die Identifizierung einer neuen Klasse additiver Merkmalswichtigkeitsmaße und (2) theoretische Ergebnisse, die zeigen, dass es in dieser Klasse eine einzigartige Lösung mit einem Satz wünschenswerter Eigenschaften gibt. Diese neue Klasse vereint sechs bestehende Methoden, was bemerkenswert ist, da mehrere neuere Methoden in dieser Klasse die vorgeschlagenen wünschenswerten Eigenschaften nicht aufweisen. Basierend auf Erkenntnissen aus dieser Vereinigung präsentieren wir neue Methoden, die verbesserte rechnerische Leistung und/oder bessere Konsistenz mit menschlicher Intuition im Vergleich zu früheren Ansätzen zeigen.