Command Palette
Search for a command to run...
Ein einheitlicher Ansatz zur Interpretation von Modellvorhersagen
Ein einheitlicher Ansatz zur Interpretation von Modellvorhersagen
Lundberg Scott Lee Su-In
Zusammenfassung
Die Erklärung dafür, warum ein Modell eine bestimmte Vorhersage trifft, kann in vielen Anwendungen genauso entscheidend sein wie die Genauigkeit der Vorhersage selbst. Allerdings wird die höchste Genauigkeit bei großen modernen Datensätzen oft durch komplexe Modelle erreicht, die selbst Experten schwer interpretieren können, wie beispielsweise Ensembles oder tiefgehende Lernmodelle, was einen Spannungsverhältnis zwischen Genauigkeit und Interpretierbarkeit erzeugt. Als Reaktion darauf wurden in letzter Zeit verschiedene Methoden vorgeschlagen, um Benutzern die Interpretation der Vorhersagen komplexer Modelle zu erleichtern. Es ist jedoch oft unklar, wie diese Methoden miteinander zusammenhängen und wann eine Methode einer anderen vorzuziehen ist. Um dieses Problem anzugehen, präsentieren wir einen einheitlichen Rahmen zur Interpretation von Vorhersagen, SHAP (SHapley Additive exPlanations). SHAP weist jeder Merkmalsausprägung einen Bedeutungswert für eine spezifische Vorhersage zu. Zu den innovativen Bestandteilen gehören: (1) die Identifizierung einer neuen Klasse additiver Merkmalsimportanzmaße und (2) theoretische Ergebnisse, die zeigen, dass es innerhalb dieser Klasse eine eindeutige Lösung gibt, die eine Reihe wünschenswerter Eigenschaften erfüllt. Die neue Klasse vereint sechs bestehende Methoden, was bemerkenswert ist, da mehrere neuere Methoden innerhalb dieser Klasse die vorgeschlagenen wünschenswerten Eigenschaften vermissen. Auf der Grundlage der Erkenntnisse aus dieser Vereinheitlichung stellen wir neue Methoden vor, die eine verbesserte rechnerische Leistung und/oder eine bessere Übereinstimmung mit menschlicher Intuition im Vergleich zu früheren Ansätzen aufweisen.