Command Palette
Search for a command to run...
„Warum sollten Sie mir vertrauen?“: Erklärung der Vorhersagen beliebiger Klassifikatoren
„Warum sollten Sie mir vertrauen?“: Erklärung der Vorhersagen beliebiger Klassifikatoren
Ribeiro Marco Tulio Singh Sameer Guestrin Carlos
Zusammenfassung
Trotz der weiten Verbreitung bleiben maschinelle Lernmodelle weitgehend schwarze Kästen. Die Erklärung der Gründe für Vorhersagen ist jedoch von entscheidender Bedeutung für das Vertrauen, das grundlegend ist, wenn man aufgrund einer Vorhersage handeln möchte oder entscheiden muss, ob ein neues Modell eingesetzt werden soll. Ein solches Verständnis liefert zudem wertvolle Einblicke in das Modell, die genutzt werden können, um ein unvertrauenswürdiges Modell oder eine unvertrauenswürdige Vorhersage in ein vertrauenswürdiges umzuwandeln. In dieser Arbeit stellen wir LIME vor, eine neuartige Erklärungstechnik, die die Vorhersagen beliebiger Klassifikatoren auf verständliche und treue Weise erklärt, indem lokal um die Vorhersage herum ein interpretierbares Modell gelernt wird. Außerdem schlagen wir eine Methode vor, Modelle durch die Darstellung repräsentativer einzelner Vorhersagen und ihrer Erklärungen auf nicht-redundante Weise zu erklären, wobei das Problem als submodulare Optimierung formuliert wird. Wir zeigen die Flexibilität dieser Ansätze anhand der Erklärung verschiedener Modelle für Textklassifikation (z. B. Random Forests) und Bildklassifikation (z. B. neuronale Netze). Die Nützlichkeit von Erklärungen demonstrieren wir durch neuartige Experimente – sowohl simuliert als auch mit menschlichen Probanden – in verschiedenen Szenarien, die Vertrauen erfordern: die Entscheidung, ob man einer Vorhersage vertrauen soll, die Wahl zwischen Modellen, die Verbesserung eines unvertrauenswürdigen Klassifikators sowie die Identifizierung der Gründe dafür, warum ein Klassifikator nicht vertrauenswürdig ist.