HyperAIHyperAI
vor 2 Monaten

„Warum sollte ich Ihnen vertrauen?“: Erklärung der Vorhersagen jedes Klassifikators

Ribeiro, Marco Tulio ; Singh, Sameer ; Guestrin, Carlos
„Warum sollte ich Ihnen vertrauen?“: Erklärung der Vorhersagen jedes Klassifikators
Abstract

Trotz der weit verbreiteten Anwendung bleiben maschinelle Lernmodelle größtenteils Black Boxes. Das Verständnis der Gründe hinter Vorhersagen ist jedoch von großer Bedeutung für die Bewertung des Vertrauens, das grundlegend ist, wenn man auf Basis einer Vorhersage handeln möchte oder bei der Entscheidung, ob ein neues Modell eingesetzt werden soll. Ein solches Verständnis bietet auch Einblicke in das Modell, die verwendet werden können, um ein nicht vertrauenswürdiges Modell oder eine Vorhersage in ein vertrauenswürdiges zu transformieren. In dieser Arbeit schlagen wir LIME vor, eine neuartige Erklärungstechnik, die die Vorhersagen jedes Klassifikators auf eine interpretierbare und treue Weise erläutert, indem sie ein interpretierbares Modell lokal um die Vorhersage herum lernt. Wir schlagen außerdem eine Methode zur Erklärung von Modellen vor, indem wir repräsentative individuelle Vorhersagen und ihre Erklärungen auf eine nicht redundante Weise präsentieren und diese Aufgabe als ein submodulares Optimierungsproblem formulieren. Die Flexibilität dieser Methoden demonstrieren wir durch die Erklärung verschiedener Modelle für Text- (z.B. Random Forests) und Bildklassifizierung (z.B. neuronale Netze). Wir zeigen die Nützlichkeit der Erklärungen durch innovative Experimente, sowohl simuliert als auch mit menschlichen Probanden, in verschiedenen Szenarien, die Vertrauen erfordern: die Entscheidung, ob man einer Vorhersage vertrauen sollte, die Auswahl zwischen Modellen, die Verbesserung eines nicht vertrauenswürdigen Klassifikators und die Identifizierung der Gründe dafür, warum ein Klassifikator nicht vertrauenswürdig sein sollte.