HyperAIHyperAI
vor 4 Monaten

Kontextuelle Erklärungsnetze

Maruan Al-Shedivat; Avinava Dubey; Eric P. Xing
Kontextuelle Erklärungsnetze
Abstract

Moderne Lernalgorithmen erzielen hervorragende Ergebnisse bei der Erstellung genauer, aber komplexer Datenmodelle. Allerdings erfordert die Implementierung solcher Modelle in der Praxis besondere Vorsicht: Wir müssen ihre Zuverlässigkeit, Robustheit und das Fehlen unerwünschter Verzerrungen sicherstellen. Dies motiviert die Entwicklung von Modellen, die gleichzeitig genau sind und auch leicht überprüft und bewertet werden können, über ihre vorhersagende Leistung hinaus. Zu diesem Zweck stellen wir kontextuelle Erklärungsnetze (CEN) vor – eine Klasse von Architekturen, die durch die Generierung und Nutzung vereinfachter wahrscheinlichkeitstheoretischer Zwischenmodelle lernen zu prognostizieren. Insbesondere generieren CENs Parameter für grafische Zwischenmodelle, die für Vorhersagen verwendet werden und als Erklärungen dienen. Im Gegensatz zu den bestehenden nachträglichen Modellerklärungswerkzeugen lernen CENs gleichzeitig zu prognostizieren und zu erklären. Unser Ansatz bietet zwei wesentliche Vorteile: (i) für jede Vorhersage wird eine gültige, instanzspezifische Erklärung ohne zusätzlichen Rechenaufwand generiert und (ii) die Prognose durch Erklärung dient als Regularisierer und verbessert die Leistung in datenarmen Szenarien. Wir analysieren den vorgeschlagenen Rahmen sowohl theoretisch als auch experimentell. Unsere Ergebnisse bei Klassifikationsaufgaben für Bilder und Text sowie bei Überlebensanalysen zeigen nicht nur, dass CENs mit den neuesten Methoden konkurrieren können, sondern bieten auch zusätzliche Einblicke hinter jeder Vorhersage, die wertvoll für Entscheidungsunterstützung sein können. Zudem demonstrieren wir, dass nachträgliche Methoden in bestimmten Fällen irreführende Erklärungen liefern können, während CENs konsistent sind und es ermöglichen, solche Fälle systematisch zu erkennen.

Kontextuelle Erklärungsnetze | Forschungsarbeiten | HyperAI