HyperAIHyperAI
vor 17 Tagen

Erklärbares Tiefenlernen: Ein visueller Analyseansatz mit Übergangsmatrizen

{Iurii Krak, Eduard Manziuk, Olexander Barmak, Pavlo Radiuk}
Abstract

Die Transparenzlosigkeit von künstlichen Intelligenzsystemen (KI), insbesondere bei tiefen Lernmodellen (Deep Learning, DL), stellt erhebliche Herausforderungen hinsichtlich ihrer Verständlichkeit und Vertrauenswürdigkeit dar. Diese Studie zielt darauf ab, die Erklärbarkeit von DL-Modellen durch visuelle Analytik (Visual Analytics, VA) und Prinzipien des Menschen-im-Loop (Human-in-the-Loop, HITL) zu verbessern, wodurch diese Systeme für Endnutzer transparenter und nachvollziehbarer werden. In diesem Beitrag stellen wir einen neuartigen Ansatz vor, der eine Übergangsmatrix nutzt, um Ergebnisse von DL-Modellen durch verständlichere maschinelle Lernmodelle (Machine Learning, ML) zu interpretieren. Die Methode basiert auf der Konstruktion einer Übergangsmatrix zwischen den Merkmalsräumen von DL- und ML-Modellen, die jeweils als formale und mentale Modelle fungieren, und verbessert so die Erklärbarkeit für Klassifizierungsaufgaben. Wir validierten unseren Ansatz anhand computergestützter Experimente auf den Datensätzen MNIST, FNC-1 und Iris unter Verwendung einer qualitativen und quantitativen Vergleichskriterien, nämlich der Abweichung der von unserem Ansatz erzielten Ergebnisse von der tatsächlichen Grundwahrheit der Trainings- und Testbeispiele. Der vorgeschlagene Ansatz verbesserte die Modellklarheit und -verständlichkeit signifikant im MNIST-Datensatz, wobei die SSIM- und PSNR-Werte bei 0,697 beziehungsweise 17,94 lagen, was hochfidele Rekonstruktionen belegen. Zudem erreichte der Ansatz bei der Standpunkt-Detektion mit dem FNC-1-Datensatz einen F1m-Score von 77,76 % und eine gewichtete Genauigkeit von 89,38 %, was seine Wirksamkeit unterstreicht, unterstützt durch die Fähigkeit, zentrale textuelle Nuancen zu erklären. Für den Iris-Datensatz ermöglichte die auf Basis unseres Ansatzes konstruierte Trennhyperfläche eine Verbesserung der Klassifizierungsgenauigkeit. Insgesamt zeigt sich, dass die Kombination von VA, HITL-Prinzipien und einer Übergangsmatrix die Erklärbarkeit von DL-Modellen signifikant erhöht, ohne deren Leistungsfähigkeit zu beeinträchtigen, und somit einen wichtigen Schritt hin zu transparenteren und vertrauenswürdigeren KI-Systemen darstellt.