HyperAIHyperAI

Command Palette

Search for a command to run...

Lernen lokaler diskreter Merkmale in erklärungsbaren Faltungsneuralnetzen

Pantelis I. Kaplanoglou; Konstantinos Diamantaras

Zusammenfassung

Unser vorgeschlagenes Framework versucht, den Kompromiss zwischen Leistung und Erklärbarkeit zu überwinden, indem es ein von Anfang an erklärbares Faltungsneuronales Netzwerk (CNN) auf der Grundlage des lateralen Hemmungsmechanismus einführt. Das ExplaiNet-Modell besteht aus dem Prädiktor, einem hochgenauen CNN mit Residual- oder Dense-Skip-Verbindungen, und dem erklärenden Wahrscheinlichkeitsgraphen, der die räumlichen Interaktionen der Netzwerknervenzellen darstellt. Der Wert auf jedem Graphenknoten ist ein lokales diskretes Merkmalsvektor (LDF), ein Patchdeskriptor, der die Indizes antagonistischer Neuronen in Abhängigkeit von der Stärke ihrer Aktivierungen darstellt, die durch Gradientendescent gelernt werden. Durch die Verwendung von LDFs als Sequenzen können wir die Kürze der Erklärungen erhöhen, indem wir EXTREME, eine auf dem EM-Algorithmus basierende Methode zur Entdeckung von Sequenzmotiven, die in der molekularen Biologie üblicherweise eingesetzt wird, neu anwenden. Die Verwendung einer diskreten Merkmalsmotix-Matrix für jede Zwischenbildrepräsentation anstelle eines kontinuierlichen Aktivierungstensors ermöglicht es uns, die inhärente Erklärbarkeit von Bayes'schen Netzen zu nutzen. Durch das Sammeln von Beobachtungen und das direkte Berechnen von Wahrscheinlichkeiten können wir kausale Beziehungen zwischen Motiven benachbarter Ebenen erklären und die Ausgabe des Modells globalen Mustern zuordnen. Zudem bestätigen Experimente mit verschiedenen kleinen Bild-Benchmark-Datensätzen, dass unser Prädiktor dieselbe Leistung wie die Baseline-Architektur für eine gegebene Anzahl von Parametern und/oder Schichten gewährleistet. Unsere neue Methode zeigt das Potenzial, diese Leistung zu übertreffen und gleichzeitig einen zusätzlichen Erklärungsstrom bereitzustellen. Bei der gelösten MNIST-Klassifizierungsaufgabe erreicht sie eine vergleichbare Leistung wie state-of-the-art-Einzelsysteme unter Verwendung einer Standard-Trainingskonfiguration und 0,75 Millionen Parametern.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp