HyperAIHyperAI
vor 18 Tagen

Erklärungsgeleitete Ausbildung für few-shot Klassifikation über Domänen hinweg

Jiamei Sun, Sebastian Lapuschkin, Wojciech Samek, Yunqing Zhao, Ngai-Man Cheung, Alexander Binder
Erklärungsgeleitete Ausbildung für few-shot Klassifikation über Domänen hinweg
Abstract

Die Aufgabe des cross-domain few-shot classification (CD-FSC) kombiniert das Few-Shot-Klassifikationsparadigma mit der Anforderung, über Domänen hinweg generalisieren zu können, die durch unterschiedliche Datensätze repräsentiert werden. Dieses Setup steht vor Herausforderungen, die sowohl aus der begrenzten Anzahl an gelabelten Daten pro Klasse als auch aus dem Domänenversatz zwischen Trainings- und Testdatensätzen resultieren. In diesem Paper stellen wir einen neuartigen Trainingsansatz für bestehende FSC-Modelle vor. Der Ansatz nutzt Erklärungsscores, die aus bestehenden Erklärungsmethoden gewonnen werden, wenn diese auf die Vorhersagen von FSC-Modellen angewendet werden und für intermediäre Merkmalskarten der Modelle berechnet werden. Zunächst passen wir die Layer-wise Relevance Propagation (LRP)-Methode an, um die Vorhersagen von FSC-Modellen zu erklären. Anschließend entwickeln wir eine modellunabhängige, erklärungsgeleitete Trainingsstrategie, die dynamisch Merkmale identifiziert und betont, die für die Vorhersagen entscheidend sind. Unser Beitrag zielt nicht auf eine neue Erklärungsmethode ab, sondern liegt in einer neuartigen Anwendung von Erklärungen im Trainingsprozess. Wir zeigen, dass ein erklärungsgeleiteter Trainingsansatz die Generalisierungsfähigkeit der Modelle signifikant verbessert. Die Genauigkeit wird für drei verschiedene FSC-Modelle – RelationNet, Cross-Attention-Netzwerk und eine graphenbasierte neuronale Netzformulierung – auf fünf verschiedenen Few-Shot-Lern-Datensätzen – miniImageNet, CUB, Cars, Places und Plantae – verbessert. Der Quellcode ist unter https://github.com/SunJiamei/few-shot-lrp-guided verfügbar.