HyperAIHyperAI
vor 2 Monaten

Unsicherheit im modellagnostischen Meta-Lernen unter Verwendung von variationeller Inferenz

Cuong Nguyen; Thanh-Toan Do; Gustavo Carneiro
Unsicherheit im modellagnostischen Meta-Lernen unter Verwendung von variationeller Inferenz
Abstract

Wir stellen einen neuen, streng formulierten bayesschen Meta-Lernalgorithmus vor, der eine Wahrscheinlichkeitsverteilung des Modellparameterpriors für Few-Shot-Lernen lernt. Der vorgeschlagene Algorithmus verwendet eine gradientenbasierte variationsinferenz, um die Posterior-Verteilung der Modellparameter für eine neue Aufgabe zu bestimmen. Unser Algorithmus kann auf jede Modellarchitektur angewendet werden und in verschiedenen maschinellen Lernparadigmen implementiert werden, einschließlich Regression und Klassifikation. Wir zeigen, dass die mit unserem vorgeschlagenen Meta-Lernalgorithmus trainierten Modelle gut kalibriert und genau sind, wobei sie auf zwei Few-Shot-Klassifikationsbenchmarks (Omniglot und Mini-ImageNet) Stand der Technik entsprechende Kalibrierungs- und Klassifikationsergebnisse erzielen und in einer multimodalen Aufgabenverteilungsregression wettbewerbsfähige Ergebnisse liefern.