Unsupervised Meta-Learning über eine Energie-basierte Modellierung des latente Raum-Symbol-Vektor-Kopplung

Meta-Lernen zielt darauf ab, ein Modell aus einer Folge von Aufgaben zu lernen, sodass das Modell in der Lage ist, über Aufgaben hinweg zu generalisieren und sich rasch neuen Aufgaben anzupassen. Wir schlagen vor, ein energiebasiertes Modell (Energy-Based Model, EBM) im latenten Raum eines top-down generativen Modells zu lernen, wodurch das EBM im niedrigdimensionalen latenten Raum effizient erlernt und rasch an jede Aufgabe angepasst werden kann. Darüber hinaus koppelt der Energiebegriff einen kontinuierlichen latenzvektor mit einem symbolischen One-Hot-Label. Diese Kopplungsformulierung ermöglicht es, das Modell im Fall unbekannter Labels unsupervisiert zu trainieren. Unser Modell wird im Meta-Trainingsphase unsupervisiert gelernt und im Meta-Testphase semi-supervisiert evaluiert. Wir bewerten unser Modell an etablierten Benchmarks für Few-Shot-Meta-Lernen, nämlich Omniglot und Mini-ImageNet. Unser Modell erreicht eine konkurrenzfähige oder überlegene Leistung im Vergleich zu vorherigen state-of-the-art Meta-Lernmodellen.