Generative Latente Implizite Bedingte Optimierung beim Lernen aus kleinen Stichproben

Wir greifen das langjährige Problem des Lernens aus kleinen Stichproben erneut auf und schlagen dazu eine neuartige Methode namens GLICO (Generative Latent Implicit Conditional Optimization) vor. GLICO lernt eine Abbildung von den Trainingsbeispielen in einen latenten Raum sowie einen Generator, der Bilder aus Vektoren im latenten Raum erzeugt. Im Gegensatz zu den meisten aktuellen Arbeiten, die auf Zugang zu großen Mengen an unbeschrifteten Daten angewiesen sind, benötigt GLICO keinen zusätzlichen Datensatz außer der kleinen Menge an beschrifteten Punkten. Tatsächlich lernt GLICO, vollständig neue Beispiele für jede Klasse zu synthetisieren, indem es nur 5 oder 10 Beispiele pro Klasse verwendet, wobei es auch bei so wenigen Klassen wie 10 keine Vorgaben auferlegt. GLICO wird dann verwendet, um den kleinen Trainingsdatensatz während des Trainings eines Klassifikators zu erweitern. Dazu sampelt unsere vorgeschlagene Methode den gelernten latenten Raum mittels sphärischer Interpolation und generiert neue Beispiele mit dem trainierten Generator. Empirische Ergebnisse zeigen, dass der neu sampelte Datensatz ausreichend divers ist und zu einer Verbesserung der Bildklassifizierung führt im Vergleich zum Stand der Technik, wenn er auf kleinen Stichproben von CIFAR-10, CIFAR-100 und CUB-200 trainiert wird.