Exemplar-freies klasseninkrementelles Lernen durch diskriminative und vergleichbare Ein-Klassen-Klassifizierer

Das beispiellose klasseninkrementelle Lernen (exemplar-free class incremental learning) erfordert, dass Klassifikationsmodelle neue Klassenwissen inkrementell erlernen, ohne alte Stichproben zu speichern. Kürzlich hat das Framework auf Basis paralleler Ein-Klasse-Klassifizierer (Parallel One-Class Classifiers, POC), das für jede Kategorie einen Ein-Klasse-Klassifizierer (One-Class Classifier, OCC) unabhängig trainiert, große Aufmerksamkeit gefunden, da es katastrophales Vergessen natürlicherweise vermeiden kann. Das POC-Framework leidet jedoch an schwacher Diskriminierbarkeit und Komparabilität aufgrund seiner unabhängigen Trainingsstrategie für verschiedene OCCs. Um dieser Herausforderung zu begegnen, schlagen wir ein neues Framework vor, das als Discriminative and Comparable One-class classifiers for Incremental Learning (DisCOIL) bezeichnet wird. DisCOIL folgt dem grundlegenden Prinzip von POC, verwendet aber Variations-Autoencoder (Variational Auto-Encoders, VAE) anstelle anderer etablierter Ein-Klasse-Klassifizierer (z.B. deep SVDD), da ein trainierter VAE nicht nur die Wahrscheinlichkeit eines Eingabebeispiels zur Zugehörigkeit zu einer Klasse identifizieren kann, sondern auch Pseudo-Beispiele der Klasse generiert, um beim Lernen neuer Aufgaben zu helfen. Mit diesem Vorteil trainiert DisCOIL einen neuen Klassen-VAE im Kontrast zu den alten Klassen-VAEs, was den neuen Klassen-VAE zwingt, bessere Rekonstruktionen für neue Klassenbeispiele und schlechtere Rekonstruktionen für die Pseudo-Beispiele der alten Klassen durchzuführen, wodurch die Komparabilität gestärkt wird. Darüber hinaus führt DisCOIL eine Hinge-Rekonstruktionsverlustfunktion ein, um die Diskriminierbarkeit sicherzustellen. Wir evaluieren unsere Methode ausgiebig anhand von MNIST, CIFAR10 und Tiny-ImageNet. Die experimentellen Ergebnisse zeigen, dass DisCOIL den Stand der Technik erreicht.