Vorwärtskompatible Few-Shot Class-Incremental Learning

Neue Klassen entstehen häufig in unserer dynamisch sich verändernden Welt, beispielsweise neue Benutzer in einem Authentifizierungssystem, und ein maschinelles Lernmodell sollte neue Klassen erkennen können, ohne alte zu vergessen. Dieses Szenario wird noch herausfordernder, wenn nur wenige Instanzen neuer Klassen verfügbar sind, was als Few-Shot Class-Incremental Learning (FSCIL) bezeichnet wird. Aktuelle Methoden behandeln das inkrementelle Lernen retrospektiv, indem sie sicherstellen, dass das aktualisierte Modell dem alten Modell ähnlich bleibt. Im Gegensatz dazu schlagen wir ein prospektives Lernen vor, um sich auf zukünftige Aktualisierungen vorzubereiten, und präsentieren ForwArd Compatible Training (FACT) für FSCIL. Forward Compatibility erfordert, dass zukünftige neue Klassen basierend auf den Daten des aktuellen Lernstadiums leicht in das aktuelle Modell integriert werden können, und wir streben diese Eigenschaft durch die Reservierung von Embedding-Räumen für zukünftige neue Klassen an. Genauer gesagt, weisen wir virtuelle Prototypen zu, um den Embedding-Raum bekannter Klassen zu komprimieren und Platz für neue Klassen zu schaffen. Darüber hinaus prognostizieren wir mögliche neue Klassen und bereiten uns auf den Aktualisierungsprozess vor. Die virtuellen Prototypen ermöglichen es dem Modell, zukünftige Aktualisierungen problemlos zu akzeptieren und fungieren während der Inferenz als verteilte Proxy-Elemente im Embedding-Raum, um einen stärkeren Klassifikator zu bilden. FACT integriert neue Klassen effizient mit Forward Compatibility und verhindert gleichzeitig das Vergessen alter Klassen. Umfangreiche Experimente bestätigen die führende Leistungsfähigkeit von FACT. Der Quellcode ist verfügbar unter: https://github.com/zhoudw-zdw/CVPR22-Fact