HyperAIHyperAI
vor 17 Tagen

Skalierbares Lernen mit inkrementeller probabilistischer PCA

{Adrian Barbu, Boshi Wang}
Skalierbares Lernen mit inkrementeller probabilistischer PCA
Abstract

Incremental Class Learning ist das Klassifikationsproblem, bei dem ein Modell darauf trainiert wird, Objektklassen sequenziell hinzuzufügen, wobei gewünscht ist, dass das Modell nur noch auf den neuen Klassen neu trainiert wird, während der Trainingsaufwand für die alten Klassen minimal gehalten wird. Ein zentrales Problem des klassenbasierten inkrementellen Lernens ist das katastrophale Vergessen, bei dem das aktualisierte Modell die alten Klassen vergisst und sich ausschließlich auf die neuen Klassen konzentriert. In diesem Artikel wird ein einfaches und neuartiges Verfahren für inkrementelles Klassenlernen vorgestellt, das einen selbstüberwachten, vortrainierten Merkmalsextraktor nutzt, um sinnvolle Merkmale zu extrahieren, und für jede Klasse separat ein probabilistisches PCA-Modell trainiert. Die Klassifikation erfolgt mittels der Mahalanobis-Distanz, wobei eine äquivalente Gleichung hergeleitet wird, um die Berechnung recheneffizient zu gestalten. Experimente an Standard- und großen Datensätzen zeigen, dass der vorgeschlagene Ansatz bestehende state-of-the-art-Methoden für inkrementelles Lernen mit großem Abstand übertrifft. Die Tatsache, dass das Modell jeweils separat für jede Klasse trainiert wird, macht den Ansatz besonders geeignet für die Anwendung auf sehr große Datensätze wie das gesamte ImageNet mit mehr als 10.000 Klassen.

Skalierbares Lernen mit inkrementeller probabilistischer PCA | Neueste Forschungsarbeiten | HyperAI