HyperAIHyperAI

Command Palette

Search for a command to run...

Few-Shot Incremental Learning mit kontinuierlich evolvierten Klassifizierern

Chi Zhang Nan Song Guosheng Lin Yun Zheng Pan Pan Yinghui Xu

Zusammenfassung

Few-shot Class-Incremental Learning (FSCIL) zielt darauf ab, maschinelles Lernverfahren zu entwickeln, die kontinuierlich neue Konzepte aus wenigen Datenpunkten erlernen können, ohne Wissen über alte Klassen zu vergessen. Die Schwierigkeit besteht darin, dass begrenzte Daten aus neuen Klassen nicht nur zu erheblichen Überanpassungsproblemen führen, sondern auch das bekannte Phänomen des katastrophalen Vergessens verschärfen. Zudem erlaubt die sequenzielle Verfügbarkeit von Trainingsdaten in FSCIL, dass der gelernte Klassifikator lediglich diskriminative Informationen in einzelnen Sitzungen bereitstellt, während FSCIL jedoch voraussetzt, dass alle Klassen für die Bewertung berücksichtigt werden. In diesem Artikel greifen wir das FSCIL-Problem aus zwei Perspektiven auf. Erstens implementieren wir eine einfache, aber effektive getrennte Lernstrategie für Darstellungen und Klassifikatoren, bei der lediglich die Klassifikatoren in jeder inkrementellen Sitzung aktualisiert werden, wodurch das Verlernen von Wissen in den Darstellungen vermieden wird. Auf diese Weise zeigen wir, dass ein vortrainiertes Backbone zusammen mit einem nicht-parametrischen Klassenmittelpunkt-Klassifikator die derzeit besten Ansätze übertrifft. Zweitens schlagen wir einen kontinuierlich evolvierten Klassifikator (Continually Evolved Classifier, CEC) vor, der ein Graphmodell nutzt, um Kontextinformationen zwischen Klassifikatoren zur Anpassung zu propagieren, um die in einzelnen Sitzungen gelernten Klassifikatoren auf alle Klassen anwendbar zu machen. Um das Lernen von CEC zu ermöglichen, entwerfen wir eine Pseudoinkremental-Lernparadigma, das episodisch eine Pseudoinkremental-Lernaufgabe konstruiert, um die Graph-Parameter durch Stichproben aus dem Basisdatensatz zu optimieren. Experimente an drei etablierten Benchmark-Datensätzen – CIFAR100, miniImageNet und Caltech-USCD Birds-200-2011 (CUB200) – zeigen, dass unsere Methode die Baseline-Verfahren erheblich übertrifft und neue SOTA-Ergebnisse mit bemerkenswerten Vorteilen erzielt.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp