HyperAIHyperAI

Command Palette

Search for a command to run...

Grundlagen für klasseninkrementelles Lernen

Sudhanshu Mittal Silvio Galesso Thomas Brox

Zusammenfassung

Moderne neuronale Netzwerke sind in ihrer Fähigkeit eingeschränkt, aus sich stetig ändernden Strömen von Trainingsdaten zu lernen. Werden sie sequenziell auf neue oder sich entwickelnde Aufgaben trainiert, sinkt ihre Genauigkeit stark ab, wodurch sie für viele praktische Anwendungen ungeeignet sind. In dieser Arbeit beleuchten wir die Ursachen dieses gut bekannten, jedoch bisher ungelösten Phänomens – häufig als katastrophales Vergessen (catastrophic forgetting) bezeichnet – in einem klasseninkrementellen Lernsetup. Wir zeigen, dass bereits eine Kombination einfacher Komponenten und eine Verlustfunktion, die das intra- und inter-task Lernen ausbalanciert, das Vergessen in ähnlicher Weise verringern kann wie komplexere Ansätze, die in der Literatur vorgeschlagen wurden. Darüber hinaus identifizieren wir eine geringe Qualität der gelernten Darstellung als weitere Ursache für katastrophales Vergessen im klasseninkrementellen Lernen (class-IL). Wir belegen, dass die Leistung mit sekundären Klasseninformationen (dark knowledge), die das Modell lernt, korreliert ist, und dass sie durch einen geeigneten Regularisierer verbessert werden kann. Auf Basis dieser Erkenntnisse erreichen wir auf CIFAR-100 und ImageNet erheblich bessere Ergebnisse im klasseninkrementellen Lernen als der aktuelle Stand der Technik, wobei der Ansatz dennoch einfach bleibt.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp