Grundlagen für klasseninkrementelles Lernen

Moderne neuronale Netzwerke sind in ihrer Fähigkeit eingeschränkt, aus sich stetig ändernden Strömen von Trainingsdaten zu lernen. Werden sie sequenziell auf neue oder sich entwickelnde Aufgaben trainiert, sinkt ihre Genauigkeit stark ab, wodurch sie für viele praktische Anwendungen ungeeignet sind. In dieser Arbeit beleuchten wir die Ursachen dieses gut bekannten, jedoch bisher ungelösten Phänomens – häufig als katastrophales Vergessen (catastrophic forgetting) bezeichnet – in einem klasseninkrementellen Lernsetup. Wir zeigen, dass bereits eine Kombination einfacher Komponenten und eine Verlustfunktion, die das intra- und inter-task Lernen ausbalanciert, das Vergessen in ähnlicher Weise verringern kann wie komplexere Ansätze, die in der Literatur vorgeschlagen wurden. Darüber hinaus identifizieren wir eine geringe Qualität der gelernten Darstellung als weitere Ursache für katastrophales Vergessen im klasseninkrementellen Lernen (class-IL). Wir belegen, dass die Leistung mit sekundären Klasseninformationen (dark knowledge), die das Modell lernt, korreliert ist, und dass sie durch einen geeigneten Regularisierer verbessert werden kann. Auf Basis dieser Erkenntnisse erreichen wir auf CIFAR-100 und ImageNet erheblich bessere Ergebnisse im klasseninkrementellen Lernen als der aktuelle Stand der Technik, wobei der Ansatz dennoch einfach bleibt.