Regularisierung mit Pseudo-Negativen für kontinuierliches selbstüberwachtes Lernen

Wir stellen einen neuen Pseudo-Negative-Regularisierungs-(PNR)-Rahmen für eine effektive kontinuierliche selbstüberwachte Lernung (CSSL) vor. Unser PNR nutzt Pseudo-Negativen, die durch modellbasierte Augmentierung generiert werden, um sicherzustellen, dass neu gelernte Darstellungen nicht mit bereits erlernten Wissen aus der Vergangenheit in Konflikt geraten. Insbesondere definieren wir für auf InfoNCE basierende contrastive Lernmethoden symmetrische Pseudo-Negativen, die aus dem aktuellen und dem vorherigen Modell stammen, und verwenden sie sowohl im Haupt- als auch im Regularisierungsverlustterm. Darüber hinaus erweitern wir diese Idee auf nicht-contrastive Lernmethoden, die ursprünglich nicht auf Negativen basieren. Bei diesen Methoden wird ein Pseudo-Negativ als Ausgabe des vorherigen Modells für eine anders augmentierte Version der Anchor-Beobachtung definiert und asymmetrisch im Regularisierungsterm angewendet. Umfangreiche experimentelle Ergebnisse zeigen, dass unser PNR-Rahmen bei der Darstellungslernung in CSSL eine state-of-the-art-Leistung erzielt, indem er effektiv das Spannungsverhältnis zwischen Plastizität und Stabilität ausbalanciert.