HyperAIHyperAI

Command Palette

Search for a command to run...

Regularisierung mit Pseudo-Negativen für kontinuierliches selbstüberwachtes Lernen

Sungmin Cha Kyunghyun Cho Taesup Moon

Zusammenfassung

Wir stellen einen neuen Pseudo-Negative-Regularisierungs-(PNR)-Rahmen für eine effektive kontinuierliche selbstüberwachte Lernung (CSSL) vor. Unser PNR nutzt Pseudo-Negativen, die durch modellbasierte Augmentierung generiert werden, um sicherzustellen, dass neu gelernte Darstellungen nicht mit bereits erlernten Wissen aus der Vergangenheit in Konflikt geraten. Insbesondere definieren wir für auf InfoNCE basierende contrastive Lernmethoden symmetrische Pseudo-Negativen, die aus dem aktuellen und dem vorherigen Modell stammen, und verwenden sie sowohl im Haupt- als auch im Regularisierungsverlustterm. Darüber hinaus erweitern wir diese Idee auf nicht-contrastive Lernmethoden, die ursprünglich nicht auf Negativen basieren. Bei diesen Methoden wird ein Pseudo-Negativ als Ausgabe des vorherigen Modells für eine anders augmentierte Version der Anchor-Beobachtung definiert und asymmetrisch im Regularisierungsterm angewendet. Umfangreiche experimentelle Ergebnisse zeigen, dass unser PNR-Rahmen bei der Darstellungslernung in CSSL eine state-of-the-art-Leistung erzielt, indem er effektiv das Spannungsverhältnis zwischen Plastizität und Stabilität ausbalanciert.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp