Duales kontrastives Lernen: Textklassifizierung durch datenverarbeitungsbasierte Erweiterung mit Label-Bewusstsein

Das kontrastive Lernen hat in der Darstellungslernung durch Selbstüberwachung in unüberwachten Szenarien bemerkenswerte Erfolge erzielt. Die effektive Anpassung des kontrastiven Lernens an überwachte Lernaufgaben stellt jedoch in der Praxis weiterhin eine Herausforderung dar. In dieser Arbeit stellen wir einen dualen kontrastiven Lernrahmen (DualCL) vor, der gleichzeitig die Merkmale von Eingabebeispielen und die Parameter von Klassifikatoren im selben Raum lernt. Insbesondere betrachtet DualCL die Parameter der Klassifikatoren als erweiterte Beispiele, die verschiedenen Labels zugeordnet sind, und nutzt dann das kontrastive Lernen zwischen den Eingabebeispielen und den erweiterten Beispielen. Empirische Studien an fünf Benchmark-Datensätzen für Textklassifizierung und ihren Ressourcen-schwachen Versionen zeigen Verbesserungen in der Klassifikationsgenauigkeit und bestätigen die Fähigkeit von DualCL, diskriminative Darstellungen zu lernen.