HyperAIHyperAI
vor 12 Tagen

Ein einfaches aber wirksames Framework für Few-Shot Aspect-basierte Sentimentanalyse

{Xia, Xie; Rui, Wang; Qiming, Zengzhi}
Abstract

Das Prätrainings- und Fine-Tuning-Paradigma ist zum dominierenden Framework im Bereich der aspect-basierten Sentimentanalyse (Aspect-Based Sentiment Analysis, ABSA) geworden. Obwohl es in Domänen mit ausreichend feinkörnigen Aspekt-Sentiment-Anmerkungen beachtliche Leistung erzielt, bleibt die Durchführung von Few-Shot-ABSA in Domänen mit seltenen manuellen Annotationen weiterhin herausfordernd. In dieser Arbeit argumentieren wir, dass zwei Arten von Lücken – die Domänenlücke und die Zielsetzungslücke – die Übertragung von Wissen von prätrainierten Sprachmodellen (Pre-trained Language Models, PLMs) auf ABSA-Aufgaben behindern. Um dieses Problem anzugehen, führen wir einen einfachen, jedoch effektiven Ansatz namens FS-ABSA ein, der domain-adaptives Prätraining und Text-Infilling-Fine-Tuning umfasst. Wir formulieren die End-to-End-ABSA-Aufgabe als Text-Infilling-Aufgabe und führen das domain-adaptive Prätraining mit dem Ziel des Text-Infilling durch, wodurch die beiden Lücken verkleinert und die Wissensübertragung somit erleichtert wird. Experimente zeigen, dass das resultierende Modell unter Few-Shot-Bedingungen gegenüber Baselines überzeugendere Ergebnisse erzielt und unter vollständig überwachten Bedingungen die bisher beste Leistung über alle Datensätze hinweg erneut übertreffen kann. Zudem wenden wir unseren Ansatz auf zwei nicht-englische, ressourcenarme Sprachen an, um dessen Allgemeingültigkeit und Effektivität zu demonstrieren.

Ein einfaches aber wirksames Framework für Few-Shot Aspect-basierte Sentimentanalyse | Neueste Forschungsarbeiten | HyperAI