Spielt Syntax eine Rolle? Ein starker Baseline für aspect-basierte Sentimentanalyse mit RoBERTa

Aspect-basierte Sentimentanalyse (ABSA), die darauf abzielt, die Polaritäten bezüglich bestimmter Aspekte vorherzusagen, ist eine fein granulierte Aufgabe im Bereich der Sentimentanalyse. Frühere Arbeiten zeigten, dass syntaktische Informationen – beispielsweise Abhängigkeitsbäume – die Leistung der ABSA effektiv verbessern können. In jüngster Zeit haben auch vortrainierte Modelle (PTMs) ihre Wirksamkeit in der ABSA unter Beweis gestellt. Daraus ergibt sich naturgemäß die Frage, ob PTMs über ausreichend syntaktische Informationen verfügen, um eine gute ABSA-Modellierung allein auf Basis dieser Modelle zu ermöglichen. In dieser Arbeit vergleichen wir zunächst die aus PTMs induzierten Bäume mit den durch Dependency-Parsing generierten Bäumen an mehreren gängigen Modellen für die ABSA-Aufgabe und zeigen, dass der aus fine-tunetem RoBERTa (FT-RoBERTa) induzierte Baum die Leistung des vom Parser bereitgestellten Baums übertrifft. Ergänzende Analyseexperimente offenbaren, dass der FT-RoBERTa-induzierte Baum stärker auf sentimentrelevante Wörter ausgerichtet ist und somit der ABSA-Aufgabe zugutekommt. Die Experimente belegen zudem, dass ein reines RoBERTa-basiertes Modell die bisherigen SOTA-Leistungen auf sechs Datensätzen in vier Sprachen erreichen oder annähern kann, da es die auf die Aufgabe zugeschnittene syntaktische Information implizit integriert.