Untersuchung des Sequenz-zu-Sequenz-Lernens bei der Aspektbegriffserkennung

Die Aspektbegriffsextraktion (ATE) zielt darauf ab, alle Aspektbegriffe in einem Satz zu identifizieren und wird üblicherweise als Sequenzmarkierungsproblem modelliert. Allerdings können auf Sequenzmarkierung basierende Methoden die Gesamtsinnhaftigkeit des gesamten Satzes nicht vollständig ausnutzen und sind bei der Behandlung von Abhängigkeiten zwischen Etiketten eingeschränkt. Um diese Probleme anzugehen, untersuchen wir zunächst, ATE als ein Sequenz-zu-Sequenz-(Seq2Seq)-Lernproblem zu formulieren, wobei die Quellsequenz aus Wörtern und die Zielsequenz aus Etiketten besteht. Gleichzeitig entwickeln wir spezielle Gated-Unit-Netzwerke, um die entsprechenden Wortrepräsentationen in den Dekoder einzubinden, sowie eine positionssensible Aufmerksamkeitsmechanismus, um verstärkt auf benachbarte Wörter eines Zielworts zu achten. Die experimentellen Ergebnisse auf zwei Datensätzen zeigen, dass Seq2Seq-Lernen effektiv für die ATE ist, insbesondere in Kombination mit unseren vorgeschlagenen Gated-Unit-Netzwerken und dem positionssensiblen Aufmerksamkeitsmechanismus.