HyperAIHyperAI
vor 11 Tagen

Untersuchung des Sequenz-zu-Sequenz-Lernens bei der Aspektbegriffserkennung

{Xing Xie, Dehong Ma, Houfeng Wang, Fangzhao Wu, Sujian Li}
Untersuchung des Sequenz-zu-Sequenz-Lernens bei der Aspektbegriffserkennung
Abstract

Die Aspektbegriffsextraktion (ATE) zielt darauf ab, alle Aspektbegriffe in einem Satz zu identifizieren und wird üblicherweise als Sequenzmarkierungsproblem modelliert. Allerdings können auf Sequenzmarkierung basierende Methoden die Gesamtsinnhaftigkeit des gesamten Satzes nicht vollständig ausnutzen und sind bei der Behandlung von Abhängigkeiten zwischen Etiketten eingeschränkt. Um diese Probleme anzugehen, untersuchen wir zunächst, ATE als ein Sequenz-zu-Sequenz-(Seq2Seq)-Lernproblem zu formulieren, wobei die Quellsequenz aus Wörtern und die Zielsequenz aus Etiketten besteht. Gleichzeitig entwickeln wir spezielle Gated-Unit-Netzwerke, um die entsprechenden Wortrepräsentationen in den Dekoder einzubinden, sowie eine positionssensible Aufmerksamkeitsmechanismus, um verstärkt auf benachbarte Wörter eines Zielworts zu achten. Die experimentellen Ergebnisse auf zwei Datensätzen zeigen, dass Seq2Seq-Lernen effektiv für die ATE ist, insbesondere in Kombination mit unseren vorgeschlagenen Gated-Unit-Netzwerken und dem positionssensiblen Aufmerksamkeitsmechanismus.

Untersuchung des Sequenz-zu-Sequenz-Lernens bei der Aspektbegriffserkennung | Neueste Forschungsarbeiten | HyperAI