HyperAIHyperAI

Command Palette

Search for a command to run...

Untersuchung des Sequenz-zu-Sequenz-Lernens bei der Aspektbegriffserkennung

Xing Xie Dehong Ma Houfeng Wang Fangzhao Wu Sujian Li

Zusammenfassung

Die Aspektbegriffsextraktion (ATE) zielt darauf ab, alle Aspektbegriffe in einem Satz zu identifizieren und wird üblicherweise als Sequenzmarkierungsproblem modelliert. Allerdings können auf Sequenzmarkierung basierende Methoden die Gesamtsinnhaftigkeit des gesamten Satzes nicht vollständig ausnutzen und sind bei der Behandlung von Abhängigkeiten zwischen Etiketten eingeschränkt. Um diese Probleme anzugehen, untersuchen wir zunächst, ATE als ein Sequenz-zu-Sequenz-(Seq2Seq)-Lernproblem zu formulieren, wobei die Quellsequenz aus Wörtern und die Zielsequenz aus Etiketten besteht. Gleichzeitig entwickeln wir spezielle Gated-Unit-Netzwerke, um die entsprechenden Wortrepräsentationen in den Dekoder einzubinden, sowie eine positionssensible Aufmerksamkeitsmechanismus, um verstärkt auf benachbarte Wörter eines Zielworts zu achten. Die experimentellen Ergebnisse auf zwei Datensätzen zeigen, dass Seq2Seq-Lernen effektiv für die ATE ist, insbesondere in Kombination mit unseren vorgeschlagenen Gated-Unit-Netzwerken und dem positionssensiblen Aufmerksamkeitsmechanismus.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp