HyperAIHyperAI

Command Palette

Search for a command to run...

RAAT: Relationserweiterte Aufmerksamkeitstransformer für die Relationenmodellierung in der Dokumentebenen-Ereignisextraktion

Yuan Liang Zhuoxuan Jiang Di Yin Bo Ren

Zusammenfassung

Bei der Dokumentenebene-Ereignisextraktion (DEE) sind Ereignisargumente stets über mehrere Sätze verteilt (Inter-Satz-Problematik), und ein Dokument kann mehrere Ereignisse enthalten (Multi-Ereignis-Problematik). In dieser Arbeit argumentieren wir, dass die Beziehungsinformation zwischen Ereignisargumenten von großer Bedeutung für die Lösung der beiden genannten Probleme ist, und schlagen einen neuen DEE-Framework vor, das diese Beziehungsabhängigkeiten modelliert. Dieses Framework wird als Relationserweiterte Dokumentenebene-Ereignisextraktion (ReDEE) bezeichnet. Genauer gesagt verfügt dieses Framework über einen neuartigen und angepassten Transformer, den sogenannten Relationserweiterten Aufmerksamkeits-Transformer (RAAT). Der RAAT ist skalierbar, um Argumentbeziehungen auf verschiedenen Skalen und in unterschiedlicher Anzahl zu erfassen. Um die Beziehungsinformation weiter zu nutzen, führen wir eine separate Aufgabe zur Vorhersage von Ereignisbeziehungen ein und wenden eine Mehraufgaben-Lernmethode an, um die Leistungsfähigkeit der Ereignisextraktion explizit zu verbessern. Ausführliche Experimente zeigen die Effektivität des vorgeschlagenen Verfahrens, das auf zwei öffentlichen Datensätzen den aktuellen Stand der Technik erreichen kann. Unser Code ist unter https://github.com/TencentYoutuResearch/RAAT verfügbar.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
RAAT: Relationserweiterte Aufmerksamkeitstransformer für die Relationenmodellierung in der Dokumentebenen-Ereignisextraktion | Paper | HyperAI