RAAT: Relationserweiterte Aufmerksamkeitstransformer für die Relationenmodellierung in der Dokumentebenen-Ereignisextraktion

Bei der Dokumentenebene-Ereignisextraktion (DEE) sind Ereignisargumente stets über mehrere Sätze verteilt (Inter-Satz-Problematik), und ein Dokument kann mehrere Ereignisse enthalten (Multi-Ereignis-Problematik). In dieser Arbeit argumentieren wir, dass die Beziehungsinformation zwischen Ereignisargumenten von großer Bedeutung für die Lösung der beiden genannten Probleme ist, und schlagen einen neuen DEE-Framework vor, das diese Beziehungsabhängigkeiten modelliert. Dieses Framework wird als Relationserweiterte Dokumentenebene-Ereignisextraktion (ReDEE) bezeichnet. Genauer gesagt verfügt dieses Framework über einen neuartigen und angepassten Transformer, den sogenannten Relationserweiterten Aufmerksamkeits-Transformer (RAAT). Der RAAT ist skalierbar, um Argumentbeziehungen auf verschiedenen Skalen und in unterschiedlicher Anzahl zu erfassen. Um die Beziehungsinformation weiter zu nutzen, führen wir eine separate Aufgabe zur Vorhersage von Ereignisbeziehungen ein und wenden eine Mehraufgaben-Lernmethode an, um die Leistungsfähigkeit der Ereignisextraktion explizit zu verbessern. Ausführliche Experimente zeigen die Effektivität des vorgeschlagenen Verfahrens, das auf zwei öffentlichen Datensätzen den aktuellen Stand der Technik erreichen kann. Unser Code ist unter https://github.com/TencentYoutuResearch/RAAT verfügbar.