HyperAIHyperAI
il y a 2 mois

RAAT : Transformer à Attention Augmentée par les Relations pour la Modélisation des Relations dans l'Extraction d'Événements au Niveau du Document

Yuan Liang; Zhuoxuan Jiang; Di Yin; Bo Ren
RAAT : Transformer à Attention Augmentée par les Relations pour la Modélisation des Relations dans l'Extraction d'Événements au Niveau du Document
Résumé

Dans la tâche d'extraction d'événements au niveau du document (DEE), les arguments des événements sont toujours dispersés dans différentes phrases (problème inter-sentences) et plusieurs événements peuvent se trouver dans un seul document (problème multi-événements). Dans cet article, nous soutenons que l'information sur les relations entre les arguments des événements est d'une grande importance pour résoudre ces deux problèmes, et nous proposons un nouveau cadre DEE capable de modéliser les dépendances relationnelles, appelé Extraction d'événements au niveau du document enrichie par les relations (ReDEE). Plus précisément, ce cadre présente une nouvelle architecture de transformateur spécifiquement conçue, nommée Transformateur d'Attention Enrichi par les Relations (RAAT). Le RAAT est capable de capturer des relations d'arguments à différentes échelles et en quantités variables. Pour exploiter davantage l'information relationnelle, nous introduisons une tâche distincte de prédiction des relations entre événements et adoptons une méthode d'apprentissage multi-tâches afin de renforcer explicitement les performances d'extraction des événements. De nombreuses expérimentations montrent l'efficacité de la méthode proposée, qui peut atteindre des performances de pointe sur deux jeux de données publics. Notre code est disponible à l'adresse suivante : https://github.com/TencentYoutuResearch/RAAT.

RAAT : Transformer à Attention Augmentée par les Relations pour la Modélisation des Relations dans l'Extraction d'Événements au Niveau du Document | Articles de recherche récents | HyperAI