HyperAIHyperAI
vor 17 Tagen

Kontrastive Dreierextraktion mit generativem Transformer

Hongbin Ye, Ningyu Zhang, Shumin Deng, Mosha Chen, Chuanqi Tan, Fei Huang, Huajun Chen
Kontrastive Dreierextraktion mit generativem Transformer
Abstract

Die Dreifachextraktion ist eine zentrale Aufgabe im Bereich der Informationsextraktion für die natürliche Sprachverarbeitung und die Konstruktion von Wissensgraphen. In diesem Paper betrachten wir erneut die end-to-end-Dreifachextraktion im Rahmen der Sequenzgenerierung. Da die generative Dreifachextraktion Schwierigkeiten haben kann, langfristige Abhängigkeiten zu erfassen und untreue Tripel zu generieren, stellen wir ein neuartiges Modell vor: die kontrastive Dreifachextraktion mit einem generativen Transformer. Konkret führen wir einen einzigen gemeinsamen Transformer-Modul für encoder-decoder-basierte Generierung ein. Um treue Ergebnisse zu erzielen, schlagen wir ein neuartiges Triplet-Kontrasttraining-Objekt vor. Zudem führen wir zwei Mechanismen zur weiteren Verbesserung der Modellleistung ein (nämlich batchweise dynamische Aufmerksamkeitsmaskierung und tripletweise Kalibrierung). Experimentelle Ergebnisse auf drei Datensätzen (NYT, WebNLG und MIE) zeigen, dass unser Ansatz eine bessere Leistung als die Baselines erzielt.