Kontrastive Dreierextraktion mit generativem Transformer

Die Dreifachextraktion ist eine zentrale Aufgabe im Bereich der Informationsextraktion für die natürliche Sprachverarbeitung und die Konstruktion von Wissensgraphen. In diesem Paper betrachten wir erneut die end-to-end-Dreifachextraktion im Rahmen der Sequenzgenerierung. Da die generative Dreifachextraktion Schwierigkeiten haben kann, langfristige Abhängigkeiten zu erfassen und untreue Tripel zu generieren, stellen wir ein neuartiges Modell vor: die kontrastive Dreifachextraktion mit einem generativen Transformer. Konkret führen wir einen einzigen gemeinsamen Transformer-Modul für encoder-decoder-basierte Generierung ein. Um treue Ergebnisse zu erzielen, schlagen wir ein neuartiges Triplet-Kontrasttraining-Objekt vor. Zudem führen wir zwei Mechanismen zur weiteren Verbesserung der Modellleistung ein (nämlich batchweise dynamische Aufmerksamkeitsmaskierung und tripletweise Kalibrierung). Experimentelle Ergebnisse auf drei Datensätzen (NYT, WebNLG und MIE) zeigen, dass unser Ansatz eine bessere Leistung als die Baselines erzielt.