Injizieren von Wissensbasen-Informationen in End-to-End-Modellen zur gemeinsamen Entität- und Relationsextraktion sowie Coreferenzauflösung

Wir betrachten ein gemeinsames Informationsextraktions-(IE-)Modell, das die Erkennung benannter Entitäten, die Kernellösung und die Relationsextraktion gemeinsam über das gesamte Dokument löst. Insbesondere untersuchen wir, wie Informationen aus einer Wissensbasis (KB) in ein solches IE-Modell eingeflossen werden können, basierend auf unsupervisierter Entitätsverknüpfung (Entity Linking, EL). Die verwendeten KB-Entitätsdarstellungen werden entweder aus (i) hyperlinked Textdokumenten (Wikipedia) oder (ii) einem Wissensgraphen (Wikidata) gelernt und erweisen sich als komplementär hinsichtlich der Steigerung der IE-Leistung. Darstellungen der entsprechenden EL-Kandidaten werden den Textspannenrepräsentationen des Eingabedokuments hinzugefügt, und wir testen (i) eine gewichtete Durchschnittsbildung der EL-Kandidatendarstellungen basierend auf deren Prior-Wahrscheinlichkeiten (in Wikipedia) sowie (ii) eine Aufmerksamkeits-Schaltung über die Liste der EL-Kandidaten. Die Ergebnisse zeigen eine Steigerung der F1-Score-Werte um bis zu 5 % für die evaluierten IE-Aufgaben auf zwei Datensätzen. Trotz der starken Leistung des priorbasierten Modells offenbart unsere quantitative und qualitative Analyse den Vorteil des auf Aufmerksamkeit basierenden Ansatzes.