HyperAIHyperAI
vor 18 Tagen

Kontextbewusste Darstellungen für die Relationsextraktion in Wissensbasen

{Iryna Gurevych, Daniil Sorokin}
Kontextbewusste Darstellungen für die Relationsextraktion in Wissensbasen
Abstract

Wir zeigen, dass es für die relationale Extraktion auf Satzebene vorteilhaft ist, bei der Vorhersage der Zielrelation andere Relationen im satzweisen Kontext zu berücksichtigen. Unsere Architektur verwendet einen LSTM-basierten Encoder, um gemeinsam Darstellungen aller Relationen in einem einzigen Satz zu lernen. Wir kombinieren die Kontextdarstellungen mit einem Aufmerksamkeitsmechanismus, um die endgültige Vorhersage zu treffen. Zur Erstellung eines Datensatzes mit mehreren Relationen pro Satz und zur Evaluierung unseres Ansatzes nutzen wir die Wikidata-Wissensbasis. Im Vergleich zu einem Baseline-System erreicht unsere Methode im Durchschnitt eine Fehlerreduktion um 24 auf einer getrennten Testmenge von Relationen. Der Quellcode und der Datensatz zur Reproduktion der Experimente sind unter url{https://github.com/ukplab/} verfügbar.