HyperAIHyperAI
vor 18 Tagen

Position-aware Attention und überwachtes Daten verbessern die Slot-Filling-Leistung

{Victor Zhong, Gabor Angeli, Danqi Chen, Yuhao Zhang, Christopher D. Manning}
Position-aware Attention und überwachtes Daten verbessern die Slot-Filling-Leistung
Abstract

Organisierte relationale Wissensinhalte in Form von „Knowledge Graphs“ sind für zahlreiche Anwendungen von entscheidender Bedeutung. Die Fähigkeit, Wissensbasen mit Fakten automatisch aus Dokumenten zu befüllen, hat sich jedoch äußerst langsam entwickelt. In diesem Artikel greifen wir gleichzeitig zwei Probleme an, die frühere Arbeiten beeinträchtigt haben. Zunächst stellen wir ein effektives neues Modell vor, das ein LSTM-Sequenzmodell mit einer Form von entitätspositionssensitiver Aufmerksamkeit kombiniert, die besser für die Relationsextraktion geeignet ist. Anschließend erstellen wir TACRED, eine große (119.474 Beispiele umfassende) überwachte Relationsextraktionsdatenbank, die mittels Crowdsourcing gewonnen und auf die TAC KBP-Relationen ausgerichtet ist. Die Kombination aus qualitativ hochwertiger überwachter Daten und einem leistungsfähigeren, besser geeigneten Modell ermöglicht eine deutlich verbesserte Leistung bei der Relationsextraktion. Wenn das auf diesem neuen Datensatz trainierte Modell die vorherige Relationsextraktionskomponente des besten TAC KBP 2015-Slot-Filling-Systems ersetzt, steigt seine F1-Score deutlich von 22,2 % auf 26,7 %.