Die Verbindung von Sprache und Wissen durch heterogene Repräsentationen für die neurale Relationsextraktion

Wissensbasen (KBs) erfordern ständige Aktualisierungen, um Veränderungen in der von ihnen repräsentierten Welt widerzuspiegeln. Für allgemeine Wissensbasen wird dies häufig durch Relationsextraktion (RE) erreicht, die Aufgabe darstellt, Beziehungen in Texten vorherzusagen, die auf Entitäten verweisen, die der Wissensbasis bekannt sind. Ein Weg, RE zu verbessern, besteht darin, Wissensbasis-Embeddings (KBE) für die Link-Vorhersage zu verwenden. Trotz offensichtlicher Zusammenhänge zwischen RE und KBE wurde bisher wenig getan, um diese Modelle systematisch zu vereinen. Wir schließen diese Lücke mit einem Rahmenwerk, das das Lernen von RE- und KBE-Modellen vereint und zu erheblichen Verbesserungen im Vergleich zum Stand der Technik in RE führt. Der Quellcode ist unter https://github.com/billy-inn/HRERE verfügbar.