HyperAIHyperAI
vor 17 Tagen

Evaluierung des Einflusses von Wissensgraphen-Kontext auf Entitäts-Entsprechungsmodelle

Isaiah Onando Mulang&#39, , Kuldeep Singh, Chaitali Prabhu, Abhishek Nadgeri, Johannes Hoffart, Jens Lehmann
Evaluierung des Einflusses von Wissensgraphen-Kontext auf Entitäts-Entsprechungsmodelle
Abstract

Vortrainierte Transformer-Modelle sind zu führenden Ansätzen geworden, die kontextuelle Informationen aus Text lernen, um die Leistung mehrerer NLP-Aufgaben zu verbessern. Obwohl diese Modelle leistungsfähig sind, erfordern sie dennoch spezialisiertes Wissen in bestimmten Szenarien. In diesem Paper argumentieren wir, dass Kontext, der aus einem Wissensgraphen (in unserem Fall: Wikidata) gewonnen wird, ausreichend Signale liefert, um vortrainierte Transformer-Modelle zu informieren und deren Leistung bei der Namensentitätsentambiguierung (NED) auf dem Wikidata-Wissensgraphen zu verbessern. Wir vermuten weiterhin, dass der vorgeschlagene Wissensgraphen-Kontext für Wikipedia standardisiert werden kann, und evaluieren den Einfluss des KG-Kontexts auf einen state-of-the-art-NED-Modell für die Wikipedia-Wissensbasis. Unsere empirischen Ergebnisse bestätigen, dass der vorgeschlagene KG-Kontext verallgemeinerbar ist (für Wikipedia), und die Integration von KG-Kontext in Transformer-Architekturen erheblich besser abschneidet als bestehende Baselines, einschließlich der herkömmlichen Transformer-Modelle.

Evaluierung des Einflusses von Wissensgraphen-Kontext auf Entitäts-Entsprechungsmodelle | Neueste Forschungsarbeiten | HyperAI