Evaluierung des Einflusses von Wissensgraphen-Kontext auf Entitäts-Entsprechungsmodelle

Vortrainierte Transformer-Modelle sind zu führenden Ansätzen geworden, die kontextuelle Informationen aus Text lernen, um die Leistung mehrerer NLP-Aufgaben zu verbessern. Obwohl diese Modelle leistungsfähig sind, erfordern sie dennoch spezialisiertes Wissen in bestimmten Szenarien. In diesem Paper argumentieren wir, dass Kontext, der aus einem Wissensgraphen (in unserem Fall: Wikidata) gewonnen wird, ausreichend Signale liefert, um vortrainierte Transformer-Modelle zu informieren und deren Leistung bei der Namensentitätsentambiguierung (NED) auf dem Wikidata-Wissensgraphen zu verbessern. Wir vermuten weiterhin, dass der vorgeschlagene Wissensgraphen-Kontext für Wikipedia standardisiert werden kann, und evaluieren den Einfluss des KG-Kontexts auf einen state-of-the-art-NED-Modell für die Wikipedia-Wissensbasis. Unsere empirischen Ergebnisse bestätigen, dass der vorgeschlagene KG-Kontext verallgemeinerbar ist (für Wikipedia), und die Integration von KG-Kontext in Transformer-Architekturen erheblich besser abschneidet als bestehende Baselines, einschließlich der herkömmlichen Transformer-Modelle.