HyperAIHyperAI

Command Palette

Search for a command to run...

Evaluierung des Einflusses von Wissensgraphen-Kontext auf Entitäts-Entsprechungsmodelle

Isaiah Onando Mulang&#39 Kuldeep Singh Chaitali Prabhu Abhishek Nadgeri Johannes Hoffart Jens Lehmann

Zusammenfassung

Vortrainierte Transformer-Modelle sind zu führenden Ansätzen geworden, die kontextuelle Informationen aus Text lernen, um die Leistung mehrerer NLP-Aufgaben zu verbessern. Obwohl diese Modelle leistungsfähig sind, erfordern sie dennoch spezialisiertes Wissen in bestimmten Szenarien. In diesem Paper argumentieren wir, dass Kontext, der aus einem Wissensgraphen (in unserem Fall: Wikidata) gewonnen wird, ausreichend Signale liefert, um vortrainierte Transformer-Modelle zu informieren und deren Leistung bei der Namensentitätsentambiguierung (NED) auf dem Wikidata-Wissensgraphen zu verbessern. Wir vermuten weiterhin, dass der vorgeschlagene Wissensgraphen-Kontext für Wikipedia standardisiert werden kann, und evaluieren den Einfluss des KG-Kontexts auf einen state-of-the-art-NED-Modell für die Wikipedia-Wissensbasis. Unsere empirischen Ergebnisse bestätigen, dass der vorgeschlagene KG-Kontext verallgemeinerbar ist (für Wikipedia), und die Integration von KG-Kontext in Transformer-Architekturen erheblich besser abschneidet als bestehende Baselines, einschließlich der herkömmlichen Transformer-Modelle.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Evaluierung des Einflusses von Wissensgraphen-Kontext auf Entitäts-Entsprechungsmodelle | Paper | HyperAI