HyperAIHyperAI

Command Palette

Search for a command to run...

KGLM: Integration der Wissensgraphenstruktur in Sprachmodelle zur Link-Vorhersage

Jason Youn Ilias Tagkopoulos

Zusammenfassung

Die Fähigkeit von Wissensgraphen, komplexe Beziehungen in großem Maßstab darzustellen, hat ihre Einführung für vielfältige Anwendungen wie Wissensrepräsentation, Fragenbeantwortung und Empfehlungssysteme ermöglicht. Wissensgraphen sind häufig unvollständig in der von ihnen repräsentierten Information, was die Notwendigkeit von Aufgaben zur Wissensgraphen-Vervollständigung erfordert. Vortrainierte und fine-tunende Sprachmodelle haben in diesen Aufgaben vielversprechende Ergebnisse gezeigt, wobei jedoch die inhärente Information, die im Wissensgraphen kodiert ist – insbesondere die Entitäts- und Relationsarten – ignoriert wird. In dieser Arbeit stellen wir die Architektur des Knowledge Graph Language Model (KGLM) vor, bei der wir eine neue Embedding-Schicht für Entitäten/Relationen einführen, die lernt, charakteristische Entitäts- und Relationsarten zu unterscheiden. Dadurch kann das Modell die Struktur des Wissensgraphen effektiver erfassen. Wir zeigen in dieser Arbeit, dass eine zusätzliche Vortraining-Phase der Sprachmodelle mit dieser neuen Embedding-Schicht, basierend auf aus dem Wissensgraphen extrahierten Tripeln, gefolgt von einer standardmäßigen Fine-Tuning-Phase, eine neue State-of-the-Art-Leistung für die Link-Vorhersage-Aufgabe auf den Benchmark-Datensätzen erzielt.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp