HyperAIHyperAI
vor 11 Tagen

Bieten vortrainierte Modelle einen Nutzen für die Wissensgraphen-Vervollständigung? Eine zuverlässige Evaluation und ein sinnvoller Ansatz

{Anonymous}
Bieten vortrainierte Modelle einen Nutzen für die Wissensgraphen-Vervollständigung? Eine zuverlässige Evaluation und ein sinnvoller Ansatz
Abstract

In den letzten Jahren haben vortrainierte Sprachmodelle (PLMs) gezeigt, dass sie faktisches Wissen aus riesigen Textmengen erfassen können, was die Entwicklung von auf PLMs basierenden Ansätzen zur Vervollständigung von Wissensgraphen (KGC) anregte. Dennoch bleiben diese Modelle hinsichtlich ihrer Leistung noch deutlich hinter den State-of-the-Art (SOTA)-KGC-Modellen zurück. In dieser Arbeit identifizieren wir zwei Hauptgründe für die schwache Leistung: (1) Ungenaue Evaluierungssituation. Die Evaluierung unter der Annahme eines abgeschlossenen Weltmodells (Closed-World Assumption, CWA) kann PLM-basierte KGC-Modelle unterschätzen, da sie zusätzliche externe Wissensinhalte einbeziehen; (2) Inadäquate Nutzung von PLMs. Die meisten PLM-basierten KGC-Modelle verketten lediglich die Bezeichnungen von Entitäten und Relationen als Eingaben, was zu inkohärenten Sätzen führt, die das implizite Wissen in den PLMs nicht optimal ausnutzen. Um diese Probleme zu mindern, betonen wir eine genauere Evaluierungssituation unter der Annahme eines offenen Weltmodells (Open-World Assumption, OWA), bei der die Korrektheit von Wissen, das nicht im Wissensgraphen enthalten ist, manuell überprüft wird. Darüber hinaus, motiviert durch Prompt-Tuning, schlagen wir ein neuartiges, auf PLMs basierendes KGC-Modell namens PKGC vor. Der grundlegende Ansatz besteht darin, jedes Tripel zusammen mit seinen unterstützenden Informationen in natürliche Prompt-Sätze umzuwandeln, die anschließend in die PLMs zur Klassifikation eingespeist werden. Experimentelle Ergebnisse auf zwei KGC-Datensätzen zeigen, dass die OWA zuverlässiger für die Evaluierung von KGC ist, insbesondere bei der Link-Vorhersage, und dass unser PKGC-Modell sowohl unter CWA als auch unter OWA wirksam ist.

Bieten vortrainierte Modelle einen Nutzen für die Wissensgraphen-Vervollständigung? Eine zuverlässige Evaluation und ein sinnvoller Ansatz | Neueste Forschungsarbeiten | HyperAI