HyperAIHyperAI
vor 2 Monaten

KG-BERT: BERT für die Vervollständigung von Wissensgraphen

Liang Yao; Chengsheng Mao; Yuan Luo
KG-BERT: BERT für die Vervollständigung von Wissensgraphen
Abstract

Wissensgraphen sind wichtige Ressourcen für viele künstliche Intelligenzaufgaben, leiden aber oft unter Unvollständigkeit. In dieser Arbeit schlagen wir vor, vortrainierte Sprachmodelle zur Vervollständigung von Wissensgraphen zu verwenden. Wir behandeln Tripel in Wissensgraphen als textuelle Sequenzen und stellen einen neuen Rahmen namens Knowledge Graph Bidirectional Encoder Representations from Transformer (KG-BERT) vor, um diese Tripel zu modellieren. Unsere Methode nimmt die Entitäts- und Relationbeschreibungen eines Tripels als Eingabe entgegen und berechnet mit dem KG-BERT-Sprachmodell die Bewertungsfunktion des Tripels. Experimentelle Ergebnisse an mehreren Benchmark-Wissensgraphen zeigen, dass unsere Methode den Stand der Technik in den Aufgaben der Tripelklassifizierung, Link-Vorhersage und Relation-Vorhersage erreichen kann.

KG-BERT: BERT für die Vervollständigung von Wissensgraphen | Neueste Forschungsarbeiten | HyperAI