HyperAIHyperAI

Command Palette

Search for a command to run...

KG-BERT : BERT pour l'achèvement de graphes de connaissances

Liang Yao; Chengsheng Mao; Yuan Luo

Résumé

Les graphes de connaissances sont des ressources importantes pour de nombreuses tâches d'intelligence artificielle, mais ils souffrent souvent d'incomplétude. Dans ce travail, nous proposons d'utiliser des modèles de langage pré-entraînés pour le complétion des graphes de connaissances. Nous traitons les triplets dans les graphes de connaissances comme des séquences textuelles et proposons un cadre novateur nommé Knowledge Graph Bidirectional Encoder Representations from Transformer (KG-BERT) pour modéliser ces triplets. Notre méthode prend en entrée les descriptions d'entités et de relations d'un triplet et calcule la fonction de score du triplet à l'aide du modèle de langage KG-BERT. Les résultats expérimentaux sur plusieurs graphes de connaissances de référence montrent que notre méthode peut atteindre des performances de pointe dans les tâches de classification de triplets, prédiction de liens et prédiction de relations.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
KG-BERT : BERT pour l'achèvement de graphes de connaissances | Articles | HyperAI