RotatE : Plongement de graphe de connaissances par rotation relationnelle dans l'espace complexe

Nous étudions le problème d'apprentissage des représentations d'entités et de relations dans les graphes de connaissances pour prédire les liens manquants. Le succès de cette tâche dépend fortement de la capacité à modéliser et inférer les motifs des relations (ou entre les relations). Dans cet article, nous présentons une nouvelle approche d'embedding de graphe de connaissances appelée RotatE, capable de modéliser et d'inférer divers motifs relationnels, notamment : symétrie/antisymétrie, inversion et composition. Plus précisément, le modèle RotatE définit chaque relation comme une rotation de l'entité source vers l'entité cible dans l'espace vectoriel complexe. De plus, nous proposons une nouvelle technique d'échantillonnage négatif auto-antagoniste pour entraîner efficacement et efficacement le modèle RotatE. Les résultats expérimentaux sur plusieurs graphes de connaissances de référence montrent que le modèle RotatE proposé non seulement est évolutif, mais aussi capable d'inférer et de modéliser divers motifs relationnels, surpassant considérablement les modèles existants de pointe pour la prédiction des liens.