Voisins amicaux : prédiction de lien séquentielle contextualisée

Nous proposons KGT5-context, un modèle simple de type séquence à séquence pour la prédiction de liens (LP) dans les graphes de connaissances (KG). Notre travail s’inscrit dans la continuité de KGT5, un modèle récent de LP qui exploite les caractéristiques textuelles du KG, présente une taille modeste et est évolutif. Toutefois, pour atteindre de bonnes performances prédictives, KGT5 repose sur un ensemble combinant un modèle d’embedding de graphe de connaissances (KGE), lui-même excessivement volumineux et coûteux à utiliser. Dans ce court article, nous démontrons empiriquement que l’ajout d’informations contextuelles — c’est-à-dire des informations relatives au voisinage immédiat de l’entité interrogée — permet de réduire voire d’éliminer la nécessité d’un modèle KGE distinct afin d’obtenir de bonnes performances. Le modèle résultant, KGT5-context, est simple, réduit significativement la taille du modèle et atteint des performances de pointe dans notre étude expérimentale.