Embeddings de Graphes de Connaissances 2D par Convolution

La prédiction de liens pour les graphes de connaissances est la tâche consistant à prédire des relations manquantes entre entités. Les travaux précédents sur la prédiction de liens se sont concentrés sur des modèles peu profonds et rapides, capables de s'adapter à de grands graphes de connaissances. Cependant, ces modèles apprennent des caractéristiques moins expressives que les modèles profonds et multicouches, ce qui peut potentiellement limiter leurs performances. Dans cette étude, nous introduisons ConvE, un modèle de réseau neuronal convolutif multicouche pour la prédiction de liens, et nous rapportons des résultats d'état de l'art pour plusieurs ensembles de données établis. Nous montrons également que le modèle est très efficace en termes de paramètres, offrant les mêmes performances que DistMult et R-GCN avec 8 fois et 17 fois moins de paramètres respectivement. L'analyse de notre modèle suggère qu'il est particulièrement efficace pour modéliser les nœuds avec un grand nombre d'entrées -- ce qui est courant dans des graphes de connaissances complexes et fortement connectés comme Freebase et YAGO3. De plus, il a été noté que les ensembles de données WN18 et FB15k souffrent d'une fuite du jeu de test, due à la présence dans le jeu de test des relations inverses issues du jeu d'entraînement -- cependant, l'ampleur de ce problème n'a pas encore été quantifiée. Nous trouvons que ce problème est sévère : un modèle basé sur des règles simples peut atteindre des résultats d'état de l'art sur WN18 et FB15k. Pour garantir que les modèles soient évalués sur des ensembles de données où l'exploitation simple des relations inverses ne peut pas produire des résultats compétitifs, nous examinons et validons plusieurs ensembles de données couramment utilisés -- dérivant des variantes robustes lorsque nécessaire. Nous effectuons ensuite des expériences sur ces ensembles de données robustes pour notre propre modèle ainsi que pour plusieurs modèles proposés précédemment, et nous constatons que ConvE obtient le meilleur rang moyen réciproque (Mean Reciprocal Rank) dans la plupart des ensembles de données.