Convolution adaptative pour l'apprentissage multi-Relationnel

Nous considérons le problème d’apprentissage de représentations distribuées pour les entités et les relations dans des données multi-relationnelles, afin de prédire les liens manquants. Les réseaux de neurones à convolution (CNN) ont récemment démontré leur supériorité pour ce problème, en offrant une expressivité accrue tout en restant efficaces en termes de paramètres. Malgré ces succès, les conceptions antérieures de convolution ne parviennent pas à modéliser les interactions complètes entre les entités d’entrée et les relations, ce qui limite potentiellement les performances de prédiction des liens. Dans ce travail, nous introduisons ConvR, un réseau convolutif adaptable conçu pour maximiser les interactions entre entités et relations de manière convolutif. ConvR construit de manière adaptative les filtres de convolution à partir des représentations des relations, puis applique ces filtres aux représentations des entités afin de générer des caractéristiques convolutives. Ainsi, ConvR permet des interactions riches entre les représentations d’entités et de relations à diverses régions, et toutes les caractéristiques convolutives produites sont capables de capturer ces interactions. Nous évaluons ConvR sur plusieurs jeux de données de référence. Les résultats expérimentaux montrent que : (1) ConvR surpasse significativement les modèles de référence concurrents sur presque toutes les métriques et sur tous les jeux de données ; (2) Par rapport aux modèles convolutifs d’avant-garde, ConvR est non seulement plus efficace, mais aussi plus performant. Il offre une amélioration de 7 % en MRR et de 6 % en Hits@10, tout en réduisant de 12 % la mémoire nécessaire au stockage des paramètres.