LogicENN : Un Modèle d'Embedding de Graphes de Connaissances Basé sur les Règles Logiques

Les modèles d'embedding de graphes de connaissances ont suscité une attention considérable dans la recherche en intelligence artificielle. Des travaux récents ont démontré que l'inclusion de connaissances de fond, telles que des règles logiques, peut améliorer les performances des embeddings dans les tâches de machine learning en aval. Cependant, jusqu'à présent, la plupart des modèles existants ne permettent pas l'intégration de ces règles. Nous abordons ce défi et présentons un nouveau modèle d'embedding basé sur les réseaux neuronaux (LogicENN). Nous prouvons que LogicENN est capable d'apprendre chaque vérité de base des règles encodées dans un graphe de connaissances. À notre connaissance, cela n'a pas encore été démontré pour la famille des modèles d'embedding basés sur les réseaux neuronaux. De plus, nous établissons des formules pour l'inclusion de diverses règles, y compris (anti-)symétriques, inverses, irréflexives et transitives, ainsi que des implications, compositions, équivalences et négations. Notre formulation permet d'éviter le groundage pour les relations d'implication et d'équivalence. Nos expériences montrent que LogicENN surpassent les modèles de pointe actuels en prédiction de liens.