Raisonnement relationnel à faible exemple par préentraînement sur sous-graphes de connexion

La tâche de complétion de graphe de connaissances (KG) en peu d’exemples vise à effectuer un raisonnement inductif sur le KG : étant donné un petit nombre de triplets d’appui pour une nouvelle relation $\bowtie$ (par exemple, (coupé,$\bowtie$,cuisine), (lu,$\bowtie$,bibliothèque)), l’objectif est de prédire des triplets de requête pour la même relation inconnue $\bowtie$, par exemple (dormi,$\bowtie$,?). Les approches actuelles modélisent ce problème dans un cadre d’apprentissage métacognitif, où le modèle doit d’abord être entraîné conjointement sur de nombreuses tâches d’apprentissage en peu d’exemples, chacune définie par une relation propre, afin de garantir une apprentissage ou une prédiction efficaces sur la tâche cible en peu d’exemples. Toutefois, dans les réels graphes de connaissances, la création d’un grand nombre de tâches d’entraînement constitue un processus difficile et ad hoc. Dans ce travail, nous proposons Connection Subgraph Reasoner (CSR), une méthode permettant de faire des prédictions directement sur la tâche cible en peu d’exemples, sans nécessiter d’entraînement préalable sur un ensemble de tâches d’entraînement soigneusement conçu par l’humain. Le principe central de CSR réside dans la modélisation explicite d’un sous-graphe de connexion commun entre les triplets d’appui et les triplets de requête, inspiré du principe de l’induction éliminative. Pour adapter la méthode à des KG spécifiques, nous avons conçu un schéma d’entraînement auto-supervisé correspondant, dont l’objectif est la reconstruction de sous-graphes de connexion automatiquement échantillonnés. Le modèle pré-entraîné peut ensuite être directement appliqué aux tâches cibles en peu d’exemples, sans nécessiter d’entraînement supplémentaire sur des tâches en peu d’exemples. Des expérimentations étendues sur des KG réels, notamment NELL, FB15K-237 et ConceptNet, démontrent l’efficacité de notre cadre : nous montrons qu’une implémentation de CSR sans apprentissage (learning-free) peut déjà rivaliser avec les méthodes existantes sur les tâches cibles en peu d’exemples ; avec pré-entraînement, CSR obtient des gains significatifs allant jusqu’à 52 % sur les tâches inductives en peu d’exemples les plus difficiles, où les entités sont également inconnues durant l’entraînement (pré-entraînement).