Apprentissage multi-vue syntaxique pour l'extraction ouverte d'informations

L'extraction d'informations ouverte (Open Information Extraction, OpenIE) vise à extraire des tuples relationnels à partir de phrases issues de domaines ouverts. Les modèles traditionnels, fondés sur des règles ou des approches statistiques, s'appuyaient sur les structures syntaxiques des phrases, identifiées par des analyseurs syntaxiques. Toutefois, les modèles neuronaux précédents en OpenIE ont sous-exploité les informations syntaxiques utiles. Dans cet article, nous modélisons à la fois les arbres de constitution et les arbres de dépendance sous forme de graphes au niveau des mots, afin de permettre aux modèles neuronaux OpenIE d'apprendre à partir des structures syntaxiques. Pour mieux fusionner les informations hétérogènes provenant de ces deux graphes, nous adoptons une approche d'apprentissage multi-vues afin de capturer plusieurs relations à partir d’eux. Enfin, les représentations affinées issues des arbres de constitution et de dépendance sont combinées avec les représentations sémantiques de la phrase pour générer les tuples. Les expérimentations montrent que les informations de constitution et de dépendance, ainsi que l'apprentissage multi-vues, sont effectivement efficaces.