Représentations conscientes du contexte pour l'extraction de relations dans les bases de connaissances

Nous démontrons qu’il est avantageux, pour l’extraction de relations au niveau des phrases, de tenir compte des autres relations présentes dans le contexte de la phrase lors de la prédiction de la relation cible. Notre architecture utilise un encodeur basé sur un LSTM pour apprendre conjointement des représentations pour toutes les relations d’une même phrase. Nous combinons ces représentations contextuelles avec un mécanisme d’attention afin d’effectuer la prédiction finale. Nous utilisons la base de connaissances Wikidata pour construire un jeu de données comprenant plusieurs relations par phrase, ainsi que pour évaluer notre approche. Par rapport à un système de référence, notre méthode réduit en moyenne l’erreur de 24 sur un ensemble de relations tenues à l’écart. Le code source et le jeu de données permettant de reproduire les expériences sont disponibles à l’adresse suivante : url{https://github.com/ukplab/}.