Extraction de relations de bout en bout à l'aide de LSTM sur des séquences et des structures arborescentes

Nous présentons un nouveau modèle neuronal de bout en bout pour extraire des entités et les relations entre elles. Notre modèle basé sur un réseau neuronal récurrent (RNR) capture à la fois les informations de séquence de mots et de sous-structure d'arbre de dépendance en empilant des RNR-LSTM bidirectionnels structurés par arbre sur des RNR-LSTM bidirectionnels séquentiels. Cela permet à notre modèle de représenter conjointement les entités et les relations avec des paramètres partagés au sein d'un seul modèle. Nous favorisons également la détection des entités pendant l'entraînement et l'utilisation des informations d'entité dans l'extraction des relations grâce à une préformation d'entité et à un échantillonnage programmé. Notre modèle améliore le modèle basé sur les caractéristiques le plus performant actuellement dans l'extraction de relations de bout en bout, réalisant une réduction relative des erreurs de 12,1 % et 5,7 % en termes de score F1 sur ACE2005 et ACE2004, respectivement. Nous montrons également que notre modèle basé sur les RNR-LSTM se compare favorablement au modèle basé sur les CNN le plus performant actuellement (en termes de score F1) pour la classification des relations nominales (SemEval-2010 Tâche 8). Enfin, nous présentons une analyse exhaustive par suppression progressive de plusieurs composants du modèle.