Combinaison de réseaux de neurones et de modèles log-linéaires pour améliorer l’extraction des relations

La dernière décennie a vu le succès de la méthode traditionnelle basée sur les caractéristiques dans l'exploitation des structures discrètes telles que les mots ou les motifs lexicaux pour extraire des relations à partir du texte. Récemment, les réseaux neuronaux convolutifs et récurrents ont fourni des mécanismes très efficaces pour capturer les structures cachées au sein des phrases grâce à des représentations continues, ce qui a considérablement amélioré les performances de l'extraction de relations. L'avantage des réseaux neuronaux convolutifs réside dans leur capacité à généraliser les k-grammes consécutifs dans les phrases, tandis que les réseaux neuronaux récurrents sont efficaces pour encoder de longues séquences de contexte sentenciel. Cet article propose de combiner la méthode traditionnelle basée sur les caractéristiques, ainsi que les réseaux neuronaux convolutifs et récurrents, afin de tirer simultanément profit de leurs avantages. Notre évaluation systématique de différentes architectures de réseau et méthodes de combinaison démontre l'efficacité de cette approche et aboutit à des performances d'état de l'art sur les ensembles de données ACE 2005 et SemEval.