Apprentissage de représentations lexicales avec dépendances intersentences pour une résolution de co-référence end-to-end

Dans ce travail, nous présentons un modèle d’embedding de mots qui apprend des dépendances intersentences afin d’améliorer la résolution de co-référence en bout à bout (E2E-CR). Alors que le modèle classique E2E-CR génère des représentations de mots en appliquant des réseaux de neurones récurrents à mémoire à long terme (LSTM) de manière séparée sur chaque phrase d’un article ou d’une conversation d’entrée, nous proposons deux modèles d’association entre phrases : un modèle linéaire d’association entre phrases et un modèle d’association attentive entre phrases, visant à capturer les dépendances intersentences. Ces deux stratégies d’association permettent aux LSTM d’utiliser efficacement les informations pertinentes provenant des phrases contextuelles lors du calcul de la représentation du mot courant. Grâce à cette approche, les LSTM apprennent des embeddings de mots en tenant compte non seulement des connaissances contenues dans la phrase courante, mais aussi de l’ensemble du document d’entrée. Les expériences montrent que l’apprentissage des dépendances intersentences enrichit les informations contenues dans les représentations de mots, et améliore significativement les performances du modèle de résolution de co-référence par rapport à notre modèle de référence.