HyperAIHyperAI

Command Palette

Search for a command to run...

Apprentissage de représentations lexicales avec dépendances intersentences pour une résolution de co-référence end-to-end

Jim Glass Hongyin Luo

Résumé

Dans ce travail, nous présentons un modèle d’embedding de mots qui apprend des dépendances intersentences afin d’améliorer la résolution de co-référence en bout à bout (E2E-CR). Alors que le modèle classique E2E-CR génère des représentations de mots en appliquant des réseaux de neurones récurrents à mémoire à long terme (LSTM) de manière séparée sur chaque phrase d’un article ou d’une conversation d’entrée, nous proposons deux modèles d’association entre phrases : un modèle linéaire d’association entre phrases et un modèle d’association attentive entre phrases, visant à capturer les dépendances intersentences. Ces deux stratégies d’association permettent aux LSTM d’utiliser efficacement les informations pertinentes provenant des phrases contextuelles lors du calcul de la représentation du mot courant. Grâce à cette approche, les LSTM apprennent des embeddings de mots en tenant compte non seulement des connaissances contenues dans la phrase courante, mais aussi de l’ensemble du document d’entrée. Les expériences montrent que l’apprentissage des dépendances intersentences enrichit les informations contenues dans les représentations de mots, et améliore significativement les performances du modèle de résolution de co-référence par rapport à notre modèle de référence.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp