HyperAIHyperAI

Command Palette

Search for a command to run...

Modèles neuronaux pour la raisonnement sur plusieurs mentions en utilisant la coréférence

Bhuwan Dhingra Qiao Jin Zhilin Yang William W. Cohen Ruslan Salakhutdinov

Résumé

De nombreux problèmes en traitement du langage naturel (NLP) nécessitent d'agréger des informations provenant de multiples mentions de la même entité, qui peuvent être éloignées dans le texte. Les couches de réseaux neuronaux récurrents (RNN) existantes sont biaisées vers les dépendances à court terme et ne conviennent donc pas à de telles tâches. Nous présentons une couche récurrente qui est, au contraire, biaisée vers les dépendances coreférentielles. Cette couche utilise des annotations de coreférence extraites d'un système externe pour connecter les mentions d'entités appartenant au même cluster. L'intégration de cette couche dans un modèle de compréhension de lecture de pointe améliore les performances sur trois jeux de données -- Wikihop, LAMBADA et les tâches bAbi AI -- avec des gains importants lorsque les données d'entraînement sont limitées.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp