HyperAIHyperAI
il y a 2 mois

Un Modèle d'Attention Décomposable pour l'Inférence en Langage Naturel

Ankur P. Parikh; Oscar Täckström; Dipanjan Das; Jakob Uszkoreit
Un Modèle d'Attention Décomposable pour l'Inférence en Langage Naturel
Résumé

Nous proposons une architecture neuronale simple pour l'inférence en langage naturel. Notre approche utilise l'attention pour décomposer le problème en sous-problèmes qui peuvent être résolus séparément, ce qui la rend triviallement parallélisable. Sur le jeu de données Stanford Natural Language Inference (SNLI), nous obtenons des résultats de pointe avec presque un ordre de grandeur moins de paramètres que les travaux précédents et sans s'appuyer sur aucune information relative à l'ordre des mots. L'ajout d'une attention intra-sentence prenant en compte un minimum d'ordre améliore encore les performances.