HyperAIHyperAI
il y a 2 mois

Encodeur de phrases basé sur un réseau neuronal récurrent avec attention gatée pour l'inférence en langage naturel

Qian Chen; Xiaodan Zhu; Zhen-Hua Ling; Si Wei; Hui Jiang; Diana Inkpen
Encodeur de phrases basé sur un réseau neuronal récurrent avec attention gatée pour l'inférence en langage naturel
Résumé

La tâche commune RepEval 2017 vise à évaluer les modèles de compréhension du langage naturel pour la représentation des phrases, dans laquelle une phrase est représentée sous forme de vecteur de longueur fixe à l'aide de réseaux neuronaux, et la qualité de cette représentation est testée par une tâche d'inférence en langage naturel. Ce document décrit notre système (alpha) qui s'est classé parmi les meilleurs lors de cette tâche commune, tant sur l'ensemble de test intra-domaine (avec une précision de 74,9 %) que sur l'ensemble de test inter-domaines (atteignant également une précision de 74,9 %), démontrant ainsi que le modèle généralise bien aux données inter-domaines. Notre modèle est doté d'une composition d'attention intra-sentencière avec portes, ce qui contribue à améliorer ses performances. Outre la soumission de notre modèle à la tâche commune, nous l'avons également testé sur le jeu de données Stanford Natural Language Inference (SNLI). Nous obtenons une précision de 85,5 %, qui constitue le meilleur résultat rapporté sur SNLI lorsque l'attention inter-sentences n'est pas autorisée, condition identique à celle imposée lors de RepEval 2017.