aNMM : Classement de textes de réponses courtes avec un modèle de correspondance neuronale basé sur l'attention

En alternative aux méthodes de réponse à des questions basées sur l'ingénierie des caractéristiques, des approches d'apprentissage profond telles que les réseaux neuronaux convolutifs (CNNs) et les modèles à mémoire à court et long terme (LSTMs) ont été récemment proposées pour le couplage sémantique des questions et des réponses. Cependant, pour obtenir de bons résultats, ces modèles ont été combinés avec des caractéristiques supplémentaires comme la superposition de mots ou les scores BM25. Sans cette combinaison, ces modèles se montrent nettement moins performants que les méthodes fondées sur l'ingénierie linguistique des caractéristiques. Dans cet article, nous proposons un modèle de couplage neuronal basé sur l'attention pour le classement de textes de réponses courtes. Nous adoptons un schéma de pondération partagée par valeur plutôt qu'un schéma de pondération partagée par position pour combiner différents signaux de correspondance et intégrons l'apprentissage de l'importance des termes de la question en utilisant un réseau d'attention aux questions. En utilisant les données populaires du benchmark TREC QA, nous montrons que le modèle aNMM relativement simple peut significativement surpasser d'autres modèles de réseaux neuronaux utilisés pour la tâche de réponse à des questions et est compétitif avec les modèles combinés à des caractéristiques supplémentaires. Lorsque le modèle aNMM est associé à des caractéristiques supplémentaires, il dépasse toutes les lignes de base.