R$^3$ : Lecteur-Rangé Renforcé pour le Questionnement en Domaine Ouvert

Ces dernières années, les chercheurs ont obtenu des succès notables en appliquant des méthodes de réseaux neuronaux à la réponse aux questions (QA). Ces approches ont atteint des résultats de pointe dans des contextes simplifiés et fermés, tels que le jeu de données SQuAD (Rajpurkar et al., 2016), qui fournit un passage pré-sélectionné d'où l'on peut extraire la réponse à une question donnée. Plus récemment, les chercheurs se sont attaqués à la QA ouverte, où le modèle reçoit une question et a accès à un grand corpus (par exemple, Wikipédia) au lieu d'un passage pré-sélectionné (Chen et al., 2017a). Ce cadre est plus complexe car il nécessite une recherche à grande échelle de passages pertinents par un composant de récupération d'information, associée à un modèle de compréhension de lecture qui « lit » ces passages pour générer une réponse à la question. Les performances dans ce cadre restent nettement en retard par rapport aux performances dans les domaines fermés. Dans cet article, nous présentons un nouveau système de QA ouverte appelé Reinforced Ranker-Reader ($R^3$), basé sur deux innovations algorithmiques. Premièrement, nous proposons un nouveau pipeline pour la QA ouverte avec un composant Ranker, qui apprend à classer les passages récupérés selon leur probabilité de générer la réponse correcte à une question donnée. Deuxièmement, nous proposons une méthode novatrice qui entraîne conjointement le Ranker avec un modèle Reader pour la génération de réponses, fondée sur l'apprentissage par renforcement. Nous rapportons des résultats expérimentaux exhaustifs montrant que notre méthode améliore considérablement l'état de l'art pour plusieurs jeux de données de QA ouverte.