Un modèle simple et efficace pour répondre à des questions à plusieurs extraits

Les modèles de compréhension de lecture (RC) limitent généralement leur espace de sortie à l’ensemble de tous les segments contigus simples extraits de l’entrée, afin de simplifier le problème d’apprentissage et d’éviter la nécessité d’un modèle capable de générer du texte explicitement. Toutefois, imposer que la réponse soit un seul segment peut s’avérer restrictif, et certaines bases de données récentes incluent également des questions à plusieurs segments, c’est-à-dire des questions dont la réponse correspond à un ensemble de segments non contigus dans le texte. Naturellement, les modèles ne pouvant retourner qu’un seul segment sont incapables de répondre à de telles questions. Dans ce travail, nous proposons une architecture simple pour répondre aux questions à plusieurs segments en reformulant la tâche comme un problème de tag de séquence, à savoir prédire pour chaque mot de l’entrée s’il doit faire partie de la réponse ou non. Notre modèle améliore significativement les performances sur les questions d’extraction de segments dans les bases DROP et Quoref, de respectivement 9,9 et 5,5 points EM.