UnitedQA : Une approche hybride pour la réponse à des questions dans un domaine ouvert

À ce jour, la majeure partie des travaux récents menés dans le cadre du modèle de récupération-lecteur pour la question-réponse à domaine ouvert se concentre soit exclusivement sur un lecteur extraitur, soit sur un lecteur génératif. Dans cet article, nous étudions une approche hybride visant à exploiter les forces des deux types de modèles. Nous appliquons des techniques novatrices afin d’améliorer à la fois les lecteurs extraiturs et génératifs construits sur la base de modèles pré-entraînés récents en langage neuronal, et constatons que des méthodes d’entraînement appropriées permettent d’obtenir des améliorations significatives par rapport aux modèles précédemment les plus performants. Nous démontrons qu’une approche hybride simple, consistant à combiner les réponses produites par les deux lecteurs, permet efficacement de tirer parti des stratégies d’inférence des réponses extraites et génératives, et surpasse non seulement les modèles uniques mais aussi les ensembles homogènes. Notre approche dépasse les modèles précédemment état de l’art de 3,3 points en exact match sur NaturalQuestions et de 2,7 points sur TriviaQA.