Exploiter la récupération de passages avec des modèles génératifs pour la réponse à des questions dans un domaine ouvert

Les modèles génératifs pour la réponse à des questions dans un domaine ouvert se sont révélés compétitifs sans avoir recours à des connaissances externes. Bien que prometteurs, ces approches nécessitent l'utilisation de modèles comportant des milliards de paramètres, dont l'entraînement et l'inférence sont coûteux. Dans ce papier, nous étudions dans quelle mesure ces modèles peuvent bénéficier de la récupération de passages textuels, potentiellement porteurs de preuves. Nous obtenons des résultats de pointe sur les benchmarks ouverts Natural Questions et TriviaQA. De manière intéressante, nous constatons que les performances de cette méthode s'améliorent significativement en augmentant le nombre de passages récupérés. Ceci constitue une preuve que les modèles génératifs sont particulièrement efficaces pour agréger et combiner des preuves provenant de plusieurs passages.