Récolte et affinement de paires question-réponse pour une tâche de Q&A non supervisée

La question-réponse (QA) a connu un succès remarquable grâce à la disponibilité de grands jeux de données et à l’efficacité des modèles neuronaux. Des travaux récents ont cherché à étendre ces réussites aux scénarios où peu ou pas de données étiquetées sont disponibles. Dans ce travail, nous proposons deux approches pour améliorer la QA non supervisée. Premièrement, nous extrayons automatiquement des questions lexicalement et syntaxiquement divergentes à partir de Wikipedia afin de construire un corpus de paires question-réponse (nommé RefQA). Deuxièmement, nous exploitons le modèle de QA pour extraire des réponses plus pertinentes, ce qui permet une révision itérative des données au sein de RefQA. Nous menons des expériences sur SQuAD 1.1 et NewsQA en fine-tuning BERT sans accès à des données manuellement annotées. Notre approche surpasse largement les méthodes non supervisées antérieures et se montre compétitive par rapport aux modèles supervisés précoce. Nous démontrons également l’efficacité de notre méthode dans le cadre d’un apprentissage peu supervisé (few-shot learning).