Génération de questions en mode fermé par apprentissage contrastif

La génération de questions (QG) est une tâche fondamentale en traitement du langage naturel (NLP) pour de nombreuses applications ultérieures. Les études récentes sur la QG en mode « open-book », où des paires contexte-réponse soutenantes sont fournies aux modèles, ont obtenu des progrès prometteurs. Toutefois, la génération de questions naturelles dans un cadre plus réaliste et pratique, le mode « closed-book » privé de ces documents supports, reste un défi. Dans ce travail, nous proposons un nouveau modèle de QG adapté à ce cadre closed-book, conçu pour mieux comprendre la sémantique des réponses abstraites longues et stocker davantage d'informations dans ses paramètres grâce à un apprentissage contrastif et un module de reconstruction de réponse. À travers des expérimentations menées sur des jeux de données publics ainsi que sur un nouveau jeu de données, WikiCQA, nous validons l'efficacité du modèle proposé. Les résultats empiriques montrent que notre modèle surpasse les méthodes de référence tant en évaluation automatique qu’en évaluation humaine. En outre, nous démontrons comment exploiter ce modèle pour améliorer les systèmes existants de réponse aux questions. Ces résultats renforcent l’efficacité de notre modèle de QG dans le renforcement des tâches de réponse aux questions en mode closed-book.