
摘要
问题生成(Question Generation, QG)是众多下游自然语言处理应用中的基础任务。近年来,针对开卷问题生成(open-book QG)的研究取得了显著进展,该任务通过向模型提供支持性的答案-上下文配对来辅助生成。然而,在缺乏此类支持文档的更贴近实际应用的闭卷设置下,生成自然流畅问题仍面临巨大挑战。为此,本文提出了一种面向闭卷设置的新颖QG模型,该模型通过对比学习(contrastive learning)与答案重构模块(answer reconstruction module),增强了对长篇摘要式答案语义的理解能力,并在模型参数中存储了更多信息。通过在公开数据集及新构建的WikiCQA数据集上的实验验证,结果表明,所提出的QG模型在自动评估与人工评估中均显著优于现有基线方法。此外,本文还展示了如何利用该模型改进现有的问答系统。实验结果进一步证明,该QG模型在提升闭卷问答任务性能方面具有显著有效性。