
摘要
我们介绍了一个新的数据集,其中每篇维基百科文章都与一个知识图谱配对,以促进条件文本生成、图生成和图表示学习的研究。现有的图-文配对数据集通常包含较小的图和较短的文本(1个或几个句子),这限制了在这些数据上可以学习到的模型的能力。我们的新数据集WikiGraphs通过将来自已建立的WikiText-103基准测试(Merity等人,2016年)的每篇维基百科文章与Freebase知识图谱(Bollacker等人,2008年)中的一个子图配对而收集。这使得与其他最先进的文本生成模型进行基准测试变得容易,这些模型能够生成连贯的长段落文本。与先前的图-文配对数据集相比,本数据集中的图和文本数据规模显著更大。我们在该数据集上展示了三种任务的基本线模型结果:从图到文本生成、从图到文本检索以及从文本到图检索。我们表明,更好的基于图的条件设置可以提高生成和检索的质量,但仍有很大的改进空间。