2 个月前
UnifiedSKG:利用文本到文本语言模型统一和多任务处理结构化知识 grounding
Tianbao Xie; Chen Henry Wu; Peng Shi; Ruiqi Zhong; Torsten Scholak; Michihiro Yasunaga; Chien-Sheng Wu; Ming Zhong; Pengcheng Yin; Sida I. Wang; Victor Zhong; Bailin Wang; Chengzu Li; Connor Boyle; Ansong Ni; Ziyu Yao; Dragomir Radev; Caiming Xiong; Lingpeng Kong; Rui Zhang; Noah A. Smith; Luke Zettlemoyer; Tao Yu

摘要
结构化知识接地(Structured Knowledge Grounding, SKG)利用结构化知识来完成用户请求,例如数据库上的语义解析和知识库上的问题回答。由于SKG任务的输入和输出具有异质性,不同的研究社区对其进行了独立的研究,这限制了系统性和兼容性的SKG研究。在本文中,我们通过提出UnifiedSKG框架克服了这一局限性,该框架将21个SKG任务统一为文本到文本的格式,旨在促进系统性的SKG研究,而不是局限于单一任务、领域或数据集。我们使用UnifiedSKG对不同规模的T5模型进行基准测试,并显示经过必要时的简单修改,T5在几乎所有21个任务上都达到了最先进的性能。我们进一步证明了多任务前缀调优可以提高大多数任务的性能,显著提升了整体表现。UnifiedSKG还促进了零样本和少样本学习的研究,我们展示了T0、GPT-3和Codex在零样本和少样本学习中的SKG任务上表现不佳。此外,我们还使用UnifiedSKG对跨SKG任务的各种结构化知识编码变体进行了系列受控实验。UnifiedSKG易于扩展到更多任务,并且其源代码已开源至https://github.com/hkunlp/unifiedskg。