7 天前

RASAT:将关系结构融入预训练Seq2Seq模型以实现文本到SQL的转换

Jiexing Qi, Jingyao Tang, Ziwei He, Xiangpeng Wan, Yu Cheng, Chenghu Zhou, Xinbing Wang, Quanshi Zhang, Zhouhan Lin
RASAT:将关系结构融入预训练Seq2Seq模型以实现文本到SQL的转换
摘要

关系结构(如模式链接和模式编码)已被证实是将自然语言高质量地转化为SQL查询的关键组件。然而,引入这些结构关系也带来了代价:通常会导致模型结构高度专用化,从而严重限制了大型预训练模型在文本到SQL任务中的应用。为解决这一问题,我们提出RASAT——一种基于关系感知自注意力机制增强的Transformer序列到序列架构,能够在有效继承T5模型预训练参数的同时,灵活利用多种关系结构。该模型可整合文献中几乎全部类型的关系,并进一步提出在多轮对话场景中引入共指关系(co-reference relations)以提升表现。在三个广泛使用的文本到SQL数据集上的实验结果表明,RASAT在所有三个基准测试中均取得了当前最优性能:在Spider数据集上达到75.5%的执行准确率(EX),在SParC数据集上达到52.6%的独立执行准确率(IEX),在CoSQL数据集上达到37.4%的IEX。

RASAT:将关系结构融入预训练Seq2Seq模型以实现文本到SQL的转换 | 最新论文 | HyperAI超神经