2 个月前

ConveRT:基于Transformer的高效准确的对话表示方法

Matthew Henderson; Iñigo Casanueva; Nikola Mrkšić; Pei-Hao Su; Tsung-Hsien Wen; Ivan Vulić
ConveRT:基于Transformer的高效准确的对话表示方法
摘要

通用预训练句子编码器(如BERT)并不适合实际的对话式人工智能应用;它们计算量大、速度慢且训练成本高昂。我们提出了一种名为ConveRT(基于Transformer的对话表示)的预训练框架,该框架满足以下所有要求:高效、经济且快速训练。我们使用基于检索的响应选择任务进行预训练,通过在双编码器中有效利用量化和子词级别的参数化,构建了一个轻量级且节能高效的模型。实验结果表明,ConveRT在广泛认可的响应选择任务中达到了最先进的性能。此外,我们还证明了将扩展的对话历史作为上下文可以进一步提高性能。最后,我们展示了所提出的编码器的预训练表示可以迁移到意图分类任务中,在三个不同的数据集上均取得了优异的结果。ConveRT的训练速度显著快于标准句子编码器或之前的最先进双编码器。凭借其较小的规模和卓越的性能,我们认为该模型为对话式人工智能应用提供了更广泛的可移植性和可扩展性。