HyperAIHyperAI

Command Palette

Search for a command to run...

基于预训练的文本摘要自然语言生成

Haoyu Zhang Jianjun Xu Ji Wang

摘要

在本文中,我们提出了一种基于预训练的编码器-解码器框架,该框架可以分两个阶段根据输入序列生成输出序列。对于模型的编码器部分,我们使用BERT将输入序列编码为上下文表示。解码器部分则分为两个阶段:在第一阶段,我们使用基于Transformer的解码器生成一个草稿输出序列;在第二阶段,我们将草稿序列中的每个词进行掩码处理,并将其输入到BERT中,然后结合输入序列和由BERT生成的草稿表示,使用基于Transformer的解码器预测每个被掩码位置的精炼词汇。据我们所知,我们的方法是首次将BERT应用于文本生成任务的方法。作为这一方向上的初步尝试,我们在文本摘要任务上评估了所提出的方法。实验结果表明,我们的模型在CNN/Daily Mail和《纽约时报》数据集上均达到了新的最先进水平。


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供