HyperAIHyperAI

Command Palette

Search for a command to run...

ViT5:用于越南语生成的预训练文本到文本Transformer模型

Long Phan Hieu Tran Hieu Nguyen Trieu H. Trinh

摘要

我们介绍了ViT5,这是一种基于Transformer的越南语预训练编码器-解码器模型。通过类似于T5的自监督预训练方法,ViT5在大量高质量且多样化的越南语文本语料库上进行了训练。我们在两个下游文本生成任务上对ViT5进行了基准测试:抽象文本摘要(Abstractive Text Summarization)和命名实体识别(Named Entity Recognition)。尽管由于丰富的数据资源,英语的抽象文本摘要已经得到了广泛研究,但针对越南语这一资源较少的语言,该任务的研究却相对匮乏。在这项工作中,我们对越南语的抽象文本摘要和命名实体识别进行了详尽的实验,验证了ViT5与其他多种基于Transformer的预训练编码器-解码器模型相比的性能。实验结果表明,ViT5在越南语文本摘要任务中显著优于现有模型,并达到了当前最佳水平。在命名实体识别任务中,ViT5的表现与之前基于预训练编码器的Transformer模型的最佳结果相当。进一步分析显示,在不同设置下,自监督预训练过程中上下文长度的重要性对下游任务性能的影响。


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供