HyperAIHyperAI

Command Palette

Search for a command to run...

如何微调BERT进行文本分类?

Chi Sun; Xipeng Qiu; Yige Xu; Xuanjing Huang

摘要

语言模型预训练在学习通用语言表示方面已被证明是有效的。作为最先进的语言模型预训练模型之一,BERT(双向编码器表示从 Transformer )在许多语言理解任务中取得了令人瞩目的成果。本文通过大量实验研究了BERT在文本分类任务中的不同微调方法,并提供了一种通用的BERT微调解决方案。最终,所提出的解决方案在八个广泛研究的文本分类数据集上获得了新的最先进结果。


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供