摘要
预训练与微调范式已成为基于方面的情感分析(Aspect-Based Sentiment Analysis, ABSA)领域的主流框架。尽管该范式在具备充足细粒度方面-情感标注数据的领域中取得了良好的性能,但在人工标注稀缺的低资源领域中实现少样本(few-shot)ABSA仍面临挑战。本文认为,两种关键差距——领域差距(domain gap)与任务目标差距(objective gap)——阻碍了预训练语言模型(Pre-trained Language Models, PLMs)向ABSA任务的知识迁移。为解决这一问题,我们提出了一种简单而有效的框架FS-ABSA,该框架包含领域自适应预训练与文本填空式微调两个阶段。我们将端到端ABSA任务建模为一个文本填空问题,并采用填空目标进行领域自适应预训练,有效缩小上述两类差距,从而促进知识的高效迁移。实验结果表明,在少样本设置下,所提模型性能显著优于现有基线方法;在全监督设置下,其在多个数据集上均达到了新的最先进水平。此外,我们将该框架拓展至两种非英语低资源语言,进一步验证了其泛化能力与有效性。