17 天前
一种面向少样本NER的任务特定预训练多任务语义分解框架
Guanting Dong, Zechen Wang, Jinxu Zhao, Gang Zhao, Daichi Guo, Dayuan Fu, Tingfeng Hui, Chen Zeng, Keqing He, Xuefeng Li, Liwen Wang, Xinyue Cui, Weiran Xu

摘要
少样本命名实体识别(Few-shot Named Entity Recognition, NER)的目标是在标注样本极为有限的情况下识别命名实体。以往的研究主要聚焦于优化传统的基于token的分类框架,而忽视了对NER数据自身特征信息的深入挖掘。为解决这一问题,本文提出一种基于联合任务特异性预训练的多任务语义分解框架(Multi-Task Semantic Decomposition Framework via Joint Task-specific Pre-training, MSDP),用于少样本NER任务。受基于示例学习(demonstration-based learning)与对比学习(contrastive learning)的启发,我们设计了两种新颖的预训练任务:基于示例的掩码语言建模(Demonstration-based Masked Language Modeling, MLM)与类别对比判别(Class Contrastive Discrimination)。这两种任务能够有效融入实体边界信息,并增强预训练语言模型(Pre-trained Language Models, PLMs)对实体的表征能力。在下游主任务中,我们引入一种结合语义分解方法的多任务联合优化框架,使模型能够融合两种不同层次的语义信息,从而提升实体分类性能。在两个少样本NER基准数据集上的实验结果表明,MSDP在各项指标上均显著优于现有强基线方法。大量消融实验与分析进一步验证了该框架的有效性与良好的泛化能力。