摘要
众所周知,良好的分类结果在很大程度上依赖于文本表示技术。在开展任何文本分析任务之前,文本表示都是必不可少的步骤,因为它构建了基础基准,即便是先进的机器学习模型也难以弥补其不足。本文旨在对多种文本表示模型进行全面分析,并对其进行定量评估,以实现主观性分析(Subjectivity Analysis)。我们在康奈尔主观性数据集(Cornell Subjectivity Dataset)上实现了多种不同的模型。值得注意的是,BERT语言模型的表现显著优于其他所有模型,但其计算开销也远高于其他方法。通过微调BERT语言模型,我们在主观性分析任务上取得了当前最先进的性能。这一成果为后续研究开辟了诸多新方向,未来或可催生一种受BERT启发、专门针对主观性分析任务优化的专用模型。