
摘要
自动可读性评估(Automatic Readability Assessment, ARA)是指对文本文档针对目标受众的易读或难读程度进行评价的任务。对于研究者而言,该领域众多未解难题之一是如何使针对该任务训练的模型在低资源语言上仍能表现出良好的性能。在本研究中,我们提出了一种结合方法,通过融合BERT模型所生成的信息丰富嵌入(information-rich embeddings)与人工设计的语言学特征,实现可读性评估。实验结果表明,该方法在英文和菲律宾语(Filipino)数据集上的可读性评估任务中均优于传统方法,F1分数最高提升了12.4%。此外,我们还证明了BERT嵌入中所蕴含的通用语言信息,可作为低资源语言(如菲律宾语)的替代特征集,尤其适用于那些缺乏充分语义与句法自然语言处理工具、难以显式提取特征值的语言场景。