8 天前

TeamUNCC@LT-EDI-EACL2021:基于Transformer的迁移学习在希望言论检测中的应用

{Samira Shaikh, Erfan Al-Hossami, Khyati Mahajan}
TeamUNCC@LT-EDI-EACL2021:基于Transformer的迁移学习在希望言论检测中的应用
摘要

本文介绍了我们针对希望言论(hope speech)检测任务,利用预训练模型所采用的方法。我们参加了在EACL2021会议上举办的LT-EDI-2021赛事中的任务2:促进平等、多元与包容的希望言论检测。该任务的目标是判断文本中是否存在希望言论,同时识别出不属于同一语言类别的样本。我们详细阐述了在英文场景下对RoBERTa模型进行微调以实现希望言论检测的方法,以及在泰米尔语和马拉雅拉姆语这两种低资源印地语系语言中,对XLM-RoBERTa模型进行微调的策略。实验结果表明,我们的方法在将文本分类为“希望言论”、“非希望言论”以及“非目标语言”三类任务中具有优异表现。在英文赛道中,我们的方法取得了F1分数0.93的优异成绩,排名第一;在泰米尔语赛道中,F1分数为0.61,同样排名第一;在马拉雅拉姆语赛道中,F1分数为0.83,位列第三。

TeamUNCC@LT-EDI-EACL2021:基于Transformer的迁移学习在希望言论检测中的应用 | 最新论文 | HyperAI超神经