17 天前

对齐指令任务可解锁大语言模型作为零样本关系抽取器的潜力

Kai Zhang, Bernal Jiménez Gutiérrez, Yu Su
对齐指令任务可解锁大语言模型作为零样本关系抽取器的潜力
摘要

近期研究表明,在大规模指令遵循数据集上对大型语言模型(LLMs)进行微调,可显著提升其在多种自然语言处理(NLP)任务上的表现,尤其是在零样本(zero-shot)设置下。然而,即便经过先进指令微调的LLMs,在关系抽取(Relation Extraction, RE)这一基础信息抽取任务上,仍难以超越小型语言模型(small LMs)的性能。我们推测,这一现象的原因在于指令微调数据集中关系抽取任务的出现频率极低,其占比不足所有任务的1%(Wang et al., 2022),导致模型难以从中习得强大的RE能力。为克服这一局限,本文提出QA4RE框架,该框架将关系抽取任务与指令微调数据集中占主导地位的问答(Question Answering, QA)任务对齐。在四个不同数据集上,针对两组指令微调LLMs(共六种模型)开展的全面零样本关系抽取实验表明,所提出的QA4RE框架能够持续提升LLM的性能,有力验证了我们的假设,并使LLM在零样本设置下显著优于现有强基线模型。此外,本文通过系统性的实验与深入分析,进一步验证了QA4RE框架在鲁棒性、少样本有效性以及强泛化能力方面的优势。本研究展示了一种有效适配大型语言模型应对具有挑战性且数据稀缺任务的新路径:通过将此类任务与指令微调中更为常见的任务(如QA)进行语义对齐,从而激发模型在低频任务上的潜在能力。