2 个月前

扩大摘要生成:利用大型语言模型进行长文本抽取式摘要

Léo Hemamou; Mehdi Debiane
扩大摘要生成:利用大型语言模型进行长文本抽取式摘要
摘要

在数字文本以前所未有的速度激增的时代,高效的摘要工具变得不可或缺。尽管大型语言模型(LLMs)已在各种自然语言处理(NLP)任务中取得成功应用,但它们在抽取式文本摘要中的作用仍相对较少被探索。本文介绍了一种名为EYEGLAXS(Easy Yet Efficient larGe LAnguage model for eXtractive Summarization,即简单而高效的大型语言模型用于抽取式摘要)的框架,该框架利用了LLAMA2-7B和ChatGLM2-6B这两种特定的大型语言模型,对长篇文档进行抽取式摘要。与常出现事实错误和幻觉问题的抽象式方法不同,EYEGLAXS专注于抽取式摘要,以确保事实和语法的准确性。通过采用诸如Flash Attention和参数高效微调(PEFT)等最先进技术,EYEGLAXS解决了通常与大型语言模型相关的计算和资源挑战。该系统在PubMed和ArXiv等知名数据集上设立了新的性能基准。此外,我们还通过额外的分析扩展了研究范围,探讨了大型语言模型在处理不同序列长度以及在较小数据集上训练时的适应性和效率。这些贡献不仅为该领域树立了新的标准,还为未来的抽取式文本摘要研究开辟了有前景的方向。

扩大摘要生成:利用大型语言模型进行长文本抽取式摘要 | 最新论文 | HyperAI超神经