HyperAIHyperAI

Command Palette

Search for a command to run...

基于检索的再思考:忠实的大规模语言模型推理

Hangfeng He Hongming Zhang Dan Roth

摘要

尽管大型语言模型(LLMs)在各类自然语言处理(NLP)任务中取得了显著成功,但其内部存储的知识仍不可避免地存在不完整、过时或错误等问题。这一局限性促使人们探索利用外部知识来增强LLMs的能力。然而,当前融合外部知识的方法通常需要额外的训练或微调,这不仅成本高昂,而且对于大型语言模型而言可能难以实施。为解决这一问题,我们提出了一种新颖的后处理方法——检索重思(Rethinking with Retrieval, RR),该方法基于思维链(Chain-of-Thought, CoT)提示所生成的分解推理步骤,检索相关的外部知识。该方法具有轻量化特性,无需额外训练或微调,且不受LLM输入长度的限制。我们在GPT-3上针对三项复杂推理任务——常识推理、时间推理和表格推理,开展了大量实验以评估RR的有效性。实验结果表明,RR能够生成更忠实的推理解释,并显著提升LLMs的性能。


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供