11 天前

面向完备性的大型语言模型工具检索

Changle Qu, Sunhao Dai, Xiaochi Wei, Hengyi Cai, Shuaiqiang Wang, Dawei Yin, Jun Xu, Ji-Rong Wen
面向完备性的大型语言模型工具检索
摘要

近年来,将外部工具与大型语言模型(LLMs)相结合已成为缓解其预训练数据固有局限性的有效策略,受到广泛关注。然而,在实际系统中,往往需要集成大量不同类型工具,由于输入长度限制和延迟约束,将所有工具信息全部输入LLM变得不切实际。因此,为充分发挥工具增强型LLM的潜力,开发一种高效的工具检索系统至关重要。现有工具检索方法主要依赖于用户查询与工具描述之间的语义匹配,常常导致检索出大量冗余或相似的工具,难以提供解决LLM面对复杂多面问题所需的多样化工具集合。针对这一问题,本文提出一种新型、模型无关的协同学习型工具检索方法——COLT(COllaborative Learning-based Tool Retrieval)。该方法不仅捕捉用户查询与工具描述之间的语义相似性,还充分考虑工具间的协同关系。具体而言,我们首先在语义学习阶段对基于预训练语言模型(PLM)的检索模型进行微调,以建模查询与工具之间的语义关联;随后,在查询、场景与工具之间构建三个二部图,并引入一种双视角图协同学习框架,以在协同学习阶段捕捉工具间复杂的协同作用关系。在公开基准数据集及新提出的ToolLens数据集上的大量实验表明,COLT显著优于现有方法。尤为突出的是,采用我们所提出模型框架的BERT-mini(11M参数)在性能上超越了参数量达其30倍的BERT-large(340M参数)。此外,我们将公开发布ToolLens数据集,以推动未来工具检索领域的研究发展。

面向完备性的大型语言模型工具检索 | 最新论文 | HyperAI超神经