Command Palette
Search for a command to run...
Soyeong Jeong Aparna Elangovan Emine Yilmaz Oleg Rokhlenko

摘要
大型语言模型(LLMs)在对话系统中展现出卓越的性能,能够生成类人化的回应。然而,在需要考虑个性化信息或特定知识时,这些模型往往表现不足。在实际应用场景中,要求用户自行识别错误并请求重新生成回应是不切实际的。一种有效的解决方法是在将回应返回用户之前对其进行优化。尽管现有方法主要聚焦于单一LLM内部的响应优化,但该方法难以全面兼顾有效对话所需的多样化要素。在本研究中,我们提出一种基于多智能体框架的响应优化方法,其中每个智能体被赋予特定角色,负责处理对话质量的某一关键方面。我们重点关注三个对对话质量至关重要的维度:事实准确性、个性化程度与连贯性。每个智能体负责审查并优化其中一个维度,其反馈随后被融合,以提升整体回应质量。为增强智能体之间的协作效率,我们引入了一种动态通信机制:不同于固定顺序的智能体协作流程,我们的方法会根据具体查询需求,自适应地选择并协调最相关的智能体。我们在具有挑战性的对话数据集上对所提框架进行了验证,结果表明,该方法显著优于现有基线模型,尤其在涉及知识增强或用户个人身份(persona)信息,或两者兼有的任务中表现突出。