当大规模语言模型代理在测试时遇到个性化需求:PersonaAgent
Weizhi Zhang, Xinyang Zhang, Chenwei Zhang, Liangwei Yang, Jingbo Shang, Zhepei Wei, Henry Peng Zou, Zijie Huang, Zhengyang Wang, Yifan Gao,Xiaoman Pan, Lian Xiong, Jingguo Liu, Philip S. Yu, Xian Li
发布日期: 6/10/2025

摘要
大型语言模型(LLM)赋能的智能体最近作为先进的范式出现,展现出在广泛领域和任务中的卓越能力。尽管具有巨大潜力,当前的LLM智能体通常采用一刀切的方法,缺乏应对用户多样化需求和偏好的灵活性。这一局限性促使我们开发了PersonaAgent,这是首个旨在解决多方面个性化任务的个性化LLM智能体框架。具体而言,PersonaAgent集成了两个互补组件——一个包含情节记忆和语义记忆机制的个性化记忆模块;一个使智能体能够执行针对用户定制工具操作的个性化行动模块。核心部分是个性(定义为每个用户的独特系统提示),其作用是中介:它利用个性化记忆中的见解来控制智能体的行为,而这些行为的结果又反过来优化记忆。基于该框架,我们提出了一种测试时用户偏好对齐策略,通过模拟最新的n次交互来优化个性提示,确保通过模拟响应与真实响应之间的文本损失反馈实现实时用户偏好对齐。实验评估表明,PersonaAgent不仅有效地个性化了行动空间,而且在测试时的实际应用中表现出良好的扩展性,显著优于其他基线方法。这些结果强调了我们的方法在提供定制化、动态用户体验方面的可行性和潜力。