Command Palette
Search for a command to run...

摘要
近期,基于大语言模型(LLM)的智能体在生成拟人化回复方面展现出了巨大潜力;然而,受限于上下文一致性和动态个性化能力的不足,它们在复杂环境中维持长期交互方面仍面临严峻挑战。现有的记忆系统通常依赖于检索前的语义分组,这种方式往往会忽略那些语义上看似不相关但对用户至关重要的信息,并引入检索噪声。在本报告中,我们提出了 O-Mem 的初步设计,这是一种基于主动用户画像(Active User Profiling)的新型记忆框架,能够从用户与智能体的主动交互中动态提取并更新用户特征及事件记录。O-Mem 支持对画像属性和话题相关上下文进行分层检索,从而实现更具适应性和连贯性的个性化回复。在公开基准测试 LoCoMo 中,O-Mem 取得了 51.67% 的成绩,比此前最先进的模型(SOTA)LangMem 提升了近 3%;在 PERSONAMEM 测试中,O-Mem 取得了 62.99% 的成绩,比此前的 SOTA 模型 A-Mem 提升了 3.5%。此外,与先前的记忆框架相比,O-Mem 在 Token 使用效率和交互响应时间方面也实现了优化。我们的工作为未来开发高效且拟人化的个性化 AI 助手开辟了充满前景的新方向。