Command Palette
Search for a command to run...

초록
다음은 요청하신 영문 텍스트의 햔국어 번역본입니다.최근 대규모 언어 모델(LLM) 기반 에이전트의 발전은 인간과 유사한 응답을 생성하는 데 있어 상당한 잠재력을 입증했습니다. 그러나 문맥적 일관성(contextual consistency) 및 동적 개인화(dynamic personalization)의 한계로 인해, 복잡한 환경 내에서 장기적인 상호작용을 유지하는 데에는 여전히 난관에 직면해 있습니다. 기존 메모리 시스템은 검색(retrieval) 이전에 의미론적 그룹화(semantic grouping)에 의존하는 경우가 빈번하며, 이는 의미론적으로는 관련성이 낮으나 실제로는 중요한 사용자 정보를 간과하거나 검색 노이즈(retrieval noise)를 유발할 수 있습니다.본 보고서에서는 능동적 사용자 프로파일링(active user profiling)에 기반한 새로운 메모리 프레임워크인 'O-Mem'의 초기 설계를 제안합니다. O-Mem은 사용자와 에이전트 간의 주도적인 상호작용(proactive interactions)으로부터 사용자 특성과 이벤트 기록을 동적으로 추출 및 업데이트합니다. 또한 O-Mem은 페르소나 속성(persona attributes)과 주제 관련 문맥의 계층적 검색을 지원하여, 보다 적응적이고 일관성 있는 개인화된 응답을 가능하게 합니다.O-Mem은 공신력 있는 LoCoMo 벤치마크에서 51.67%의 성능을 달성하여 기존 최고 성능(SOTA) 모델인 LangMem 대비 약 3%의 향상을 보였으며, PERSONAMEM 벤치마크에서는 62.99%를 기록하여 이전 SOTA 모델인 A-Mem 대비 3.5%의 성능 향상을 달성했습니다. 아울러 O-Mem은 기존 메모리 프레임워크와 비교하여 토큰 및 상호작용 응답 시간의 효율성 또한 개선했습니다. 본 연구는 향후 효율적이고 인간과 유사한 개인화 AI 어시스턴트를 개발하는 데 있어 유망한 방향성을 제시합니다.