HyperAIHyperAI

Command Palette

Search for a command to run...

LMEB: معيار تضمين الذاكرة طويل الأفق

الملخص

تُعد تضمينات الذاكرة (Memory Embeddings) حاسمة في الأنظمة المعززة بالذاكرة، مثل OpenClaw، غير أن تقييمها لا يزال غير مستكشف بشكل كافٍ في معايير التضمين النصي الحالية، التي تركز ضيقًا على استرجاع المقاطع التقليدية وتفشل في تقييم قدرة النماذج على التعامل مع مهام استرجاع الذاكرة ذات الأفق الطويل، والتي تتضمن معلومات مجزأة، ومعتمدة على السياق، وممتدة زمنيًا. ولتذليل هذه الفجوة، نقدم معيار التقييم الشامل لتضمينات الذاكرة ذات الأفق الطويل (Long-horizon Memory Embedding Benchmark - LMEB)، وهو إطار عمل شامل يقيس قدرات نماذج التضمين في التعامل مع مهام استرجاع الذاكرة المعقدة ذات الأفق الطويل. يغطي LMEB 22 مجموعة بيانات و193 مهمة استرجاع دون تدريب مسبق (zero-shot) موزعة على أربعة أنواع من الذاكرة: الذاكرة العرضية (episodic)، والذاكرة الحوارية (dialogue)، والذاكرة الدلالية (semantic)، والذاكرة الإجرائية (procedural)، مع استخدام بيانات مولَّدة بواسطة الذكاء الاصطناعي وبيانات مُعلَّمة يدويًا من قبل البشر. وتختلف هذه الأنواع من الذاكرة من حيث مستوى التجريد والاعتماد الزمني، مما يُمكّن من التقاط أبعاد متمايزة لاسترجاع الذاكرة تعكس التحديات المتنوعة في العالم الواقعي. قمنا بتقييم 15 نموذج تضمين شائع الاستخدام، تتراوح أحجامها من مئات الملايين إلى عشرة مليارات معلمة. وتُظهر النتائج أن: (1) يوفر LMEB مستوى معقولًا من الصعوبة؛ (2) لا تؤدي النماذج الأكبر حجمًا دائمًا إلى أداء أفضل؛ (3) يتسم LMEB وMTEB بالتعامد (orthogonality). وهذا يشير إلى أن المجال لم يتوصل بعد إلى نموذج عالمي يتفوق في جميع مهام استرجاع الذاكرة، وأن الأداء في استرجاع المقاطع التقليدية قد لا يعمّم على استرجاع الذاكرة ذات الأفق الطويل. باختصار، من خلال توفير إطار تقييم موحد وقابل للتكرار، يملأ LMEB فجوة حرجة في تقييم تضمينات الذاكرة، مما يُحفّز التقدم الإضافي في مجال التضمين النصي لمعالجة استرجاع الذاكرة طويل الأمد والمعتمد على السياق. ويتوفر LMEB على الرابط: https://github.com/KaLM-Embedding/LMEB.

One-sentence Summary

Researchers from Harbin Institute of Technology and Shenzhen Loop Area Institute introduce LMEB, a comprehensive benchmark evaluating memory embeddings across diverse long-horizon retrieval tasks. Unlike traditional benchmarks, LMEB reveals that larger models do not always excel, highlighting a critical gap in current text embedding capabilities for complex, context-dependent memory scenarios.

Key Contributions

  • Current text embedding benchmarks fail to assess long-horizon memory retrieval involving fragmented, context-dependent, and temporally distant information, creating a gap in evaluating memory-augmented systems.
  • The authors introduce the Long-horizon Memory Embedding Benchmark (LMEB), a comprehensive framework spanning 22 datasets and 193 zero-shot tasks across episodic, dialogue, semantic, and procedural memory types.
  • Evaluation of 15 embedding models reveals that larger models do not consistently outperform smaller ones and that LMEB performance is orthogonal to traditional benchmarks like MTEB, indicating a lack of universal models for this domain.

Introduction

Text embedding models are critical for enabling efficient similarity search and powering downstream applications like retrieval and classification, yet current evaluation standards fall short in assessing their ability to handle long-horizon memory tasks. Existing benchmarks primarily focus on sentence-level similarity or standard retrieval across domains but rarely test scenarios requiring the synthesis of fragmented, context-dependent, and temporally distant evidence. To address this gap, the authors introduce LMEB, a specialized benchmark designed to evaluate how well embedding models support complex memory-centric retrieval that traditional metrics overlook.

Dataset

LMEB Dataset Overview

The authors introduce the Long-horizon Memory Embedding Benchmark (LMEB), a comprehensive framework designed to evaluate embedding models on complex, long-term memory retrieval tasks that traditional benchmarks like MTEB fail to address.

  • Dataset Composition and Sources

    • The benchmark consolidates 22 English datasets into a unified schema, covering 193 zero-shot retrieval tasks.
    • Data sources include a mix of AI-generated content and human-annotated material derived from crowdsourcing, academic papers, novels, and real-world logs.
    • The datasets are categorized into four distinct memory types: Episodic, Dialogue, Semantic, and Procedural.
  • Key Details by Subset

    • Episodic Memory: Focuses on recalling past events with temporal and spatial cues using datasets like EPBench (synthetic events) and KnowMeBench (autobiographical narratives).
    • Dialogue Memory: Targets multi-turn context retention and user preferences using long-form conversations from LoCoMo, LongMemEval, REALTALK, and TMD.
    • Semantic Memory: Assesses retrieval of stable, general knowledge from scientific papers (QASPER, SciFact), novels (NovelQA), and reports (ESG-Reports).
    • Procedural Memory: Evaluates the retrieval of skills and action sequences using API documentation (Gorilla, ToolBench) and task trajectories (ReMe, DeepPlanning).
  • Usage in Model Evaluation

    • The authors utilize the entire collection for zero-shot evaluation, meaning models are tested on their pre-trained capabilities without task-specific fine-tuning.
    • The benchmark serves as a diagnostic tool to measure performance across varying levels of abstraction and temporal dependency.
    • Results indicate that LMEB and MTEB are orthogonal, suggesting that high performance in traditional passage retrieval does not guarantee success in long-horizon memory tasks.
  • Processing and Construction Details

    • Unified Schema: All resources are converted into a standard Information Retrieval format containing queries.jsonl, corpus.jsonl, qrels.csv, and an optional candidates.jsonl.
    • Temporal Anchoring: For queries with relative time expressions, the authors append explicit time anchors (e.g., "Current time: 11:17 AM on Sunday") to disambiguate references.
    • Metadata Encoding: Timestamps and hierarchical structures (such as session or turn levels in dialogues) are preserved in the title or text fields to support time-sensitive and scope-specific queries.
    • Text Segmentation: Long documents in semantic tasks, such as novels and research papers, are segmented into passages or sentences using tools like semchunk with a chunk size of 256 tokens.
    • Candidate Constraints: An optional candidates file restricts retrieval to specific memory scopes, such as a single conversation history, rather than the full corpus.

Method

The authors introduce the Long-horizon Memory Embedding Benchmark (LMEB) to systematically evaluate memory capabilities across diverse scenarios. The framework categorizes tasks into four distinct memory types: Episodic, Dialogue, Semantic, and Procedural. Each type involves a query retrieving relevant information from a specific memory store.

To structure these evaluations, the authors define a taxonomy based on abstraction and temporal dependency. As shown in the figure below, Episodic and Dialogue memories exhibit strong temporal dependencies, while Semantic and Procedural memories vary in abstraction levels.

To ensure embeddings follow instructions during downstream tasks, the authors prepend specific task instructions to the queries. The instructed query is formulated as follows:

qinst=Instruct: {task instruction} \nQuery: qq_{\text{inst}} = \text{Instruct: \{task instruction\} \n Query: } qqinst=Instruct: {task instruction} \nQuery: q

where qqq denotes the original query and qinstq_{\text{inst}}qinst is the instructed query. This mechanism allows the model to adapt its retrieval and processing based on the specific requirements of the task.

Experiment

  • The LMEB benchmark evaluation validates a unified pipeline for testing embedding models across episodic, dialogue, semantic, and procedural memory tasks, demonstrating that the benchmark offers a balanced difficulty level that effectively challenges current models.
  • Experiments comparing models of varying scales reveal that larger parameter counts do not guarantee superior performance, as smaller models often achieve comparable or better results depending on architecture and training data.
  • Analysis of task instructions shows that their impact on retrieval performance is model-dependent, with some models benefiting from instructions while others perform better without them or remain unaffected.
  • Correlation studies confirm that LMEB evaluates capabilities orthogonal to traditional benchmarks like MTEB, particularly showing that strong performance in standard passage retrieval does not generalize well to complex episodic or dialogue memory scenarios.

بناء الذكاء الاصطناعي بالذكاء الاصطناعي

من الفكرة إلى الإطلاق — سرّع تطوير الذكاء الاصطناعي الخاص بك مع المساعدة البرمجية المجانية بالذكاء الاصطناعي، وبيئة جاهزة للاستخدام، وأفضل أسعار لوحدات معالجة الرسومات.

البرمجة التعاونية باستخدام الذكاء الاصطناعي
وحدات GPU جاهزة للعمل
أفضل الأسعار

HyperAI Newsletters

اشترك في آخر تحديثاتنا
سنرسل لك أحدث التحديثات الأسبوعية إلى بريدك الإلكتروني في الساعة التاسعة من صباح كل يوم اثنين
مدعوم بواسطة MailChimp