
Abstract
Hier ist die Übersetzung des Textes ins Deutsche, unter Berücksichtigung der fachsprachlichen Anforderungen für Technologie und Wissenschaft:Jüngste Fortschritte bei LLM-gestützten Agenten haben ein signifikantes Potenzial zur Generierung menschenähnlicher Antworten aufgezeigt; sie stehen jedoch weiterhin vor Herausforderungen bei der Aufrechterhaltung langfristiger Interaktionen in komplexen Umgebungen, was primär auf Einschränkungen bei der kontextuellen Konsistenz und der dynamischen Personalisierung zurückzuführen ist. Bestehende Speichersysteme sind vor dem Abruf häufig auf semantische Gruppierungen angewiesen, was dazu führen kann, dass semantisch irrelevante, aber dennoch kritische Nutzerinformationen übersehen werden und ein sogenanntes Abruf-Rauschen (Retrieval Noise) entsteht. In diesem Bericht stellen wir das initiale Design von O-Mem vor, einem neuartigen Speicher-Framework auf Basis aktiver Nutzerprofilierung, das dynamisch Nutzermerkmale und Ereignisprotokolle aus proaktiven Interaktionen mit Agenten extrahiert und aktualisiert. O-Mem unterstützt den hierarchischen Abruf von Persona-Attributen und themenbezogenem Kontext, was adaptivere und kohärentere personalisierte Antworten ermöglicht. O-Mem erreicht 51,67 % auf dem öffentlichen LoCoMo-Benchmark, was einer Verbesserung von fast 3 % gegenüber LangMem, dem bisherigen Stand der Technik (State-of-the-Art), entspricht; zudem erzielt es 62,99 % auf PERSONAMEM, eine Verbesserung von 3,5 % gegenüber A-Mem, dem vorangegangenen Spitzenmodell. Darüber hinaus steigert O-Mem die Effizienz hinsichtlich Token-Verbrauch und Interaktionsreaktionszeit im Vergleich zu früheren Speicher-Frameworks. Unsere Arbeit eröffnet vielversprechende Perspektiven für die zukünftige Entwicklung effizienter und menschenähnlicher personalisierter KI-Assistenten.
KI mit KI entwickeln
Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.