HyperAIHyperAI
vor 12 Tagen

Intrinsische Gedächtnis-Agenten: Heterogene Multi-Agenten-LLM-Systeme durch strukturiertes kontextuelles Gedächtnis

Sizhe Yuen, Francisco Gomez Medina, Ting Su, Yali Du, Adam J. Sobey
Intrinsische Gedächtnis-Agenten: Heterogene Multi-Agenten-LLM-Systeme durch strukturiertes kontextuelles Gedächtnis
Abstract

Mehragentensysteme, die auf großen Sprachmodellen (Large Language Models, LLMs) basieren, zeigen großes Potenzial für komplexe kooperative Problemlösungsaufgaben. Dennoch stehen sie vor grundlegenden Herausforderungen, die sich aus den Beschränkungen der Kontextfenster ergeben und die Gedächtniskonsistenz, die Rollekonformität sowie die Prozessintegrität beeinträchtigen. In diesem Artikel stellen wir Intrinsic Memory Agents vor, einen neuartigen Ansatz, der diese Einschränkungen durch strukturierte, agentenspezifische Gedächtnisse überwindet, die sich intrinsisch an die Ausgaben der Agenten anpassen. Insbesondere bewahren unsere Methode rollenorientierte Gedächtnisvorlagen, die spezialisierte Perspektiven erhalten, während gleichzeitig der Fokus auf aufgabenrelevante Informationen gerichtet bleibt. Wir evaluieren unseren Ansatz am PDDL-Datensatz und vergleichen seine Leistung mit bestehenden state-of-the-art-Methoden für mehragentenbasierte Gedächtnissysteme. Dabei erreichen wir eine Verbesserung um 38,6 % bei höchster Token-Effizienz. Zusätzlich führen wir eine Bewertung auf einer komplexen Aufgabe zur Datenpipeline-Designs durch und zeigen, dass unser Ansatz bei fünf Metriken – Skalierbarkeit, Zuverlässigkeit, Benutzerfreundlichkeit, Kosten-Effektivität und Dokumentation – qualitativ bessere Ergebnisse liefert, unterstützt durch zusätzliche qualitative Belege für die Verbesserungen. Unsere Ergebnisse deuten darauf hin, dass die Überwindung von Gedächtnisbeschränkungen durch strukturierte, intrinsische Ansätze die Fähigkeiten mehragentenbasierter LLM-Systeme bei strukturierten Planungsaufgaben erheblich verbessern kann.