12日前
内在メモリエージェント:構造化された文脈メモリを用いた異種多エージェントLLMシステム
Sizhe Yuen, Francisco Gomez Medina, Ting Su, Yali Du, Adam J. Sobey

要約
大規模言語モデル(LLM)を基盤とするマルチエージェントシステムは、複雑な協調的問題解決において極めて高い可能性を示しているが、コンテキストウィンドウの制限に起因する記憶の一貫性、役割の遵守、手順の整合性の欠如といった根本的な課題に直面している。本論文では、エージェントの出力に内在的に対応して進化する構造化されたエージェント固有の記憶を用いることで、こうした制限を克服する新たな枠組み「イントリシックメモリエージェント(Intrinsic Memory Agents)」を提案する。具体的には、タスクに関連する情報に注目しつつ、専門的な視点を保持する役割整合型の記憶テンプレートを維持する手法を採用している。我々の手法はPDDLデータセット上で評価され、既存の最先端マルチエージェント記憶アプローチと比較して、38.6%の性能向上を達成し、最も高いトークン効率を示した。さらに、複雑なデータパイプライン設計タスクにおいても評価を実施した結果、スケーラビリティ、信頼性、使いやすさ、コスト効率、ドキュメント化の5つの指標において、より高品質な設計を生成することを実証した。加えて、質的証拠を通じてその改善効果を裏付けた。本研究の結果から、構造化された内在的アプローチにより記憶の制限を克服することで、構造化された計画タスクにおけるマルチエージェントLLMシステムの能力が著しく向上することが示唆された。