MemOS: AIシステム用のメモリOS

大規模言語モデル(LLMs)は、人工一般知能(AGI)にとって不可欠なインフラストラクチャとなっていますが、明確に定義されたメモリ管理システムの欠如により、長期コンテキスト推論、継続的なパーソナライゼーション、知識の一貫性の開発が阻害されています。既存のモデルは主に静的なパラメータと短命なコンテキスト状態に依存しており、これによりユーザーの好みを追跡したり、長期間にわたって知識を更新したりする能力が制限されています。検索強化生成(RAG)は外部知識を平文で導入しますが、ライフサイクル管理や永続的な表現との統合がないため、無状態の対処法に過ぎません。最近の研究では、メモリ階層の観点からLLMの学習と推論コストをモデル化し、パラメータメモリと外部検索の間に明示的なメモリ層を導入することでこれらのコストを大幅に削減できることが示されています。計算効率だけでなく、情報が時間とコンテキストによってどのように分布するかに関連する広範な課題も存在し、異なる時間スケールや情報源にわたる非均質な知識を管理できるシステムが必要です。この課題に対処するために、私たちはMemOSというメモリオペレーティングシステムを提案します。MemOSはメモリを管理可能なシステムリソースとして扱い、平文ベースの記憶、活性化に基づく記憶、およびパラメータレベルの記憶の表現、スケジューリング、進化を統一します。これによりコスト効率の高い保存と検索が可能になります。基本単位であるMemCubeは、出典やバージョンなどのメタデータとともに記憶内容をカプセル化します。MemCubeは時間とともに合成されたり移動されたり融合されたりできることで、記憶タイプ間での柔軟な遷移を可能にし、検索とパラメータベースの学習を橋渡します。MemOSはメモリ中心のシステムフレームワークを確立し、LLMに対して制御可能性、可塑性、進化性を持たらすことで継続的な学習と個人化モデリングの基盤となることを目指しています。