Command Palette

Search for a command to run...

2ヶ月前

ArcMemo:生涯的なLLMメモリを用いた抽象的推論の構成

Matthew Ho Chen Si Zhaoxiang Feng Fangxu Yu Zhijian Liu et al

ArcMemo:生涯的なLLMメモリを用いた抽象的推論の構成

要約

推論時スケーリングにより、大規模言語モデル(LLM)はより長く、より高度な推論プロセスを実行できるようになっているが、これらのプロセス中に得られたパターンや知見は、新しいクエリのためのコンテキストウィンドウがリセットされると直ちに失われてしまう。外部記憶は、こうした発見を永続化する自然な手段であり、最近の研究では、推論が高度に要求されるタスクにおいて明確な利点が示されている。本研究では、個別インスタンスに基づく記憶エントリ(例えば、正確なクエリ/応答ペア、または元の問題コンテキストに強く結合された要約など)にとどまらず、解法トレースから抽出・抽象化された概念レベルの記憶——すなわち、自然言語で表現され、再利用可能でモジュール化された抽象概念——へと進化させることで、こうした記憶の再利用性とスケーラビリティを大幅に高める機会を捉えた。将来のクエリに対しては、関連する概念を選択的に検索し、プロンプトに統合することで、重みの更新なしにテスト時継続学習を実現する。本設計は、ロールアウトから得られる教訓を抽象化する新たな戦略と、新しいクエリに対するエントリの検索戦略を導入し、記憶の再利用を促進するとともに、追加の経験に基づく記憶の拡張を可能にする。難易度の高いARC-AGIベンチマークにおいて、本手法は強力な「記憶なしベースライン」に対して7.5%の相対的な性能向上を達成し、推論時の計算リソースが増加するにつれて性能が継続的に向上する傾向を示した。また、抽象的な概念が最も一貫性のある記憶設計であることが判明し、すべての検証された推論計算量のスケールで、ベースラインを上回った。さらに、テスト時における記憶の動的更新が、追加の試行を伴う固定記憶設定よりも優れた性能を発揮することを確認した。これは、より多くの問題を解き、より多くのパターンを記憶に抽象化することで、自己改善の形でさらなる解決策が得られることを裏付けている。コードは以下のURLで公開されている。

AI で AI を構築

アイデアからローンチまで — 無料の AI 共同コーディング、すぐに使える環境、最適価格の GPU で AI 開発を加速。

AI 共同コーディング
すぐに使える GPU
最適価格
今すぐ始める

Hyper Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています
ArcMemo:生涯的なLLMメモリを用いた抽象的推論の構成 | 論文 | HyperAI超神経