Command Palette
Search for a command to run...
大規模言語モデルのためのコンテキスト工学の調査
大規模言語モデルのためのコンテキスト工学の調査
概要
大規模言語モデル(LLM)の性能は、推論時に提供されるコンテキスト情報によって根本的に決定されます。本調査では、単純なプロンプト設計を超越し、LLM向けの情報ペイロードの体系的な最適化を包括する正式な学問分野であるコンテキストエンジニアリングを紹介します。私たちは、コンテキストエンジニアリングをその基礎的構成要素とそれらが知能システムに統合される洗練された実装に分解した包括的な分類体系を提示します。まず、基礎的構成要素について検討します:コンテキストの取得と生成、コンテキスト処理、およびコンテキスト管理です。次に、これらの構成要素がどのようにアーキテクチャ的に統合され、洗練されたシステム実装が作られるかを探ります:リトリーバル拡張生成(RAG)、メモリーシステムとツール統合推論、およびマルチエージェントシステムです。この1300件以上の研究論文に対する体系的な分析を通じて、本調査は技術的なロードマップを確立するだけでなく、重要な研究ギャップも明らかにしました:モデル能力間には根本的な非対称性が存在します。現在のモデルは先進的なコンテキストエンジニアリングによって複雑なコンテキストを理解する上で著しい能力を示していますが、同等に洗練された長文出力の生成において明確な制限を持っています。このギャップに対処することは将来の研究における重要な優先事項となります。最終的には、本調査は研究者とエンジニア双方にとって文脈認識AIの発展に寄与する統一されたフレームワークを提供します。