Command Palette
Search for a command to run...
Wenhao Wang Peizhi Niu Zhao Xu Zhaoyu Chen Jian Du Yaxin Du Xianghe Pang Keduan Huang et al

要約
大規模言語モデル(LLM)は、複雑かつ現実的なタスクを実行するために外部ツールにますます依存するようになっているが、急速に拡大しているモデルコンテキストプロトコル(MCP)エコシステムを活用する能力には依然として限界がある。既存のMCP研究は、サーバーの数が限定的であり、高コストな手動によるデータ収集に依存しており、モデルの学習支援が不足しているため、実世界への展開に向けた進展が阻害されている。これらの課題を克服するため、本研究では、大規模なサーバー探索、データ合成、モデル学習を自動化するウェブエージェント駆動型パイプライン「MCP-Flow」を提案する。MCP-Flowは、1166台のサーバーおよび11536種類のツールからデータを収集・フィルタリングし、68,733件の高品質なインストラクション-関数呼び出しペアと6,439件のタスク経路を生成した。これは、従来の研究と比較して規模と多様性の面で著しく上回る成果である。広範な実験により、MCP-FlowがMCPツール選択、関数呼び出し生成、エージェントタスク性能の向上において優れた効果を発揮することを実証した。本研究の成果は、LLMエージェントが実世界のMCP環境においてより高度な実行能力を発揮するためのスケーラブルな基盤を提供するものである。