Command Palette
Search for a command to run...

要約
大規模言語モデルは強力な汎用モデルである一方で、人類最後の試験(HLE)のような深く複雑な問題を解くことは、概念的にも計算的にも依然として大きな課題である。本研究では、他のモデルおよび多様なツールを管理する小型のオーケストレーターが、知能の上限を押し上げるとともに、困難なエージェントタスクの解決効率を向上させることを示す。我々は、知能的なツールを統合的に制御する小型オーケストレーターを訓練するための手法「ToolOrchestra」を提案する。ToolOrchestraは、結果の質、効率性、ユーザーの好みを考慮した報酬に基づく強化学習を明示的に用いる。この手法により、80億パラメータ規模の「Orchestrator」と呼ばれるモデルを構築した。Orchestratorは、従来のツール利用エージェントよりも低いコストでより高い精度を達成するとともに、ユーザーが特定のクエリに対してどのツールを使用すべきかを反映した好みに適合している。HLEにおいては、Orchestratorは37.1%のスコアを達成し、GPT-5(35.1%)を上回りながらも、2.5倍の効率性を発揮した。tau2-BenchおよびFRAMESでは、GPT-5を大幅に上回りながら、コストは約30%に抑えることができた。包括的な分析から、Orchestratorは複数の評価指標において、性能とコストの最適なトレードオフを達成しており、未見のツールに対しても堅牢な汎化能力を有していることが明らかになった。これらの結果は、軽量なオーケストレーションモデルを用いて多様なツールを組み合わせることで、従来の手法よりも効率的かつ効果的であることを示しており、実用的かつスケーラブルなツール拡張型推論システムの実現に向けた道筋を示している。