サカナAIのTreeQuest:複数のLLMを組み合わせて30%以上の性能向上を実現
7月3日、日本のAI研究機関Sakana AIが、複数の大規模言語モデル(LLM)を単一のタスクに向け協調させ、個々のモデルでは解決できない複雑な問題を処理できる「夢のチーム」の生成手法を開発したと発表した。この技術はMulti-LLM AB-MCTSと呼ばれ、個々のモデルの試行錯誤を戦略的に組み合わせ、その固有の強みを結集して高い成果を上げる。 各モデルは独自の訓練データとアーキテクチャにより異なる特徴を持つ。Sakana AIの研究者らは、これらの違いを限界ではなく、「集団知能」を作るための貴重なリソースと捉えている。「モデル間で知識を共有することで、AIシステムは個々のモデルでは解決不可能な問題にも取り組める」と彼らは主張する。 新しいアルゴリズムである適応分岐マルコフ木探索法(Adaptive Branching Monte Carlo Tree Search, AB-MCTS)は、より詳しく(deeper)探求するか、新たな解を生成するか(wider)を選択することで、モデルの性能を最大化する。このアルゴリズムはモンテカルロ木探索法(MCTS)を基盤としており、事前知識なしで新たな視覚的推論問題を解くために設計されたARC(Abstraction and Reasoning Corpus)のベンチマークテストで実証されている。 Sakana AIの研究チームは、o4-mini、Gemini 2.5 Pro、DeepSeek-R1などの最先端モデルを用いてテストを行った。結果、複合モデルチームは120問中30%以上を正しく解き、個々のモデルよりも大幅に高い性能を示した。特に、一部の問題では、個々のモデルでは不可能だった解答が、複数のモデルによって補完され、正しい結果を得られることが確認された。 また、仮想化(hallucination)が大きな課題となるビジネス環境では、誤った解答を修正する能力が強化される。これにより、高度な論理能力と堅牢性の兼ね備えたAIシステムの開発が可能になる。 Sakana AIは、AB-MCTSのオープンソース版であるTreeQuestをリリースした。TreeQuestはApache 2.0ライセンスで提供され、商用利用が可能だ。同フレームワークは柔軟性に富んだAPIを提供し、ユーザーは独自のタスクや評価ロジックでMulti-LLM AB-MCTSを実装できる。複雑なアルゴリズミックコーディングや既存のソフトウェアのパフォーマンス最適化など、幅広い実務問題への適用が期待されている。 Sakana AIの研究科學者たちは、この技術が企業向けAIアプリケーションの開発に新たな道を切り開くと確信している。TreeQuestの公開は、より強力で信頼性の高いAIシステムの実現に向けて、業界全体での活用促進につながる可能性がある。 Sakana AIは2020年に設立された新興企業で、自然言語処理と機械学習の研究に注力しており、此次の技術革新はその手腕を証明するものとなった。