HyperAIHyperAI

Command Palette

Search for a command to run...

小規模モデルで大問題を解く:NVIDIAが開発した「オーケストレーター」が効率と性能を両立

NVIDIA Researchは、大規模なAIタスクを効率的に解決するための新アプローチ「ToolOrchestra」を発表した。この方法の核は、専用の「オーケストレーター」と呼ばれる小規模なモデルを訓練し、他の大規模言語モデル(LLM)やツールを統合的に管理することだ。オーケストレーターは、ユーザーの要件(速さ、コスト、精度のどれを重視するか)を考慮し、タスクの段階ごとに適切なモデルやツールを選び、意思決定を最適化する。その特徴は、大規模モデルに従属する小規模モデルが、過剰な知識に縛られず、問題解決の本質を捉える点にある。 実際の検証では、80億パラメータの「Orchestrator-8B」が、GPT-5やClaude Opusなど大規模な前線モデルを上回る性能を発揮。人間の最後の試験(HLE)、FRAMES、τ2-Benchといった難解なベンチマークで、精度、コスト、処理時間の点で優位性を示した。特に、100ターン以内の会話制限下でも、他のモデルに比べて常に高い精度と低コストを維持した。 この成果の鍵は、多目的強化学習による訓練にある。オーケストレーターは、正解にたどり着くまでの「実験的経路」を生成し、その中で精度が高く、費用と時間も低い選択を明示的に報酬として学習する。これにより、単なるプロンプト設計に頼る従来のアプローチをはるかに上回る効率性が実現される。 訓練の手順はシンプル:小規模モデル(例:Qwen3-8B)を選び、わずか552件の合成データと1,296件のプロンプトで学習を開始。NVIDIAは、このプロセスのコードとデータ生成方法を公開しており、誰でも自前でオーケストレーターを構築可能。 このアプローチは、AIの今後の方向性を示す。単一の大規模モデルに頼る「モノリス型AI」から、小規模モデルが複数のツールやモデルを「指揮」する「複合型AIシステム」への移行が進んでいる。NVIDIAは、小規模モデルがスケーラブルで安全なAIエージェントの鍵であると位置づけ、今後もこの分野の研究を推進する。

関連リンク

小規模モデルで大問題を解く:NVIDIAが開発した「オーケストレーター」が効率と性能を両立 | 人気の記事 | HyperAI超神経