Command Palette
Search for a command to run...

要約
本稿では、長期にわたる深層的な情報探索タスクに特化したエージェント型大規模言語モデル「Tongyi DeepResearch」を紹介する。自律的な深層研究エージェンシーを促進するため、Tongyi DeepResearchは、エージェント型の中間訓練(agentic mid-training)とエージェント型の後期訓練(agentic post-training)を統合したエンドツーエンドの訓練フレームワークにより開発されており、複雑なタスクにおいてスケーラブルな推論と情報探索を実現している。また、高スケーラビリティを備えた完全自動化のデータ合成パイプラインを設計しており、高コストな人的ラベル付けに依存せず、すべての訓練段階を支援している。各段階にカスタマイズされた環境を構築することで、システム全体にわたって安定かつ一貫した相互作用を実現している。Tongyi DeepResearchは、合計305億パラメータを有し、1トークンあたり33億パラメータのみをアクティベートする構成であり、Humanity's Last Exam、BrowseComp、BrowseComp-ZH、WebWalkerQA、xbench-DeepSearch、FRAMES、xbench-DeepSearch-2510など、多様なエージェント型深層研究ベンチマークにおいて最先端の性能を達成している。本研究では、モデル、フレームワーク、および包括的なソリューションをオープンソース化し、研究コミュニティの発展を支援する。