MiniMax M2.7、NVIDIA プラットフォームで複雑 AI 向けエージェントワークフローを強化
MiniMax は、推論コストを削減しつつ 2300 億パラメータ級の能力を維持する効率重視のスパース混合専門家(MoE)モデル「MiniMax M2.7」を、NVIDIA を介してオープンウェイト形式で正式にリリースしました。このモデルは、推論、機械学習研究、ソフトウェアエンジニアリング、オフィスワークといった複雑な分野での使用を想定したエージェント基盤向けに設計されており、M2.5 の主要な後継版にあたります。M2.7 は 256 個の専門家から成り、トークン処理時に最大 8 個のみを活性化させるメカニズムを採用しており、実際の処理には 100 億パラメータ分しか消費しません。入力文脈長は 20 万トークンをサポートし、24 時間稼働型の自律エージェント構築を可能にする NVIDIA NemoClaw などのオープンソーススタックとも連携します。NVIDIA は、vLLM や SGLang といった推論フレームワークとの統合を最適化し、NVIDIA Blackwell Ultra GPU 環境において、過去 1 ヶ月でスループットが最大 2.7 倍に向上する成果を達成しました。開発者は、NVIDIA Brev クラウド上でワンクリックで M2.7 を実行できる環境を起動でき、ブラウザ上の無料エッジポイントでプロンプトテストも可能です。本番導入には、オンプレミス、クラウド、ハイブリッド環境に対応した容器化された推論マイクロサービス「NVIDIA NIM」が利用できます。また、NVIDIA NeMo フレームワークを用いて、M2.7 のファインチューニングや強化学習によるカスタマイズも行えます。同モデルの重みは Hugging Face で提供され、NVIDIA の開発者プラットフォームを通じてすぐに使い始めることが可能です。これにより、大規模な MoE アーキテクチャをより身近に活用し、高性能な AI アプリケーションの開発が加速することが期待されています。
