「世界初のオープンウェイト大規模ハイブリッドアテンションモデル MiniMax-M1:長文処理と複雑なタスクに優れた性能」
MiniMax-M1: 世界初のハイブリッドアテンション大規模モデル 概要 GitHubで公開されているMiniMax-M1は、世界初の公開可能な重みを持つ大規模ハイブリッドアテンション推論モデルです。このモデルは混合専門家(MoE)アーキテクチャと高速アテンションメカニズムを組み合わせて構築されており、4560億つのパラメーターを持つ前身モデルであるMiniMax-Text-01に基づいています。 MiniMax-M1は、1トークンあたり45.9億のパラメーターを活性化します。 コンテクストの長さは100万トークンで、これはDeepSeek R1の8倍です。また、高速アテンションメカニズムにより、生成長10万トークンでのFLOPsが25%削減されます。これらにより、MiniMax-M1は複雑なタスク、特に長文処理と詳細な思考が必要なタスクに適しています。 評価 MiniMax-M1は、競技レベルの数学問題からソフトウェア開発まで、各種ベンチマークで他の強力な公開重みモデルよりも優れた性能を示しています。以下に主なカテゴリとタスクでの比較結果を示します。 数学 AIME 2024: MiniMax-M1-80K - 86.0%, Qwen3-235B-A22B - 85.7%, DeepSeek-R1 - 91.4% AIME 2025: MiniMax-M1-80K - 76.9%, Qwen3-235B-A22B - 81.5%, DeepSeek-R1 - 87.5% MATH-500: MiniMax-M1-80K - 96.8%, Qwen3-235B-A22B - 96.2%, DeepSeek-R1 - 98.0% ジェネラルコーディング LiveCodeBench: MiniMax-M1-80K - 65.0%, Qwen3-235B-A22B - 65.9%, DeepSeek-R1-0528 - 73.1% FullStackBench: MiniMax-M1-80K - 68.3%, Qwen3-235B-A22B - 62.9%, DeepSeek-R1-0528 - 69.4% 推論と知識 GPQA Diamond: MiniMax-M1-80K - 70.0%, Qwen3-235B-A22B - 71.1%, DeepSeek-R1-0528 - 81.0% HLE (ツールなし): MiniMax-M1-80K - 8.4, Qwen3-235B-A22B - 7.6, DeepSeek-R1-0528 - 17.7* ZebraLogic: MiniMax-M1-80K - 86.8%, Qwen3-235B-A22B - 80.3%, DeepSeek-R1-0528 - 95.1% ソフトウェアエンジニアリング SWE-bench Verified: MiniMax-M1-80K - 56.0%, Qwen3-235B-A22B - 34.4%, DeepSeek-R1-0528 - 57.6% SWE-benchはAgentless方法で評価され、最初に粗いファイルローカライゼーション、次に細かいファイルとコード要素の特定が行われます。 長文理解 OpenAI-MRCR (128k): MiniMax-M1-80K - 73.4%, Qwen3-235B-A22B - 27.7%, DeepSeek-R1-0528 - 51.5% OpenAI-MRCR (1M): MiniMax-M1-80K - 56.2% LongBench-v2: MiniMax-M1-80K - 61.5%, Qwen3-235B-A22B - 50.1%, DeepSeek-R1-0528 - 52.1% エージェンティックツール利用 TAU-bench (航空会社): MiniMax-M1-80K - 62.0%, Qwen3-235B-A22B - 34.7%, DeepSeek-R1-0528 - 53.5% TAU-bench (小売業): MiniMax-M1-80K - 63.5%, Qwen3-235B-A22B - 58.6%, DeepSeek-R1-0528 - 63.9% 実際性 SimpleQA: MiniMax-M1-80K - 18.5%, Qwen3-235B-A22B - 11.0%, DeepSeek-R1-0528 - 27.8% ジェネラルアシスタント MultiChallenge: MiniMax-M1-80K - 44.7%, Qwen3-235B-A22B - 40.0%, DeepSeek-R1-0528 - 45.0% 導入ガイド MiniMax-M1はHuggingFaceリポジトリからダウンロードできます。プロダクション環境での導入には、vLLMを使用することが推奨されます。大規模言語モデルのサービス提供に優れ、具体的な手順はvLLM導入ガイドで確認できます。 Alternatively, you can also deploy using Transformers directly. For detailed Transformers deployment instructions, see the MiniMax-M1 Transformers Deployment Guide. 機能呼び出し MiniMax-M1は、外部関数の呼び出しが必要な状況を識別し、そのパラメーターを構造化された形式で出力する機能呼び出し機能をサポートしています。詳細は、MiniMax-M1 Function Call Guideをご覧ください。 チャットボットとAPI 一般的な用途や評価のために、オンライン検索機能付きのチャットボットと開発者が使用できるAPIを提供しています。さらに、デベロッパー向けに画像生成、音声合成、ビデオ生成、音声克隆などの機能を備えたMiniMax MCP Serverも用意されています。 お問い合わせ ご質問やご意見は、model@minimax.ioまでお気軽にお問い合わせください。