HyperAI超神経
Back to Headlines

Chinese AI Startup MiniMax Unveils Open Source MiniMax-M1: 1 Million Token Context and Hyper-Efficient Reinforcement Learning This headline is simple and clear, highlighting the key points of the news: the release of a new open-source model by MiniMax, its 1 million token context window, and its highly efficient reinforcement learning. It is catchy and informative, especially appealing to tech enthusiasts and professionals interested in the latest advancements in AI. The title accurately reflects the core information of the article without exaggeration or misleading elements.

2日前

MiniMax-M1:100万トークン対応の大規模言語モデルがオープンソース化 2025年6月16日、中国のAIスタートアップであるMiniMaxが、最新の大規模言語モデル(LLM)「MiniMax-M1」を発表しました。このモデルは、Apache 2.0ライセンスのもとで完全にオープンソース化されており、企業や開発者が商用アプリケーションやカスタマイズのために自由に利用できるという朗報となっています。 MiniMax-M1は、長い文脈を扱う能力と効率的なコンピューティング性能で新たな基準を設けています。Hugging FaceとGitHubでのリリースが既に開始され、これを皮切りに「MiniMaxWeek」が開始予定で、さらに製品発表が続く見込みです。 主要特徴 長い文脈対応 MiniMax-M1の「文脈ウィンドウ」は100万の入力トークンと最大8万の出力トークンを処理できるため、長文のリーズニングタスクに非常に適しています。例えば、100万トークンの入力であれば、一連の小説や文献の情報を一度のやり取りで扱えることが可能です。 効率的な強化学習 さらに、MiniMax-M1は革新的で効率的な強化学習(RL)技法を用いて訓練されています。特許申請中のCISPO(クリッピング重要サンプリング重み最適化)アルゴリズムとハイブリッドアテンション設計により、10万トークンの生成に25%の浮動小数点演算(FLOPs)しか必要とせず、DeepSeek R1の5分の1のコストで完成されました。 バリエーション MiniMax-M1-40kとMiniMax-M1-80k MiniMax-M1には、「思考予算」または出力長に対応した2つのバリエーションがあります。M1-40kは4万トークンの出力を、M1-80kは8万トークンの出力をサポートします。両モデルとも4560億のパラメータを持ち、トークンあたり45.9億のパラメータが活性化されるという高密度な設計を採用しています。 ベンチマーク性能 MiniMax-M1は、数学競技やソフトウェアエンジニアリング、ツール使用の能力などをテストする一系列の既存ベンチマークにおいて評価されています。特に、AIME 2024という数学競技ベンチマークでは、M1-80kが86.0%の精度を示しており、コード作成や長文文脈タスクでも優れた性能を発揮しています。これらの結果は、他のオープンウェイト競合モデル(例えばDeepSeek-R1、Qwen3-235B-A22B)を上回り、一部のクローズドウェイトモデル(OpenAIのGPT-4、GoogleのGemini 2.5 Pro)と肩を並べるほどになっています。 導入オプションと開発者向けツール MiniMaxは、vLLMをサーブバックエンドとして推奨しており、大規模モデル用 workload、メモリ効率、バッチリクエスト処理に最適化されていると説明しています。また、Transformersライブラリを使った導入オプションも提供しています。 MiniMax-M1には、機能呼び出し能力とチャットボットAPIが組み込まれており、オンライン検索、ビデオ・画像生成、音声合成、音声クローンといったツールが含まれています。これらの機能により、実世界アプリケーションにおける広範なエージェント行動を支えることが可能になります。 技術決定者および企業バイヤーへの影響 コスト削減とパフォーマンス MiniMax-M1は、大規模AIシステムの管理に関する技術者にとって、コスト効率が高く、高度なリーズニングタスクをサポートします。企業文書やログデータのような長文の前処理労力を大幅に削減できます。 シームレスな統合 AIパイプライン管理者にとっては、vLLMやTransformersといった既存ツールを使うことで、既存のインフラストラクチャに簡単に統合でき、ハイブリッドアテンションアーキテクチャはスケーリング戦略を単純化します。 データプラットフォームとの親和性 データプラットフォームチームは、構造化された関数呼び出しと自動化パイプラインとの互換性によって、M1を効率的でスケーラブルなインフラストラクチャに取り入れることができます。オープンソース化により、独自の環境に合わせて性能を調整することが可能で、プロプライエタリ制約からの開放を促します。 セキュリティ セキュリティ管理者は、高い能力を持つM1をオンプレミスで安全に展開できるため、機密データを第三者のエンドポイントに送信することによるリスクを回避できます。 総じて、MiniMax-M1は、コスト管理、運用制限の遵守、プロプライエタリ制約の回避を必要とする組織に柔軟な選択肢を提供します。オープンアクセスと高度なアーキテクチャ、計算効率の組み合わせが、次の世代のアプリケーション開発者にとって基礎的なモデルとなる可能性があります。 このリリースは、MiniMaxが実用的かつスケーラブルなAIモデルに注力していることを示しています。今週の残り時間でMiniMaxからの他の発表も楽しみにしてください。 業界の反応 AI業界の専門家たちは、MiniMax-M1の開放性と高性能を高く評価しています。オープンソースコミュニティの活気づくと同時に、企業のAI展開の一助になると考えられています。MiniMaxは、実績のあるAI技術と効率的な開発プロセスで知られる、急成長の中国企業です。

Related Links