英伟达逆流而上推开源AI,Nemotron 3与SchedMD收购背后的生态野心
米国の大手AI企業が次々とオープンソース戦略を縮小する中、英伟达は逆に開源を強化している。同社は、スラム(Slurm)の開発元であるSchedMDを買収し、Nemotron 3と呼ばれる大規模言語モデル(LLM)のシリーズを公開した。Nemotron 3はNano(300億パラメータ)、Super(1,000億)、Ultra(5,000億)の3種類で構成され、混合専門家モデル(MoE)アーキテクチャを採用。Nanoは前世代比で処理速度が4倍、トークン生成量を最大60%削減可能。また、コンテキスト長は100万トークンまで拡張され、前世代の7倍に達する。ただし、Nanoのみが即時利用可能で、SuperとUltraは2026年上半期に提供予定。 英伟达はモデルの重みや約10兆トークン分の合成学習データ、訓練手法を公開し、NVIDIA Open Model Licenseに基づき商用利用や派生モデルの作成を許可。GitHubやHugging Faceからアクセス可能で、NeMo GymやNeMo RLなどのツールで強化学習や安全性評価も行える。 SchedMDの買収は、高性能計算(HPC)とAIトレーニングで広く使われるSlurmの継続的開発を確保する戦略的措置。同社CEOのDanny Aubleは、この買収がSlurmの「最厳格な環境での重要性」を証明するものと評した。 一方、Metaは「Avocado」という新モデルの開発を進めており、2026年春に発表される可能性があるが、オープンソース化は見込みが薄い。昨年まで「オープンソースがAIの道」と主張していたマーケンスも、Llama 4のパフォーマンス不振を受け、閉源路線への転換を検討。OpenAIもGPT-2以降5年ぶりの開源モデル(GPT-oss)を発表するにとどまり、今後は開源に積極的でない。 この中で、中国の開源モデルが急成長。DeepSeek-V3、アリババのQwenシリーズ、Moonshot AIのKimi K2が主力。OpenRouterとa16zの報告によると、中国モデルの世界利用シェアは2024年末の1.2%から現在30%近くまで急上昇。 英伟达が開源を進める背景には、自社のビジネスモデルがある。同社の本質的な収益源はGPUの販売であり、ソフトウェア生態系の構築が鍵。CUDAはAI開発の標準プラットフォームとして400万人以上の開発者に利用され、TensorFlowやPyTorchなど主流フレームワークと深く連携。Nemotron 3の公開は、開発者が英伟达のツール(NeMo、Triton)やCUDA環境に依存するように仕向ける戦略の一環。 特に、データセキュリティやモデルの透明性が求められる金融、医療、国防分野や、自国のAI主権を求める各国政府にとって、英伟达の開源モデルは魅力的。中国モデルには地政学的懸念があるため、英伟达はその空白を埋める立場にある。 結論として、英伟达の開源は「モデルを売る」ためではなく、「モデルが走る場所」を確保するための戦略である。開源は手段であり、最終的な目的は、世界中の開発者と機関が英伟达のハードウェアに依存する生態系を構築することにある。
