Nemotron 3 Nano:エージェンティックな推論向けに最適化されたオープンで効率的なMixture-of-Experts型ハイブリッドMamba-Transformerモデル
Nemotron 3 Nano:エージェンティックな推論向けに最適化されたオープンで効率的なMixture-of-Experts型ハイブリッドMamba-Transformerモデル
NVIDIA

要約
Nemotron 3 Nano 30B-A3Bは、Mixture-of-Experts(MoE)構造を採用したハイブリッドMamba Transformer言語モデルです。Nemotron 3 Nanoは、Nemotron 2に比べて3兆以上の新規固有トークンを含む合計25兆トークンのテキストデータを用いて事前学習を行い、その後、教師あり微調整および多様な環境下での大規模強化学習を実施しました。Nemotron 3 Nanoは、前世代のNemotron 2 Nanoと比較してより高い精度を達成しつつ、1回の順伝播において半分以下のパラメータを活性化しています。GPT-OSS 20BやQwen3-30B-A3B-Thinking-2507といった同規模のオープンモデルと比較して、推論スループットが最大3.3倍向上し、同時に主要ベンチマークでも高い精度を示しています。Nemotron 3 Nanoは、エージェント機能、推論能力、チャット対応能力が強化されており、最大100万トークンまでのコンテキスト長をサポートしています。本研究では、Hugging Face上で事前学習済みのNemotron 3 Nano 30B-A3B Baseモデルおよび微調整済みのNemotron 3 Nano 30B-A3Bチェックポイントを公開します。