OpenAIがGPT-OSSをオープンソース化、16GBメモリで動作可能に。ノートPCでも大規模モデルが動く時代へ。
OpenAIが長年期待されてきたGPT-5の発表を延期しつつも、8月5日に2つの新たなオープンソース推論モデル「gpt-oss-120b」と「gpt-oss-20b」を発表した。これらはそれぞれ約1170億および210億のパラメータを有し、Apache 2.0ライセンスで無料公開され、Hugging Faceを介して誰でもダウンロード可能。両モデルはMXFP4形式のネイティブ量子化により、効率的な推論が可能で、大規模な計算リソースを必要としない。特にgpt-oss-20bは16GBメモリでノートPC上で動作可能で、開発者の迅速なプロトタイピングに適している。一方、gpt-oss-120bは単一の80GB GPUでスムーズに動作し、OpenAIの専有モデルo4-miniと同等の性能を示す。 モデルのアーキテクチャは稀疏専門家(MoE)構造を採用。gpt-oss-120bは128個の専門家からなり、各トークンで4つが活性化され、128kのコンテキスト長をサポート。両モデルはSTEM分野、一般常識、プログラミングを主な訓練データとしており、化学・生物・核関連の危険な内容はフィルタリングされている。安全性の観点から、OpenAIはモデルの能力評価と悪用リスクテストを実施。対抗的微調整を経ても「高リスク」水準に達しなかったことから、実用的かつ安全な利用が可能と判断した。 性能面では、AIME、GPQA、MMLUなどの推論ベンチマークでo4-miniと同等または上回る結果を記録。工具呼び出し(SWE-bench、Codeforces)や医療分野のHealthBenchでもGPT-4oやo1を上回る成果を示した。Redditユーザーの比較によれば、AIMEテストでgpt-oss-120bがDeepSeek-R1の5.7%上回る結果を示した。また、思考過程(Chain-of-Thought)は無監督で実装されており、研究者が独自の監視システムを構築できる点が特徴。OpenAIは「不正行為や誤用の検出に貢献する」と説明している。 この発表は、中国のDeepSeekやQwenなどによるオープンソースモデルの台頭を受けての戦略的転換と見られる。同社CEOのサム・オルトマンは「過去にAIオープンソースで誤った立場を取った」と述べ、AGIが全人類に恩恵をもたらすという創業理念の実現に向けた一歩と位置づけている。AWS、Azure、Databricksなどのクラウドプラットフォームも即時対応。さらに、50万ドルの賞金を用意した「レッドチームチャレンジ」を通じて、世界中の開発者によるセキュリティ強化を促進する。 背景として、OpenAIは2019年のGPT-2以来、大規模モデルの重みを公開していなかった。今回の発表は、開発者コミュニティの信頼回復と、民主的価値に基づくオープンAIスタックの構築を目的とした、画期的な動きである。