Back to Headlines

OpenAI、初のオープンウェイトLLM「GPT-OSS」をリリース H100で動作するMoEモデルをApache 2.0で公開

2日前

OpenAIは、初の完全オープンソースの大規模言語モデル(LLM)シリーズ「GPT-OSS」(Generative Pre-trained Transformer Open Source Software)をリリースした。このモデルはApache 2.0ライセンスのもと公開され、開発者や研究機関が自由に利用・改変できる。GPT-OSSは2つのモデルから構成され、同じアーキテクチャを共有しながら、異なるハードウェア環境に最適化されている。両モデルとも混合専門家(Mixture-of-Experts、MoE)構造を採用し、4ビット量子化(MXFP4)技術を活用することで、高速な推論性能と低いリソース消費を実現している。 大きなモデルは1枚のH100 GPUで動作可能で、大規模な推論タスクに適している。一方、小さなモデルは16GBのメモリで動作可能であり、一般の消費機器でも利用可能。これにより、個人開発者や小規模チームが自前で実行できる環境が整った。 GPT-OSSは、AIエージェントのワークフローを想定して設計されており、複数ステップの意思決定やタスク分解に強い特性を持つ。特に、自己調整型の作業や、複雑なプロセスを段階的に処理する場面で高い性能を発揮する。OpenAIは、このリリースを通じて、AIの透明性と再現性を高め、エコシステム全体の進化を促すことを目指している。 GPT-OSSの登場は、オープンソースコミュニティにおけるLLMの活用拡大に大きく貢献すると期待されている。OpenAIは今後も、技術の民主化と安全なAI開発の実現に向けて、オープンなアプローチを継続する方針を示している。

Related Links