AMDと高通、gpt-ossシリーズの消費級ハードウェアサポートを発表 锐龙AI Max+395で120Bモデルを実行
AMDと高通は、OpenAIが公開したgpt-ossシリーズのオープンソース推論モデルを、自社のハードウェアで正式にサポートすると発表した。この連携により、エッジコンピューティングにおけるAI実行の可能性が大きく広がり、実用化への一歩が進んだ。 gpt-ossシリーズは、パラメータ数が200億のgpt-oss-20bと1200億のgpt-oss-120bの2モデルで構成される。gpt-oss-20bは16GBメモリのデバイスでもスムーズに動作可能で、低コスト環境での活用が期待される。一方、gpt-oss-120bは単一の80GB GPUで効率的に実行可能。AMDは、このモデルを消費財向けAI PCとして世界初に実現した。その実現を支えたのが、最新の「Ryzen AI Max+395」プロセッサ。このプロセッサは、GGMLフレームワークとMXFP4精度形式を採用し、約61GBのGPUメモリでgpt-oss-120bの実行を可能にした。さらに「Strix Halo」プラットフォームは128GBの統合メモリを備え、そのうち96GBをGPUに割り当てることで、大規模モデルの実行環境を整えた。 性能面では、Ryzen AI Max+395はgpt-oss-120bを1秒間に30トークンの速度で出力可能。また、MCPモデル上下文プロトコルをサポートしており、複雑なタスク処理においても高い応答性と効率性を実現している。 一方、高通は、gpt-oss-20bが「Snapdragon」プラットフォーム上で優れた連鎖的推論能力を発揮することを確認。開発者はHugging FaceやOllamaなどの主要プラットフォームを通じて、Snapdragon搭載デバイス上でこのモデルを簡単に利用できる。 この協業は、AMDと高通がAIハードウェアの前線で進む戦略的視点を示すものであり、エッジでのAI活用の拡大と、よりスマートで柔軟なAIアプリケーションの実現に貢献する。