AMD ローカルAI大規模化突破!锐龙 AI Max+395で1280億パラメータモデルを実現
AMDが「锐龙 AI Max+395」の大幅な性能アップを発表し、ローカル環境で最大1280億パラメータのAI大規模モデルを実行可能にした。このプロセッサはZen5アーキテクチャを採用し、これまでの700億パラメータまで対応していた制限を大きく超え、1090億パラメータのMeta Llama4Sout(66GB)を初のローカル実行プラットフォームとして実現。さらに、68GBのMistral Large(1230億パラメータ)や、18GBのQwen3A3B(300億パラメータ)、17GBのGoogle Gemma(270億パラメータ)といった多様なモデルもサポート。その実現の鍵は「混合専門家(MoE)」アーキテクチャで、モデルの一部のみを動かすことで、処理効率を高めながらもリソース消費を大幅に削減。 実測では、1秒間に15トークンの処理速度を達成。また、最大256,000トークンの上下文長をサポートし、従来の32,000トークンに比べて、極めて複雑な文書や長文データの処理が可能に。これは、医療や法律、科学研究など、大規模な文脈理解が求められる分野での活用を広げる。 実現には、128GBの統一メモリを搭載したシステムが必須で、そのうち96GBをGPUメモリとして割り当てる必要がある。また、Vulkan llama.cpp環境での実行が推奨され、開発者による柔軟なカスタマイズが可能になる。価格面では、同構成のミニAIワークステーションが1.3万円前後と、高機能かつコストパフォーマンスに優れ、プロフェッショナルから個人開発者まで幅広い層にアクセスしやすくなった。AMDのこの進化は、AIのローカル実行という未来の基盤を、より現実のものへと押し進めている。
