HyperAIHyperAI
Back to Headlines

AMD 革命性升级!锐龙 AI Max+395 实现本地运行1280亿参数大模型,1.3万元起畅享AI巅峰性能

منذ 12 أيام

AMD 再次刷新AI计算边界,推出基于Zen5架构的锐龙 AI Max+395处理器,正式实现本地运行高达1280亿参数大模型的突破性进展。这一升级标志着个人设备在本地部署超大规模AI模型的能力迈入新阶段,为开发者与专业用户提供了前所未有的灵活性与性能支持。 此前,锐龙 AI Max+395已凭借其强大算力,成为首个支持本地运行700亿参数大模型的平台。如今,通过系统级优化与架构升级,该处理器成功实现对1090亿参数的Meta Llama4Sout模型的本地运行,该模型体积达66GB,具备视觉理解(Vision)与多模态上下文处理(MCP)等先进功能。这一成就的背后,是其采用的混合专家(MoE)技术——该技术仅激活模型中部分专家网络,显著降低内存与计算负载,同时保持高推理精度,使复杂模型在有限资源下高效运行。 为充分发挥性能,系统需配置128GB统一内存,其中96GB需专用于显存分配。此外,模型需在Vulkan llama.cpp运行环境中部署,这一设计为开发者提供了更高的底层控制能力与跨平台兼容性。实测数据显示,锐龙 AI Max+395在处理大型模型时可达到每秒15个Token的推理速度,响应迅速,足以支撑实时交互类AI应用。 除了Llama4Sout,该平台还成功支持其他主流大模型,包括68GB、1230亿参数的Mistral Large,以及Qwen3A3B(18GB,300亿参数)和Google Gemma(17GB,270亿参数)等,覆盖从通用对话到专业任务的多样化需求。更令人瞩目的是,其上下文长度支持突破至256,000 Tokens,远超行业常见的32,000 Tokens上限。这一能力使得处理长篇文档、复杂代码库或大规模历史数据成为可能,极大拓展了AI在科研、法律、金融等领域的应用边界。 值得一提的是,搭载锐龙 AI Max+395与128GB内存的迷你AI工作站,目前市场售价已降至约1.3万元,性价比显著提升。这一价格水平大幅降低了高端AI本地化部署的门槛,使个人开发者、小型团队乃至教育机构也能轻松接入前沿AI能力。 此次升级不仅彰显了AMD在AI芯片领域的技术实力,更推动了“AI上桌”趋势的加速落地。随着本地运行大模型的可行性不断增强,数据隐私保护、低延迟响应与持续可用性等关键优势得以凸显。锐龙 AI Max+395正重新定义个人高性能计算的边界,为AI时代的普惠化发展注入强劲动力。

Related Links

AMD 革命性升级!锐龙 AI Max+395 实现本地运行1280亿参数大模型,1.3万元起畅享AI巅峰性能 | العناوين الرئيسية | HyperAI