HyperAI超神经
Back to Headlines

苹果发布2025 AI基础模型报告,庞若鸣离职前力作揭秘端云协同技术

2 days ago

苹果公司近日发布了《Apple Intelligence Foundation Language Models Tech Report 2025》,这是自去年首次公开其AI基础模型技术细节后的重大更新,也是原团队负责人庞若鸣(Ruoming Pang)离职前的最后一份重要成果。报告详细介绍了苹果的“端云协同”架构及其最新的技术进展,标志着苹果在AI领域的战略布局正进入新阶段。 此次发布的报告中,苹果提出了一个独特的双轨模型策略。第一轨是一款拥有约30亿参数的端上模型,优化后可在iPhone、iPad和Mac设备上高效运行。该模型通过苹果自研芯片的深度优化,提升了本地处理能力。第二轨则是一个基于私有云的服务器模型,支持更复杂的用户请求。端上模型负责处理简单任务,减轻了服务器负担;而对于需要大量计算资源的任务,则通过私有云服务进行处理,两者共同协作,兼顾了性能、效率和隐私保护。 为提升端上模型的运行效率,苹果工程师引入了“键值缓存共享”技术。这一技术能够减少缓存所需内存的37.5%,加快第一个语义单元生成的响应时间。服务器模型方面,则开发了“并行轨道混合专家”(PT-MoE)架构,将大型模型分割为多个并行轨道,各轨道独立工作,仅有必要时同步信息,减少了传统大型模型的通信瓶颈,增强了训练和推理的速度。 视觉理解能力方面,苹果的报告揭秘了其视觉编码器的技术细节。服务器和设备模型分别采用了ViT-g和ViTDet-L作为视觉得骨干网络。端上模型创新性地采用了“寄存器-窗口”机制,能够捕捉到图像的整体上下文和局部细节,进一步优化了多模态处理能力。 在训练数据的选择上,苹果坚持了严格的数据隐私原则。数据来源主要包括从出版商获取的授权内容、苹果网页抓取工具Applebot收集的公共信息和高质量合成数据。值得注意的是,苹果明确表示不会使用用户的私人数据或互动信息,并尊重网站发布的robots.txt协议来保护内容所有者权利。 为了确保模型的实际应用效果,苹果采用了一系列优化技术。端上模型通过量化感知训练技术,将模型权重压缩至2比特;服务器模型则利用自适应可扩展纹理压缩技术,压缩至每权重约3.56比特,且通过训练低秩适配器来补偿压缩后的性能损失。性能评估结果显示,苹果的端上模型在多项测试中优于甚至持平于其他主流同类规模的开源模型。尽管在与一些超大规模模型如Qwen-3-235B和GPT-4o的对比中仍显一定差距,但在与人类评分者的并排测试中表现出色,尤其在多语言处理和特定任务上的性能。 此外,苹果推出了针对开发者的全新“基础模型框架”,使后者能轻松调用设备上的30亿参数模型,简化了AI功能在应用程序中的集成过程。该框架与Swift编程语言无缝融合,加入了“引导式生成”特性,允许用几行代码调出结构化数据,同时也确保了应用的安全性和隐私保护。 这份报告的发布不仅展示了苹果在AI领域持续投入的技术深度和广度,同时也凸显了公司在用户隐私保护方面的坚定立场。它被视为苹果AI发展的重要里程碑,预示着苹果将在未来几年内继续引领智能计算的趋势。 业内专家认为,苹果此举将进一步巩固其在人工智能技术和用户体验方面的领先地位,彰显出其在技术创新和用户信任之间达成良好平衡的能力。庞若鸣的贡献被广泛认可,他离职后的接任者Zhifeng Chen将肩负重要的责任,继续推动苹果在AI技术上的前进。苹果公司在AI领域的这些努力,与其整体产品和服务生态系统相结合,预示着该公司正朝着更加智能化和安全的方向发展。

Related Links