HyperAI超神经
Back to Headlines

苹果 WWDC 2025:AI 功能悄然升级,无需聊天机器人也能体验强大智能

8 days ago

在2025年WWDC大会上,苹果公司正式宣布了其在人工智能(AI)领域的全新战略方向。与行业其他公司在会议上大肆宣传聊天机器人突破不同,苹果采取了一种更为谨慎和务实的方法,将大型语言模型(LLM)的强大功能逐步整合到iPhone和其他设备中,而尽量不提“AI”这个词。 苹果首先引入了Live Translation功能。通过iOS 26,用户可以在Messages、FaceTime和Phone应用中直接使用这项功能进行实时翻译,无需复制粘贴或打开其他翻译软件。这一改进大大提升了用户体验,使其在日常交流中更加便捷。 其次,Visual Intelligence在iOS 26中也得到了显著增强。用户现在可以直接通过截图界面访问Visual Intelligence,让它识别截图中的内容、理解上下文并推荐行动。在演示中,Visual Intelligence能够自动从活动传单创建日历事件,显示了其实用性和创新性。此外,它还可以将截图中的文字朗读出来或生成摘要,并允许用户将这些截图内容直接提交给ChatGPT提问,进一步拓展了其功能范围。 Shortcuts 应用程序也在此次更新中获得了AI支持。例如,当用户把文件保存到MacOS 26的桌面上时,新的Shortcut可以自动调用Apple Intelligence来分析文件内容,并根据预设的分类标准将其归类到不同的文件夹中。对于常常需要管理大量文件的用户来说,这无疑是一个非常实用的功能。另一个亮点是在iOS 26的Share按钮中增加的新功能,如从PDF或Safari网页中选取列表并转化为提醒事项,甚至能够自动生成子类别,展示了LLM在自然语言处理方面的强大能力。 尽管如此,苹果并未在大会上详细介绍下一代Siri的计划,只表示仍在研发中,并承诺在满足其严格的用户体验标准后才会发布。至于编程助手,苹果并没有推出自家的开发工具AI助手,而是选择开放其Foundation Models框架,让开发者可以轻松地利用Apple Intelligence的生成模型,只需几行Swift代码即可实现。该框架不仅支持本地运行且免费,还允许Xcode 26用户集成他们选择的生成编码伙伴,例如默认集成了ChatGPT。这表明苹果希望为开发者提供更多灵活性,而非强行绑定自家产品。 总体来看,苹果在AI领域采取的是渐进且实用主义的方法。通过将LLM的强大功能融入日常功能中,苹果不仅提高了用户体验,还在隐私保护和安全性方面保持了高标准。此外,苹果的开放策略也为开发者提供了更多的选择空间,推动了整个生态系统的健康发展。 业内普遍认为,苹果此次的战略调整体现了其一贯的谨慎态度和对用户体验的高度重视。虽然没有推出具有轰动效应的聊天机器人,但苹果的每一步都显得扎实有力。这种做法不仅巩固了其市场地位,也符合其在科技领域的品牌定位,即注重实际效果而非虚张声势。 苹果作为全球领先的科技公司,在AI领域的每一次动作都备受关注。未来,我们可以期待苹果在这一领域继续探索更加实用的技术解决方案。

Related Links