推荐列表
资讯
Sparanoid
现在开大会,不说点儿 AI 就 out 了,曾有网友开玩笑说,今年 Google I/O 的发布会就是:Google 系列产品+ AI 。
Apple 也是一样,这几年在硬件上没有什么重大创新,也是慢慢在讲讲自己跟 AI 的故事。
在果粉翘首以待的苹果演唱会发布会上,苹果一口气推出了三款新的 iPhone 和 Apple watch 系列 4 。
虽说硬件上的改观乏善可陈,但最起码实现了很多人梦寐以求的双卡双待,弱弱的问上一句,你还有肾可以卖吗?
相比之下,这次发布会最大的看点,要数 Apple 在 AI 上的进展。
发布会用了很长一段时间去介绍 A12 仿生芯片。这款被称为史上最强大的芯片,为 AI 应用提供了足够的算力。
A12 是苹果发布的第二款仿生芯片, 上一代芯片 A11 可以说开启了一个潮流。可怕的是,A12 在性能上又有了巨大提升,性能比前代 A11 高了一半左右。
这块芯片主要部分是 6 核的 CPU 、 4 核的 GPU 和一个八核的神经网络引擎 Neural Engine 。
神经网络引擎的强大在于处理矩阵乘法和浮点处理的能力。据称它每秒能够进行 5 万亿次运算,远超过 A11 。此外神经网络引擎将开放给 Core ML ,使用 A12 芯片的机器学习能力相比起之前能够提升 9 倍,同时能耗则降低到原来的十分之一。
应用了 A12 芯片的新 iPhone,展示了很多黑科技的操作,比如拍照 AI 应用、运动测量、投篮计分、运动员姿态估计、运动轨迹记录,从这些场景中能窥见它强大性能的一些端倪。
基于这款芯片,iPhone 可以处理更多炫酷的任务。那 iPhone 是如何实现那些 AI 功能的呢?
这就要说到苹果在 2017 年推出的机器学习框架 Core ML 。
Core ML 是一款机器学习的框架,建立在 Accelerate 、 BNNS 和 Metal Performance Shaders 等语言之上。它支持诸多 AI 技术,比如基于计算视觉的图像分析、自然语言处理(如 NSLinguisticTagger 类)和用于评估学习决策树的 GameplayKit 框架。
Apple 是去年 5 月份在 iOS 11 的发布会上首次推出 Core ML,它可以将机器学习模型集成到手机 App 上,在提高 App 运行稳定性的同时,通过降低 RAM 和电池消耗,让手机更好的运行 AI 应用。
Core ML 的作用是将 AI 模型应用到手机端
将逐渐兴起的 AI 技术应用在手机端,是个难以克服的问题。但目前,Core ML 已经被广泛应用于图像识别、语言翻译、对象检测等 App 开发领域。可以说它是 Apple 公司将机器学习技术融入到手机中的关键之处。
Core ML 投入应用后,Apple 公司又陆续推出了 Core ML 2 和 GPU 加速工具 Create ML(用于在苹果电脑上训练 AI 模型)。
Core ML 2 是 Core ML 的升级版,运行速度提升了 30%,支持 16 位浮点数,且附带模型转换器。这个神奇的转换器,可以将 Core ML 与其他机器学习框架等配合使用。目前支持的有 Keras 、 scikit-learn 、 XGBoost 、 LibSVM 、 Google 的 TensorFlow 、 Facebook 的 Caffe 等。这大大发挥了它们的威力。
说了这么多,你是不是也不太懂。我们从 BeCasso 这款图像处理软件,看看 Core ML 是怎么让 AI 应用在 iPhone 上运行。
在今年的 WWDC 大会上,Digital Masterpieces 公司展示了一款可实现图像风格迁移的 App—— BeCasso(毕加索),它可以将实景图转化为一张仿古风格的油画。而它在 IPhone 上的运行就要归功于仿生芯片和 Core ML 。
+
=
BeCasso 通过深度神经网络实现风格迁移,但在迁移过程需要消耗大量的 RAM 和算力,这对存储器和处理器要求很高。在条件不成熟时, BeCasso 只能对低像素图片的做风格迁移。
而 Core ML 框架给了它在手机端运行的机会。 Core 让 BeCasso 在运行的同时,进行内存优化,释放大量可用空间,而仿生芯片则可以为其提供充足的算力。 BeCasso 能在一秒种内对一张超清大图完成风格迁移。不难推测,在新款的 iPhone 估计表现更加优异。
除了 AI 芯片和机器学习框架 Core ML , Apple 公司近年来在 AI 发展上,下了不少的功夫。
Siri 语音助手从被诟病到如今被称为进步最大的语音助手, 尤其是 Apple 在 17 年收购 Workflow 后,又和 Siri 进行了整合,推出了强大的的 Siri Shortcuts 应用。实现了语音打开第三方 APP,智能化程度和可操作性都让人惊叹。
在今年 2 月份,姗姗来迟的智能音响 HomePod,搭载了空间监测技术和 Siri 助理,它的 “空间意识”(Spatial Awareness),可以智能检测空间,从而调整音频质量。
面部识别(Face ID)已不是什么新鲜事物, 它安全性好,快捷易用。 Apple 凭借的强大摄像系统、安全隔区以及神经网络引擎等精密技术,为解锁、登录和支付带来了新的方式。
此外,还有这次发布会上秀了一把的增强现实开发平台 ARkit 。 它适用于 iPhone 和 iPad 平台,利用设备中的相机、 CPU 、 GPU 和运动传感器,借助 iOS 庞大的用户群,组建了世界上最大的 AR 平台。
当然,Apple 近几年来最大的动作还是在 AI 人才方面的储备。
比如在 4 月份,就把 Google AI 的前负责人 John Giannandrea 招募了过来。
随着 Apple 公司不断推出的 AI 技术, AI 模型在手机端的发展已显现了可喜的进展。接下来限制 AI 应用开发的将不再是算力和 RAM,而是缺乏更多的 AI 模型。在这方面,Apple 的云服务倒是大有可为,它可以帮助开发人员构建 AI 模型,并提供训练这些模型所需要的数据。
至于 Apple 还会带给我们什么,就只能等下次的发布会了。(接着吐槽?)
说回 Apple 这次的发布会,不管人们怎么吐槽,它依旧还是华丽丽的一场秀。即便华为的大佬在苹果的发布会后,发了一条意味深长的微博,说「稳了」。
但这也阻止不了广大群众的热情,毕竟还是要热热闹闹的看春晚,啊呸,看苹果发布会啊。
始发于微信公众号: 超神经 HyperAI