细拆苹果AI战略蓝图,看离领跑全球还有多远?

7月份,在经历了长达几个月外界对苹果AI技术落后的质疑后,苹果又有了一些新动作,首先是在7月20日上线了苹果机器学习官方博客(Apple Machine Learning Journal),并发表了第一篇博文;其次提交的论文被CVPR 2017收录,获最佳论文。

苹果CEO库克面对外界对苹果AI技术落后的质疑,曾向媒体回应说,苹果精神是“just work ”(实干精神),之所以外界看不到苹果AI技术的进展,是因为苹果只喜欢谈论即将上线的产品功能。这么来看,公众最多只能通过公开的博客和学术论文中了解到苹果在AI领域研究的大方向,而关于这些研究的应用以及进度,只能靠猜测了。

不过编辑在网上找到了一些PPT。这些PPT是在去年的12月6日,一个仅面向受邀者参加的行业AI大会的午餐会上,苹果公司机器学习负责人罗斯·萨拉克丁诺夫(Russ Salakhutdinov)和其他苹果员工进行的议题讨论,详细介绍了苹果公司在AI领域的一些进展。

无人驾驶领域

无人驾驶

根据参会者的描绘:

会上一张幻灯片上有两张非常有特色的汽车图片,该幻灯片汇总了苹果公司的研究,说明了“LiDAR的体积检测”和“结构化输出预测”。

对于现如今的无人驾驶技术而言,LiDAR或光感测距(和雷达类似,但借助激光)以及物理事件预测都是非常重要的组成部分。不过,鉴于所介绍的内容比较敏感,两名不愿透露姓名的参会者强调,苹果公司并没有提及他们的造车理想。

今年6月份,库克首次公开谈论了正在开发的代号为Project Titan 无人驾驶项目。但只是声称在做无人驾驶技术的研发,对是否会自主制造汽车,库克并没有给出答案。

而英国《每日邮报》7月21日有文爆料,苹果正与一家中国公司合作研发汽车电池, 这家公司名字叫时代新能源科技有限公司(CATL)。CATL曾经隶属新能源技术有限公司,为苹果产品供应电池,但后来脱离后者成为一个独立实体。CATL目前为电动巴士、电动客车、电动卡车和固定能量储存供应电池组。

由此可见,苹果的野心并不只是研发自动驾驶系统那么简单。

AI专用芯片

对于算法在图形处理单元或GPU(常用于服务器端加速深度学习的处理速度)上的运行效率,苹果还是非常自豪的。一张幻灯片指出,苹果的图像识别算法每秒钟处理的照片是谷歌的两倍,谷歌每秒处理1500张,而他们每秒可以处理3000张,而且大体上只需要1/3的GPU。这种比较是基于在Amazon Web Services(一个云计算的标准)上运行算法做出的。

AI

虽然其他公司正开始基于专用芯片来加速AI工作,如谷歌的TPU(张量处理单元)和微软的FPGA(现场可编程逻辑闸阵列),值得注意的是,苹果是基于标准的GPU。不过,苹果是否为了匹配其客制化客户硬件而构建了自己的客制化GPU,还是从像英伟达这样的大型制造商购买,并没有详细介绍。

另外,苹果用来训练其神经网络识别图像的图片库似乎是专有的,其规模几乎是标准ImageNet数据库的两倍。

神经网络工具Core ML

神经网络工具Core ML, 它构建的神经网络比原始神经网络小4.5倍,精度却没有损失,速度比原先快两倍。在AI研究领域,这项技术使用更强大的神经网络训练另一个网络,使其知道在各种情况下做什么决策。然后,这位“学生”(student)网络就会具备“老师”(teacher)网络知识的精简版本。本质上,对于给定的照片或音频样本,它能做出更大网络的预测。通过精简神经网络,iPhone和iPad可以识别照片中的人脸和位置,或者了解用户的心率变化,并且不需要依赖远程服务器。将这些处理过程封装在手机里可以让这项功能随处可用,而且,这还使得数据无需加密,也无需通过无线网络传输。

c

Core ML

对于希望将AI构建到自己的iOS应用的开发人员而言,苹果构建的这一套机器学习模型和应用程序协议接口(API),即Core ML,非常有帮助。开发人员可以使用这些工具将图像识别构建到照片应用中,或者引入自然语言处理技术到一个聊天机器人中,可以理解用户所说的内容。