谷歌FB都把人工智能的研究方向搞错了?

谷歌FB都把人工智能的研究方向搞错了?

Facebook远远不是唯一一家运行着庞大的数据中心以及使用GPU来进行机器学习研究的公司。微软、谷歌和中国的百度都正在使用GPU来加速它们的研究进度。

对Facebook来说不太寻常的一件事就是它公开了大苏尔服务器和其它服务器的设计,以及将在普林维尔建立的数据中心。他们将这些信息在一个2011年Facebook建立的以鼓励计算机公司共同进行低成本计算设备开发为目的的叫做“开源计算计划”(Open Compute Project)的计划中贡献了出来。这项计划被看做帮助了亚洲国家的硬件公司以及挤压了像戴尔和惠普这样的传统供应商的生存空间。

今年早些时候大苏尔计划公布的时候,Facebook人工智能实验室的主任燕乐存(Yann LeCun)说,他相信通过促进更多的组织和公司建立更强大的进行机器学习的基础设施,这个开源计划可以加速相关领域的研究进度。

普渡大学的一位副教授Eugenio Culurciello说,深度学习的实用性意味着这种芯片几乎一定会被广泛使用。他说,“这种需求已经很大了,而且在将来也只会越来越大。”

在被问及Facebook有没有在着手研发自己的定制芯片时,Lee说,“公司正在考虑。”

战术的勤奋与战略的懒惰

Big Sur的特点是什么?是每台服务器中都装有8个NVIDIA生产的高端独立GPU。如大家所知,由于服务器的职能特点,其实一般的服务器内部是没有“三大件”中的独立GPU,只有CPU和内存的。因为GPU的耗电量和发热量都太大了。而其擅长的计算形式又不能对服务器的常用计算需求起到太大的帮助作用。因此不太适合用在一般的服务器中。但是Facebook却为了深度学习而专门设计了这款带有8个独立GPU的服务器,甚至不惜以减少每个机架上的服务器数量来优化对深度学习程序的计算速度。可谓是下了血本。

而互联网领域的其他大公司也没闲着,如文中所说,微软、谷歌、甚至是百度都在使用GPU、甚至开发自己的专用芯片来加速深度学习。在这些巨头们的推动下,深度学习算法的反应也是越来越快,精度也越来越高。

这不是好事吗?

答案是:我们真的没法知道。目前的大多数深度学习模型建立的过程,都是先建立相当有针对性的函数,再用庞大的,极有针对性的数据去训练它们,最终得出一个很有针对性的概率选择程序。也就是说,现在的深度学习AI你教它下棋,它就只会变得越来越会下棋,你教它识图,它就只能越来越会识图,而且它们识图和做事的方式,说白了是经过一系列的判断后判断结论有99.8%的可能是选择A,有0.2%的可能是选择B,于是便选择了A这样的过程。当然,它们下棋和识图的水平会变得很厉害,甚至变得比人类还厉害。但是终究还是只能限制于那个单独的领域。你要问我们,或者问那些专家,我们能肯定这样的程序发展下去,就一定能发展出真正的智能吗?至少我们觉得,这些深度学习程序真的不太像是能发展处终极形态的AI的样子。

Facebook的服务器固然十分强大,但它本质上仍然是冯诺依曼架构下的一台比较快的电脑而已。它的面世不过是人工智能军备竞赛中的一环,对于深度学习理论的整个发展,其实起不到什么作用。包括谷歌的TPU,和逐渐开始走入很多人视野中的FPGA,也都只是一种“器”,虽然有“工欲善其事必先利其器”的古训,但我们也都知道,有时候光有好的工具还是不够的。深度学习的效果太好了,以至于让很多专家忘了,其实人们还不知道真正的人工智能应该怎么去实现。

不过,确实也有不少专家都看到了这一点。斯坦福人工智能实验室负责人李飞飞最近在同硅谷顶级投资机构a16z的合伙人Frank Chen交流时就说道:她的下一个梦想就是能教会机器人怎么去学习,而不只是模仿训练数据。

而深度学习和计算机视觉公司商汤科技的执行研发总监曹旭东也提到过:做深度学习的人其实都有一个终极的追求,就是改变现在深度学习比较傻的以监督学习为主流的模式,让机器人的行为更加聪明,可以像人一样学习。