谷歌AI教父:AlphaGo有直觉 神经网络已接近大脑

当谷歌的AlphaGo战胜了人类顶级棋手,人工智能开始更多进入大众视野。无论是其深度应用还是可能存在的隐患,都是大家讨论的话题。

即使是在科技大佬之间,观点也存在截然相反的情况。马斯克就曾表示 “我们会在智力上远远落后于AI,以至于最终成为AI的宠物。”在另外一方面,Alphabet董事长施密特则表示:“如果你担心人工智能在智商上超越人类、然后消灭人类,那你科幻电影一定是看多了。”

在日前,福布斯记者彼得·海伊(Peter海伊)对人工智能教父杰弗里·辛顿(Geoff 辛顿)进行了专访,他谈到了很多关于人工智能的看法。在他看来,神经网络正在向大脑靠近,AI的火爆不是因为其技术和原理,所谓的隐患更只是一个科技界的政治问题。他更是透露,AlphaGo拥有了直觉。

辛顿早在1970年代初期就开始从事人工智能科研工作,是名副其实的AI先驱。曾先后供职于萨塞克斯大学(位于英国)、加利福尼亚大学圣地亚哥分校、剑桥大学、卡内基梅隆大学、以及伦敦大学学院,现任多伦多大学荣誉教授。他曾获得过机器学习领域的加拿大国家研究大奖,该奖项为联邦政府给予科学研究的最高荣誉及财务资助。2013年3月,辛顿的公司被谷歌收购,其也随之加入谷歌。

以下为主要内容:

神经网络正向大脑靠拢

海伊: 多伦多大学的资料上显示,您一直致力于探寻一个高效的深度学习算法,像人类习得知识一样,能够从一个庞大且多维的数据集合中梳理其复杂的结构。我想请您就这方面谈谈您的看法,还有您在多伦多大学和在谷歌的日常工作方面。

辛顿: 我们的大脑,毋庸置疑,非常擅于处理并理解多维的数据,例如从视觉神经传来的信息是百万级权重的并且随着时间极速变化的。我们每看到一个场景,大脑就能帮我们正确的解读。如果我们看到的是一头大象,那么大脑不会把它解读成一条狗。但是在实验室中,我们的神经网络系统偶尔会理解出错。虽然如此,在绝大多数情况下,我们的技术还是能够准确的理解某个多维的输入代表的意思。随着该神经网络进行的学习次数的增加,正确率也会提高,这是传统计算机所不能达到的,我们在向人类的大脑靠拢。这和单纯的对低维度、少量训练数据、参数不多的简单模型从统计学角度进行数据挖掘是有本质上的不同的。

大脑令我着迷的地方在于它所拥有的参数远多于训练数据,所以现阶段的人工智能网络还不能说非常成功。现阶段我们能做到的是,我们的神经网络系统可以很好地处理百万级权重以及百万级训练数据。有的时候,十亿级也可以处理很好。但是我们的参数数量并不能像人类大脑那样,远远超过训练数据数量。对于每一秒的输入,人类大脑大概有一万个参数来处理。对于人脑这样庞大的系统是如何工作的,以及它是怎样分析数据的,我们目前所知还甚少。

海伊: 宏观的看,在人工智能的发展历程中,您觉得我们已经到达了什么阶段?

辛顿: 我觉得我们已经跨过了一个很重要的门槛。就在不久之前,AI领域的大部分从业者还在通过逻辑来处理AI技术。这种人工智能还是基于逻辑推理的层面,对内部含义的表示采用的还是符号结构。现在我们拥有了这个庞大的神经网络,一切都改变了。我们现在的策略是,用巨大的矢量来表示内部含义,而且也不再采用逻辑推理的方法。我们是让这个巨大的神经网络自己学习,不再需要编程的介入。此前,人们觉得这简直是天方夜谭。

举个例子,拿一串英文字符及其对应的法文字符组成一对字符串对,如果有足够的字符串对的话,神经网络系统就能够自动习得这两种语言,如果你给它一个英文句子,它能基本无误的将这句英文转化为法文。现在这项技术还不是很成熟,但是目前神经网络系统已经能够掌握该方法的核心,只是在速度方面还有待改进,我相信很快该技术就能够付诸实际应用了。20、30年以前的人会觉得这个想法太可笑了,要让一个机器学习一门语言,你当然需要将大量的语义学,世界常识等信息进行编程。如果仅凭一些数据,但这些数据并没有包含该语言的实际知识,来让机器完全凭空、傻瓜似的、自动地学习,这在当时听起来有点可笑。现在,模仿神经网络这个概念被引进了,这个想法听起来就没有那么可笑了,因为大脑就是这样工作的。所以我说,我们已经跨过了一个很重要的门槛。现在大部分AI界的人,特别是年轻人,都相信如果你想让一个系统获得以百万比特为计量单位的知识的话,最好的办法就是让它自己学,靠手动输入是完成不了的。