人工智能:拿什么向奇点迫近

机器学习示例。图片来源:?yu.he

规则化的知识库

规则化的知识库则为机器提供了推理能力。当超级计算机沃森在《危险边缘》中面对这样一个问题:“When 60 Minutes premiered, this man was U.S . President(当《60分钟》初次上演时,这个人是当时的美国总统)”时,Waston需要使用句法分析之类的技术对句子进行句法分解,然后确定“permiered”的语义后面关联的是一个日期;同时要对“60分钟”进行语义消歧,确定它指代的是某个电视节目而非具体的时间。在进行句法分析后,沃森需要最后根据确定的日期,推断当时在位的美国总统。

规则化知识库示例。图片来源:?yu.he

人脑逆向工程

人脑逆向工程在人工智能领域也被称为联结主义,其主要内容是研究如何模拟人类大脑的神经网络运作——人工智能的发展受神经科学启发颇多,特别是在计算机视觉方面。深度学习算法在图像上对图像特征的表示,与一些生物学上的成果具有惊人的一致性。而如果我们要构建通用人工智能(Artificial Genral Intelligence,也称强人工智能。即像人类一样,甚至超越人类的智能系统),那么模拟神经网络看起来是最有前景的一条路径。

对人工智能的质疑

然而也有一些有识之士,对人工智能提出了不同的声音。一个有趣的现象是,在这些声音中,无论是对人工智能的发展过度乐观因而认为人工智能终将灭绝人类,还是对人工智能的发展过度悲观认为人工智能根本无法发展出真正的意识,都是围绕着人类的自主意识在做文章。

提到这个问题,就不得不对强AI做更进一步地阐述。当前的人工智能发展,更多是针对某个问题,发展对应的算法和技术,例如图像领域的技术无法直接应用到语言领域;而在这方面,人脑能够表现出比当时的AI更强的适用性。

这就导致许多人对人工智能的前景并不看好,并称之为集邮式的工作方法:我们做出了推理模块,然后拼上学习模块,然后再拼上视觉模块——把每个子领域的功能做好,然后再组合出一个完整的智能系统出来。

强AI正是针对这样的现状。强AI的研究者认为,人类智能不是这样拼起来的,在我们没有理解人类智能的运作方式前,拼合式的做法只是做出了一堆零散的工具。因此他们致力于发展智能的统一框架。强AI可能是每个AI从业者心中的圣杯,无论是Google虚拟大脑之父吴恩达(Andrew Ng)追求的大脑皮层单一算法,还是《人工智能的未来》(On Intelligence)一书的作者杰夫·霍金斯(Jeff Hawkins)所致力研究的脑皮质学习算法(Hierarchical Temporal Memory),无一不是在试图克服这种拼合式的智能,转而追求一个更基础的框架。

除了对做法的质疑之外,还存在着对于机器本性的质疑,哲学家约翰·塞尔(John Rogers Searle)大名鼎鼎的中文屋即是其中代表。希尔勒这一思想实验的焦点在于,机器只是机械地执行人们交给他的命令,并没有产生智能。

而斯图尔特·罗素(Stuart Russel)在《人工智能:一种现代方法》(Artificial Intelligence A Modern Approach)中举了一个例子来反驳希尔勒:我们能够说CPU会开立方根么?众所周知,CPU所能够执行的基本操作,只有加1、减1、存储、移位等等。然而可以说,CPU不能开立方根么?

希尔勒的思想实验的问题在于,他混淆了不同的层次(这也是在谈到意识问题时,大部分情况下人们所犯的错误)——我们并不会讨论这个人是否拥有智能,而是说这个房间作为一个“整体”,是拥有智能的。正如我们不会说人类大脑的布罗卡区拥有智能,而是说这个人拥有智能一样,即使布罗卡区在语言的产生中发挥着极重要的作用。

其实人工智能开创者之一的阿兰·图灵(Alan Turing)早在1950年的论文《计算机器与智能》中就给出了意见。而人尽皆知的“图灵测试”之所以提出,最大的原因就在于“智能”这个概念是模糊和易混淆的,我们需要使用行为来定义智能。没有外部可感的行为,空谈大脑中意识的意向性和灵魂,是没有价值的。