对人工智能的十大误解:人类将被超级AI毁灭?

本文来源:蝌蚪五线谱(微信ID:kedo2011)

误解一:“我们永远不可能发明出和人类智力相当的AI。”

在一些特定领域,比如说国际象棋、围棋、股市交易以及人机对话等,我们已经发明出与人脑匹敌或超越人脑的计算机。电脑和驱动他们的运算法则只会变得更好,电脑精通几乎任何人类能力只是时间问题。

纽约大学心理学家盖瑞马库斯(Gary Marcus)曾说过,几乎所有研究AI的人都认为机器最终将取代人类。“狂热分子和怀疑论者之间唯一的不同是对时间早晚的判断。”未来主义者,像雷库兹韦尔,认为机器统治人类会在几十年后发生,而其他人则说可能得几个世纪。

最初设想的机器智能可能缺乏一种或多种这些属性。最终,我们可能制造出极其聪明的AI,但是它不能通过主观的自我意识感受这个世界。沙纳罕说也许能够将智力和意识结合在一个机器内,但是我们也要认识到智力和意识终究是两种不同的概念。

AI怀疑论者认为生物脑在本质上是有独特之处的,这是无法解决的科技难题,其实这些是没有说服力的。我们的大脑是生物学意义的机器,但也不过是机器。他们存在于现实世界里,就要遵循基本的物理法则。人脑没有东西是不可知的。

误解二:“人工智能将会有意识。”

AMC电视连续剧 Human 中,并不是全部人工智能都获得了意识

关于机器智能的一个普遍假设是:将来机器智能会有意识。也就是说,机器会像人一样思考。评论家们,如微软创始人之一的保罗艾伦,则更进一步认为我们还未达到人工通用智能,即机器能够像人类一样执行任何需要智力的任务,因为我们缺乏关于意识的科学理论。正如伦敦帝国理工学院认知机器人研究者穆雷沙纳罕(Murray Shanahan)所指出的那样,我们应该避免混淆认知和意识这两种概念。

“探究意识确实是一门迷人且重要的课题,但是我认为意识对于人类水平的人工智能来说是并不是必要的。或者更精确地说,我们用‘意识’这个词来指代心理的和认知的属性,这些在人类身上是捆绑在一起的。”

最初设想的机器智能可能缺乏一种或多种这些属性。最终,我们可能制造出极其聪明的AI,但是它不能通过主观的自我意识感受这个世界。沙纳罕说也许能够将智力和意识结合在一个机器内,但是我们也要认识到智力和意识终究是两种不同的概念。

不能仅仅因为一台机器通过了图灵测试,就认为它有意识。先进的AI留给我们的印象是它们是有意识的,但是再先进的AI对于自己的认识也不会比一块石头或一个计算器多。

误解三:“超级人工智能会很友好。”

哲学家康德认为智能与道德密不可分。神经学家David Chalmers在他的论文《非凡的哲学分析》中吸取了康德的著名观点,并将其运用于人工智能的提升中。

如果这个观点是正确的话,我们可以想到AI因智力爆发性增长致使道德感急剧升高的状况。可以想到,ASI系统变得超级智能的同时会具有无上的道德感,因此我们可以认为它们是善良的。

但是,这个“先进的AI从本质上将是好的、开明的”的观点是站不住脚的。正如Armstrong指出,存在很多聪明的战犯。智力和道德感间的关系在人类中貌似并不存在,所以他怀疑该假设在其他智能形式中,恐怕也是难以成立的。

“聪明的人的不道德行为可以比他们的笨蛋同胞造成更大规模的破坏,”他说。“智力只是给了他们变得更坏的能力,它并没有把他们变成好人。”