不用恐慌,新AlphaGo离强人工智能还有十万八千里

这个问题也常常关联着AI表征中的另一个问题,比如常识问题。我们都知道所谓的阿西莫夫的机器人三律令,即机器人不得伤害人类(人类遇到危险它也必须设法解救),必须服从人给予它的命令,尽可能保护自己的生存。但实际上,这三定律是很难作为机器人的指令存在的,因为它们并不是规则明晰、可以有效操作的指令。比如,救人这条律令,在不同的情境下有不同的执行手段。当一个人上吊的时候,救他的办法是剪断绳子;但当一个人在五层楼的窗户下拉着一条绳子呼救的时候,救他的办法就是拉起而不是剪断那条绳子。于是,让人三律令工作起来,就必须对大量的背景知识进行形式化。可惜的是,1980年代AI第二次浪潮中的专家系统和知识表征工程,就是因为无法处理常识表征的问题而最终失败。

(2)AI的另一个难题就是中文屋论证以及由此衍生出来的符号奠基问题。心灵哲学家塞尔设计过这样一个思想实验,他假定自己被关在一个密闭的屋子中,屋子中有一本英文说明手册,它描述了如何根据汉字的字形(而不是语义),给出一个中文问题对应的中文答案。中文屋中的塞尔从窗口接收中文问题,然后根据这本英文手册,给出相应的中文答案。从中文屋外面的人看来,似乎塞尔是懂得中文的。但实际上,塞尔根本不理解这些中文问题和答案的任何意义。在塞尔看来,数字计算机就类似于中文屋中的塞尔,它只是根据物理和句法规则来进行符号串的加工处理,却完全不理解这些符号的意义。即便计算机表现出了和人类相似的智能行为,但计算机的工作归根结底是对符号的处理,但这些符号的意义也并不是计算机所能理解或自主生成的,而是依赖于它们在人类头脑中的意义。

图片来源:《视读人工智能》,第50页。

后来认知科学家哈纳德在塞尔的基础上,提出了所谓的符号奠基问题:如何让一个人工系统自主地产生符号的意义,而不需要人类的外部或预先的赋予。这个问题其实也就是如何让AI可以自主地从世界中识别出特征量,最终自主地产生与这种特征量对应的符号。“深度学习”试图解决这个问题,但其解法并不那么令人满意。

(3)现象意识问题也是人工智能的难题。前面所述的框架问题和符号奠基问题,实际上涉及的都是如何在一个形式系统中模拟人类的表征活动。但即便这些表征活动都可以被人工智能所模拟,人类意识是否可以还原为表征过程,也是一个颇富争议的问题。意识的表征主义理论认为,所有的意识过程都可以还原为表征过程,但是对于那些出身于或同情现象学传统的心灵哲学家而言,意识包含人类心智中不可消除的主观意识体验。我们一般将这种第一人称体验称之为感受质或现象意识。心灵哲学家内格尔写过一篇有名的文章《成为一只蝙蝠是一种什么体验?》,在他看来,即便我们掌握了关于蝙蝠的所有神经生物学知识,仍然无法确切地知道蝙蝠的内在意识体验。查尔莫斯也有过类似的假定,比如我们可以假定存在这样一个僵尸,它的一切活动都表现得像人类一样,然而,它却缺乏人类最本质的现象意识体验。在他们看来,意识体验是无法用表征过程来模拟的。如果这个理论成立的话,表征与意识就是两个不同的概念,即便强人工智能是可能的,那么它也并不必然就具有意识。

二、Alphago真的智能了吗?

那么,Alphago是否就真的那么具有革命性,成为AI发展的一个里程碑呢?实际上,Alphago并没有采用任何新的算法,从而也就共享了这些传统算法的局限。

Alphago的基本设计思路是,基于监督式学习与强化学习两种模式,通过构造两个神经网络即决策网络和价值网络来评估棋盘位置和决定走子动作。Deepmind的工程师首先采用监督式学习,根据大量的人类棋局数据训练了一个策略网络,它可以从这些棋局中学习人类棋手的走子定式之后。但学会这些定式并不能成为高手,还需要对走子之后的棋局作出评估,从而选择最佳的走法。为此,Deepmind采用了强化学习的办法,根据之前训练出来的策略网络不断地自我对弈(人类棋局的数据远远不够了),训练了一个强化学习的策略网络,它的学习目标不再是模拟人类棋手的走法,而是学习如何赢棋。Alphago最具创新性的地方在于,它根据这些自我对弈的数据,训练了一个估值网络,可以对整个盘面的优劣作出评估。与人类对弈的时候,Alphago应用了蒙特卡洛搜索树来整合这些神经网络。首先,策略网络可以搜索出各种走法,然后估值网络来对这些盘面的胜率进行评估,最终决定走法。相比于传统的单纯暴力搜索,因为策略网络形成了定式走法,估值网络在对这些走法进行评估删减,最终可以大大减少搜索的宽度和深度。