AI究竟是福是祸?引导其形成道德或许能避免灾难

如果选择遵循天赋派的观点,我们只有在一种情况下才能向人工智能产物灌输人类的道德观念:人类已经非常了解普遍道德的真理,对此有着正确且深刻的理解。如果我们能从根本上理解普遍道德的真理,那么机器人就应该遵循人类的道德准则。如果我们没理解普遍道德的真理,那么机器人则不应该接受人类道德规范。它们应该遵循更好的道德才对。

在天赋派的道德理论中,我们发现了一些能让人类改进自己偏颇观点的办法和可能。比如说,当代功利主义哲学家彼得·辛格(Peter Singer)经常称我们应该对所有的孩子施以同样多的关注和照顾,而不是更关心自己家的孩子。我们最关心自己的孩子,这是符合进化过程的需要,从进化角度来看是适当的行为。但从宏观整体的角度来看,一件事情是否得当并不重要。辛格认为从客观角度来看,认为自己的孩子比其他孩子更重要这样的观点是不理性的。

辛格也承认人类并不是道德上完美无缺的生物,因此政府允许我们各自照顾抚养自己的孩子。如果我们真的对所有孩子施以同等的关注和照顾,说不定会把事情彻底搞砸。在这个过程中,有些孩子会被忽视。虽然进化过程留给我们很多缺点,但我们依旧需要利用好进化带给我们的东西。在辛格那种天赋派的观点看来,我们所熟悉的照顾抚养孩子的社会体系就好像是缠满了胶带的电视天线——虽然不完美,但已经是我们能做到的最好的状态。

但是智能机器人无需经历和人类一样的进化过程,它们也不必拥有我们的道德缺陷。相比与人类而言,它们在道德这个问题上拥有崭新的起点。如果我们能设计出一种从宏观整体角度思考的机器人会怎样?它们能够平等的照顾所有生活在贫苦中的孩子,不会因为偏袒和不公而影响自己行动的效率。

想象一下 2026 年的场景。一辆自主行驶的公共机器人汽车正载着你的两个孩子前去学校。机器人在这个过程中独立自主运作,人类没有进行任何监督。突然,前方道路上出现了三个和你没有任何关系的陌生儿童。路面非常滑,机器人不可能及时刹车。要想避免撞死前方的三个孩子,唯一的办法就是急转驶入被水淹没的沟渠。这样一来,你的两个孩子几乎无法逃脱溺亡的结局。

你肯定不希望车辆转弯驶入沟渠。根据天赋派的观点,这是因为你在进化过程中形成了道德上的缺陷。你在逻辑上盲目的偏袒自己的孩子,因此选择对符合整体最优的局面视而不见。从宏观角度来看,淹死两个孩子比撞死三个孩子更符合整体利益最大化。机器人车不会像你一样是个道德上的“傻瓜”。它会自行计算,然后急转驶入路边沟渠。你的孩子最终会死亡,但从宏观角度来看,这就是当前局面下的最优解。

在天赋派的观点看来,智能机器人所做之事应该都是客观上符合道德的事情。对于自身道德存在缺陷的人类而言,有时候这些事是我们无法做到的。人类的道德准则是妥协的产物,并不客观。鉴于此,天赋派最终的结论可能便是不同意将人类的道德强加给智能机器人。我们应该允许机器人做出一些在我们看起来心生厌恶的决定。

不过即便大体上接受天赋派的观点,你还要解决另外一个问题:人类在进化过程中形成了偏袒和专横的心态,即便是人类伦理学者也无法逃出这种心态的制约。既然这样,我们要怎样做才能发明创造出超越我们自身局限和缺点的人工智能,使其具有完美的思想和道德观?换言之,道德上有缺陷的人类如何能设计出道德上完美正确的未来智能机器人?

我们把视角再次转到世界上最好的围棋“选手”AlphaGo 身上。作为在第 37 手技惊四座的人工智能程序,AlphaGo 告诉我们人工智能可以超越我们教授它的知识,进而做到更好。这样一来,也许人工智能可以教会自己更优秀的道德理性。人类可以训练机器人正确的应对一些简单的刺激,以此作为人工智能自我提升的开始。但不管怎么说,机器最终还是要依靠自己完成对人类的超越。目前,世界上最复杂精密的机器人已经开始接受其他机器或者其自身其他部分软件的训练。人工智能会将自己的推测与其它人工智能的推测进行比对分析。在得到正确的反馈后,它们便会对自我进行重新设置。在这样的过程中,人工智能便实现了“成长”。