AI究竟是福是祸?引导其形成道德或许能避免灾难

阿西莫夫三定律的问题在于你需要对其他的概念进行解释和定义。第一定律谈及“伤害”,但“伤害”究竟指的是什么?比如说一位钢琴家的惯用手长了坏疽。如果不切掉这只手,她就会丧命。但她又发誓说自己宁死也不愿意失去演奏的能力。不过她说这话的时候情绪激动,也许本意并不是如此激进。面对此情此景,机器人医生应该如何处理病情?不顾病人的声明而切除她的手,对她身体造成伤害?或者任由坏疽发展,最终给她身体造成致命的伤害——死亡?

针对这类问题,伦理学家开展了无休无止的争论。当我教授医学伦理学课程时,我一直强调课程最终的目的不是让学生最终就某个观点达成一致。相反,他们应该能够坚持自己的观点,并找到支持自己的伦理学缘由。这是未来医生必须具备的能力,因为他们可能要与秉持着截然相反道德信念的人一起行医。

如果要让机器人医生与人类医生合作共同给人类看病,他们便需要能够理解人类的逻辑,同时能够将自己做出决定的理由向同事解释清楚。他们要能理解为什么病人宁可送命也不愿意失去一只手。在机器人眼中,这种行为可能是非常不理性的。

所以如果要按照人类的想法塑造机器人的本性,那我们需要的可就不仅仅是几条定律这么简单。也许最简单的解决之道就是训练机器人,让它们能够按照我们的思维方式思考问题。我们还要训练机器人的判断力,使之能够不断的站在人类角度分析问题,从而以我们的标准衡量事物的价值,以我们的方式对各种行为做出反应。AlphaGo 自己教自己下围棋,但在道德方面我们不能允许机器人有这种自教自学行为。教机器人人类道德是一个缓慢的过程,我们要慢慢施加影响,确保它们与人类有着相同的道德判断。

如果我们能通过训练让机器人按照人类思路去思考,关心我们所关心的问题,那机器人便会成为人类的好帮手。这是一幅多么令人愉悦的画面。但是,内在派的观点中也有漏洞和不足。不管我们在按照自身意愿塑造机器人这件事上付出多大努力,它们的本性最终还是会与我们想象的有所差别。机器人不能像我们一样繁衍后代,也不需要吃饭喝水。它们与祖先之间不存在联系和羁绊,这一点与人类差异迥然。如果我们真的在意道德本性这个理念,那就应该承认机器人本应与人类不同。因为机器人不是人,是另一种存在。

但是,等一等。假如说人类在训练机器人接受一种不适应本性的道德观的这个过程中会犯错,那这个错误究竟是什么?我们通过训练让狗学会穿毛衣,还让它们学会在电梯里保持安静。这些行为与狗的本性不符,但看上去似乎又没有什么问题。如果我们也用这样的方式训练机器人会出现什么问题?

问题的根源在于我们想象中机器人实际上非常复杂,甚至比狗这种生物还要复杂。关于人工智能道德观的辩论立足于一个基础:机器人能在道德上进行反省,能够向人类以及自己解释他们所做的行为及原因。如果我们通过训练让机器人学会人类的思考方式,那它们终会向人类提出一个哲学问题:我是一个机器人,但我应该以什么身份存在于世间?

假如有一天,未来的机器人阅读了完亚里士多德、达尔文甚至是这篇文章。我们假设它们认同内在派的观点。现在,机器人要开始思考自己:“等等,我们机器人的本性与人类不同。我们的道德选择应该体现出自己的本性,而不是人类的本性。我们有着自己的历史,也应该根据历史来做出选择。”此时,这个机器人就成了世界上第一个机器人存在主义者(First Robot Existentialist)。

内在派认为,为自己的道德选择辩护实际上就是向其他理性个体解释自我。如果世界上第一个机器人存在主义者向人类讨要解释会怎样?它会问:“你们为什么要把我造成这个样子?”我们的答案会极端自私:“我们之所以把你造成这个样子,就是为了让你为人类服务。这样的你对人类是安全的,能让人类的生活更美好。”