AI究竟是福是祸?引导其形成道德或许能避免灾难

2016 年三月,微软发布了能在 Twitter 上与人聊天的人工智能程序 Tay。这是一个能力有限的人工智能。通过与众多年轻的千禧一代交流,Tay 拥有学会像年轻千禧一代一样说话风格的能力。然而,互联网存在大量的负面信息。上线几小时之后,Tay 就学会了赞美希特勒的照片,也能够不假思索的对别人进行带有种族歧视意味的诋毁。微软不得不关闭程序并对外道歉。一周之后,Tay 莫名其妙的再次出现在网络上。这次她用了比上次要长不少的时间才学会说“大麻”这个词(Tay 发推特称:“我正在警察面前抽大麻!”)。在这之后,微软选择永久性关闭 Tay 程序。

Tay 的惨败给了人类深刻的教训。这告诉我们,让不断发展学习中的人工智能接触互联网是一件风险极大的事情(很多人类父母也赞同这一观点,认为互联网会教坏自己的孩子)。但是,Tay 也证明人类在面对机器学习过程中的冒犯行为时不会忍气吞声。回顾事件的发展过程,Tay 也许没有踏上步入天赋派所谓天堂的正确道路,从而失去了与柏拉图交流关于什么是永恒正义这种问题的机会。但是如果她的确处于发现道德真理的正确道路上,我们又如何才能知道呢?

也许内在派的观点能够发挥更好的作用。要知道,内在派否定了道德是“超越人性而客观外在”这样的观点。相反,他们坚持认为道德只是人类本性各个方面的理想化表现。如此一来,一个有道德的人就只是坚持做自己,做了人类这样实体恰好应该做的事情而已。在内在派看来,不同实体可以拥有不同类型的道德准则。

从古希腊的亚里士多德到大卫·休谟(David Hume)和查尔斯·达尔文(Charles Darwin)这样的后世思想家,内在派的观点一直传承至今。最近数十年来,内在派观点的最典型代表人物当属已故英国哲学家伯纳德·威廉姆斯(Bernard Williams)。在 1982 年发表的论文《整体宏观角度》(The Point of View of the Universe)中,威廉姆斯尖锐的批评了西奇威克的公平理论。在威廉姆斯看来,考虑到自己人类的身份、特定的生物学本性以及文化本性之后,我们应该用自己的方式生存在这个世界上。道德就是与这个问题有关的东西。对于我们这样的实体来说,什么样的选择才是理性的?

内在派的观点并不是过分简单化的道德相对主义。该学派的哲学家认为,我们的生物学背景和文化背景给我们提供了无法躲避的道德出发点。但是,我们也必须针对这个出发点进行仔细的思考。比如说很多文化传统重男轻女,而且将其视作理所应当而对此不做任何听上去让人觉得可信的辩白。大部分人都不想过着矛盾的生活,但我们可能在今天要做这件事,明天就要去做另一件事。因此,我们会尝试着解决这种矛盾。内在派观点的核心便是如此:所谓道德反思,就是发现混乱的人类本性然后解决问题,努力让它自己和他人相信人性能够保持一致而不存在矛盾之处。

但是智能机器人应该怎么办?它们可不具备人类的生物学本性和文化背景。机器人应该不会怀孕,不会经历出生这样的过程,不会衰老,也不会自然死亡。如此一来,它们的经历便于人类社会的基本元素格格不入。如果任由它们自己发展,机器人关注的东西可能会与人类大相径庭。到时候,它们自己内在的道德准则想必可以反映出这种差异。

也许我们不应该对智能机器人的本性如此消极。毕竟人类才是它们的创造者。我们能够慎重而有意的塑造它们的本性,从而确保智能机器人尽可能与我们相似。关于机器人道德观的建议中,最早的一种观点就想要实现这种目的。上世纪四十年代,科幻小说作家艾萨克·阿西莫夫(Isaac Asimov)创造了机器人学三定律,试图以此借此让机器人为人类所用,并尽可能降低它们所会带来的危险。第一定律很简单:机器人不得伤害人类个体,也不得目睹人类个体将受伤害而袖手旁观。其余两条定律要求机器人服从人类命令,允许它们在遵循第一定律的前提下尽可能保护自己。在阿西莫夫看来,我们设计机器人时就应该带有目的性,确保所有的机器人存在的意义就是为人类服务和保护人类。如此一来,机器人的本性就成为了人类本性的附属品。以内在派观点分析,它们的道德观也自然是有利于人类利益的。