AI伦理无法回避的5个问题:生物进化是否有方向?

编者按:本文是根据互联网进化论作者,计算机博士刘锋4月13日中国科学院科技战略咨询研究院与腾讯研究院在北京联合举办了“2017人工智能:技术、伦理与法律研讨会”上的发言内容整理形成。演讲的题目是“人工智能伦理规则制定与生物进化方向的关系”。

本文详细阐述了制定人工智能伦理需要回答的5个问题,提出“生物进化是否有方向“能否达成共识,将是未来制定人工智能(AI)伦理能否形成规范的关键。根据“2017人工智能:技术、伦理与法律研讨会”的演讲整理的研究报告如下:

通俗的说:伦理就是指“人与人以及人与自然的关系和处理这些关系的规则”,人类数千年的文明史,至今我们也没有一个统一的、标准的、明确的伦理体系,仅有一些大部分人承认的大体的原则。对于人工智能带来的伦理冲击,因为伦理问题的不完善和争议而变得更为突出。

泰坦尼克号(RMS Titanic,又称铁达尼号)是一艘奥林匹克级邮轮,于1912年4月处女航时撞上冰山后沉没。泰坦尼克号海难为和平时期死伤人数最惨重的海难之一。船上1500多人丧生。在逃生的过程中究竟哪个群体获得生命优先权。成为逃难过程中面临的重要的问题,美国新泽西州州立大学教授、著名社会学家戴维·波普诺在他的《社会学》一书中这样写道:“……不幸的是救生船不够。尽管很多人(超过1500人)遇难,但乘客注意遵守‘优先救助妇女儿童’的社会规范”,使得英国公众和政府面对这一巨大灾难,“可以找到一些安慰”——统计数据表明,“乘客中69%的妇女和儿童活了下来,而男乘客只有17%得以生还”。

《2012》是一部关于全球毁灭的灾难电影,于2009年11月13日在美国上映。电影讲述了主人公以及世界各国人民挣扎求生的经历,灾难面前,尽现人间百态。电影中当空军一号只能容纳一人登机时,美总统让物理科学家安全离开,自己留下时说到“一个科学家比几十位官员更重要“

火车正在急速行驶,不能急停。而正前方有一分叉路轨, 左边仍在使用, 右边已经停用(但是火车行驶上去.还是安全的) 。有5个小朋友在仍在使用的铁轨上玩,一个小朋友在停用的铁轨上玩。这时火车来了。按照火车原定路线,会驶向左边,撞上5个小朋友。如果驶向右边,只会撞上1个小朋友。假如你是扳道工,你会不会把火车扳向右边?

波士顿动力机器人在搬动箱子时,受到测试科学家的攻击,导致站立不稳摔倒,互联网的视频观众提出抗议,认为侵犯了机器人的权利。

“机器人不得伤害人类;机器人必须服从人类的命令,除非这条命令与第一条原则相矛盾;机器人必须保护自己,除非这种保护与以上两条原则相矛盾。”以上是著名科幻作家、“机器人学之父”阿西莫夫提出的“机器人三原则”,被后世无数的科幻小说及影视作品引用,被人们奉为经典。

在阿西莫夫眼中,机器人只是冷冰冰的机器,是为人类服务的工具。既然是工具,自然也就不需要什么权利,所以当“保护自己”与“不得伤害人类”、“必须服从人类命令”相矛盾的时候,机器人最基本的生存权都可以被毫不犹豫地牺牲。

但是,近年来,在机器人技术快速发展以及与人类关系日益密切的时代背景中,关于机器人权利问题的讨论受到越来越多的关注,学者和公众纷纷参与其中。