机器人怎么讲道德?

AJung Moon 目前是英属哥伦比亚大学人机交互专业的博士生,也是Open RoboEthics Initiative团队的一员。他们的任务是利用开源Willow Garage二代机器人,设计符合人类礼仪行为的情境。她给自己的推特取了个名字叫@RoboEthics(机器道德),相信机器人可以通过对是非的判断来提高道德行为水平。

该情境设计非常简单。机器人的体积比较大,电梯的空间有限,因此假设电梯只能在同一时间内搭一名乘客,首先预设机器人传递普通和加急信件两种任务,机器人需要和共同搭乘电梯的研究人员对话,做出合理的请求或是退让。Moon和团队成员设计了以下四种反应:

做出退让并回答“您先请,我搭下一趟电梯”。

单纯站在电梯旁,一言不发。

请求先搭电梯,“我有一份重要的信件需要传递,请让我先走,麻烦您先出来一下”。若请求成功,在电梯内人员出门后,立即进电梯。

或者再确认,电梯内的人员是否着急,若是,放弃请求,请他们先走。

从常理的角度出发,我们不难判断一言不发的动作最没有礼貌,询问对方是否着急用电梯后再做出判断最合乎常理。简而言之,当机器人有加急的任务,却一言不发地站在你的旁边,呆呆地看着你是最不让人舒服的;反过来,如果任务不着急,那么机器人还是应该在对话后,请其他人先走。

如果在对话后,电梯里的人不愿意出来怎么办呢?那也没办法,机器人总不能把那人拖出来,所以只能等下一趟。团队也故意设计了一个搞笑片段。机器人很鲁莽,即使碰到坐着轮椅的人,也会不管三七二十一自己先上,坐在轮椅上的人肯定会认为这个机器人很没有礼貌。

团队成员Moon发表了她的研究成果,旨在让机器人的行为更人性化、更符合常见的沟通模式, 即使机器人无法分辨对错,也需要植入“假装”小聪明的程序。本田ASIMO的设计师也解释说,为了让ASIMO看起来更像人,在给客人送茶倒水之前,机器人会故意在倒完茶后暂停一会,环顾四周或客人,假装他也明白社交礼仪。

机器人或许不会从根本上拥有判断是非的直觉,但通过模拟人们的礼仪行为,相信它们也能成为德智体美劳全面发展的机器人。

Via:Mashable