人工智能的歧视锅 究竟是谁给盖上的?

歧视并非人类社会特有,作为人类智慧的衍生物,人工智能领域如今出现的歧视问题,也需引起我们的关注。

歧视已涉及方方面面

种族歧视:微软在今年3月的Tay,一个人工智能聊天机器人。仅仅在 Twitter 火热 16 小时后紧急下线。Tay 作为人工智能,所以她会模仿人类的言语来回答其它用户的问题,在一天里,Tay 就被迅速“教成”了一位满口污言秽语的种族歧视者。谷歌有个照片应用,可以自动在电子相册中把标签分配到不同照片上,用户发现它会把黑人的照片归类为大猩猩。谷歌做出了道歉,表示它并不是故意的。

性别歧视:早些时候美国波士顿大学 Tolga Bolukbasi 和微软研究院研究团队发现,人工智能也存在着性别偏见。最近,谷歌的一款数据库中,就被人发现了其微妙的“性别歧视”现象,很多工作的搜索结果会自动与性别对应。比如,如果“女人”这个词经常和与家庭有关的词一起出现,那么“女人”这个概念就和“家庭”关联性非常高。

话题倾向性:Facebook曾遭遇批评称,该网站编辑对于新闻存在倾向性。Facebook表示:“在新版趋势话题中,我们将不再需要简单的趋势描述或摘要。我们的团队将更多地转向运营和技术工作。”

种种现象看来,机器学习也不是那么的完美,最起码的从人类身上是好的坏的全都吸收了。

人工智能歧视源于哪里?

其根源是人类让机器学习的“数据库”,即人工智能学习人类平日语言表达所固有内容形成的框架。简单来说,机器学习的原理就是用大量的数据对算法进行训练,从而达到理解人、学习人的目的。

人工智能由感知上升为对世界的理解,然后通过理解做出反应。在数据中不断学习、加深对于问题的理解,同时跟随数据的演进,才是关键,这也是大数据的重要意义,在数据的本质上,为人提供了解世界的可能性。

一旦将数据导入机器,机器就可通过消化和吸收生成对世界认知的模型。因为机器学习的目的本来就是理解人、模仿人,发展的过程中必定会带有人类社会里不那么光明的一面。可以说,在机器学习中存在着很多人类社会带来的偏见影响,所以在其表达上也会或多或少的受其影响而反映出这样或者那样的问题。

所以总结起来非常简单:我们从周围的世界学习到偏见,而AI则从我们这里学到偏见。Caliskan-Islam, Bryson, and, Narayanan写到,人工智能(AI)“就能够从显示历史不公正的训练数据中获得有害的偏见。”

而且,在智能汽车领域,研究人员意图将机器学习运用到人工智能车载系统上,并让其学会车主的驾驶习惯。但是,在看了上面的例子之后,我们还能对这样的应用放心吗?

人工智能歧视怎么破?

人工智能的伟大之处不在于让机器更伟大,而在于开发智能机器人辅助人,让每个平凡的人变得更伟大。先贤们虽然有远见,但是有些过分乐观,他们认为,人工智能的基本问题可以在一个夏天解决,但是这些问题至今没有完全解决。

即使不能指望根除,也要尝试着去化解,比如从以下的几个方面:

1、技术升级领域:这得从数据方面下手。如果想要好好的训练算法,研究人员就得剔除数据中的不良信息和隐藏的逻辑,再让算法分别识别。但从这里我们就可以了解到,这是对于研究人员而言,将是一项极其繁重、极具难度的工作。人类从诞生至今产生的歧视,会通过公式就能解决?

我们要么被迫学会信任人工智能,要么试图控制它们。因为当不透明的算法带来灾难时,我们再去要求解释可能就毫无意义了。

2、制度建设领域:我们要做的也许就跟欧盟的算法鉴别法案建议的一样:确保决策链中有人类的参与。当然,我们也无法确保人类不会有偏见,但是禁止深度学习和先进人工智能底层技术的研发是毫无意义的,我们可以引导它朝着有利于人类的方向发展。要做到这一点需要政治意愿的参与,需要有完善的制度、法律的规范,而不能只是让企业追逐自己的利益。