智能菌 | 担心人工智能无法无天?我们要厘清它的伦理问题

编者按:媒体智能频道推出话题栏目《智能菌》,专注人工智能引发的社会热点,每周三、五推出。本文为第20期,讨论人工智能引发的伦理道德问题。转载请联系我们获得授权(公众号Smartman163)。

出品 | 媒体智能

策划 | 定西

编译 | 晗冰

现在人工智能堪称无处不在。从我们决定买哪一本书,到预定哪一趟航班,从是否能够找到合适的工作,到是否能够获得银行贷款,甚至于治疗各种疑难杂症,我们生活的方方面面都有着人工智能的影子。

关于我们的生活,很大程度上已经可以由人工智能这种复杂的软件系统来自动决策。毋庸置疑,在诸多科技界企业的推动下,人工智能技术在过去几年中取得了令人惊讶的巨大进步,而且业内很多人也相信人工智能会让我们的生活变得更好。

这种趋势不可阻挡,自然而然。整个社会也在为人工智能初创企业注入大量资金,而包括亚马逊、Facebook以及微软等高科技公司都针对人工智能开设了新的研究实验室。现在的软件就是人工智能,这种说法现在来看并不夸张。

很多人预计,人工智能对社会的冲击甚至要大于互联网。当被问及在这个千变万化的世界中,人工智能技术将要为人类带来何种影响时,很多技术专家毫无悬念地将问题集中在道德方面。

如何保证公平受益?

随着人工智能的普及,机器系统在高风险决策领域的作用越来越重要——从信贷、保险再到第三方决策以及医疗保险、假释等问题。未来,人工智能技术将代替人工决定谁会获得重要机遇,而谁又将被抛弃,由此将会引发一系列关于社会公正的问题。

譬如在生物医学领域,人工智能有着惊人潜力。人工智能系统有助于分析基因组学、蛋白质组学和新陈代谢组等的实验数据,收集分析电子病历和相应的健康数据。利用聚类分析技术能够帮助科学家判断新综合征,而模式识别技术能够将疾病与疗法相匹配。但是由于现有的医疗条件的不平衡,会导致少部分人才能够从先进诊疗技术中受益。

另一方面,人工智能,特别是机器学习技术的完善往往取决于训练数据。微软研究人员最近指出,当采集的数据存在偏差时,用这种数据所训练的人工智能系统也会存在相应偏差,其产生的模型或者结果势必会复制并放大这种偏差。在这种情况下,人工智能系统所作出的决策将会产生差别效应。而这种不公平要比人为偏见和不公要隐晦的多。

“现在的挑战是让每个人都能够从中受益。”——谷歌研究主管Peter Norvig

Peter Norvig是谷歌研究主管,也是机器学习领域的先驱人物。在他看来,大数据推动下的人工智能技术获得了前所未有的成功,但关键问题在于如何确保这些系统能够真正有效地改善整个社会,而不仅仅只是让那些控制人工智能系统的群体收益。“通过实践证实,人工智能在执行各种任务时非常有效,从图像识别,到自然语言理解和撰写,再到疾病诊断,人工智能都发挥出了重大作用,” Peter Norvig指出,“现在的挑战是如何确保每个人都能够从中受益。”

如何审查机器运行?

科学家之所以会担忧人工智能引发公平问题,最大的根源在于现有软件的复杂性意味着我们无法准确衡量人工智能系统为什么要这样做。现在的人工智能技术主要基于机器学习,但对于人类来说,其并不能真正搞清楚这种系统到底是如何运行的,所以我们不得不信任它。从根本上说,问题关键在于找到新的方法去检测和审查人工智能的运行。

哈佛法学院互联网法学教授Jonathan Zittrain则认为,关于人工智能潜在的危险是随着计算机系统变得越来越复杂,会使审查面临越来越多的阻碍。他指出,“我担心随着系统的复杂性和紧密耦合性越来越高,人类的自主性会越来越少。如果‘我们设定规则又忘记了规则’,我们会对系统如何进化感到懊悔。在那种情况下,甚至于伦理道德都无从考虑。”