怎么办?人工智能可能引发公众的强烈反对

赞助本站

研究人员表示,有关社会、伦理和政治方面的担忧正在加剧,人工智能急需更多监督。科技行业的专家警告称,人工智能(AI)的新兴领域可能会引发公众的强烈反对,因为它逐渐落入私营企业之手,威胁到人们的工作,并在没有有效监管或监管控制的情况下运行。

在有关人工智能的新系列报道中,行业内专家们强调了这项技术的巨大潜力,该技术已加快科学和医学研究的步伐,还使城市运行更加顺畅,提高企业效率。

尽管人工智能革命前途似锦,但在缺乏监管机构、立法机构和政府监管的情况下,人们对该技术的发展有着越来越多的社会、伦理和政治方面的担忧。研究人员告诉《卫报》:

人们的强烈抵制可能会减少人工智能带来的好处。

人才流失到私营企业不利于高校发展。

专业知识和财富集中在少数几家公司手中。

这个领域存在着巨大的多样性问题。

今年10月,南安普敦大学计算机科学教授温迪·霍尔爵士联合主持了一份有关英国人工智能行业的独立评估报告。报告发现,人工智能有可能在2035年之前为经济增收6300亿英镑。但她说,要想获得回报,这项技术必须造福社会。

她说,“人工智能将影响我们基础设施的方方面面,我们必须确保它有利于我们,必须考虑得面面俱到。当机器可以为自己学习和做事时,我们人类社会面临的危险又是什么?这很重要,能够理解这些问题的国家将成为下一次工业革命的赢家。”

如今,开发安全、合乎伦理的人工智能的责任几乎完全落在了建造它们的公司身上。然而目前并没有测试标准,也没有任何组织能够监控和调查任何人工智能作出的不好决定或发生的事故。

纽约大学当代人工智能研究所的联席主任凯特·克劳福德说:“我们需要有强大的独立机构,以及专门的专家和知识渊博的研究人员,他们可以充当监督者,让大公司对高标准负责。这些系统正在成为新的基础设施,重要的是,它们既要安全又能保证公平。”

许多现代的人工智能都是通过在海量数据集中经过训练后再做出决策。但是,如果数据本身包含了偏见,那么这些数据会被人工智能继承和不断重复。

今年早些时候,一个用来解析语言的人工智能被发现显示了性别和种族偏见。另一个则是用于图像识别的人工智能,它将厨师归类为女性,即使是在给秃顶男人拍照时也是如此。许多其他机构,包括在警务和囚犯风险评估中使用的工具,已被证实有歧视黑人的倾向。

该行业存在严重的多样性问题,部分原因归结于人工智能歧视女性和少数族裔。在谷歌和脸书(Facebook)公司,五分之四的技术员工是男性。白人男性在人工智能领域占据主导地位,开发出了只针对男性身体的健康应用,将黑人称为大猩猩的照片服务,以及无法识别女性声音的语音识别系统。霍尔说:“软件应该由多元化的员工来设计,而不是普通的白人男性,因为我们不论男女老少、种族背景,都会成为用户。”

测试不佳或出现使用故障的人工智能也同样令人担忧。去年,当特斯拉一款Model S的自动驾驶汽车的自动驾驶系统由于没能看到一辆卡车穿过高速公路时,导致了车内的美国司机死亡。美国国家运输安全委员会对特斯拉这起致命车祸进行了调查,批评特斯拉发布了一套缺乏足够防护措施的自动驾驶系统。该公司的首席执行官埃伦·马斯克是对人工智能安全与监管最为积极的倡导者之一。

然而,随着社交媒体在英国脱欧公投和2016年美国大选的准备阶段的使用出现了严重的问题,使用人工智能系统来操纵民众引发了越来越多的担忧。新南威尔士大学人工智能教授托比·沃尔什说:“一场技术军备竞赛正在进行,就看谁能影响选民”。他最近写了一本关于人工智能的书,名为《机器人的梦想》。