AI报告:人工智能究竟对人类有何影响

  建议:在打造AI系统的时候,受影响者的意见应该被听取。AI应由各方共同设计以免有失公允和太过激进。

  7、问题:AI的研究主要集中在电子技术上,对于人性方面问题的关注常常不足。在未来,计算机科学领域的成员将益加呈现同质化和单一化对特点,这不利于AI开发者的眼界和经验,进而影响到AI产品的打造。

  建议:AI研究员和开发者应该尽量多元化,开发人员的多样与多元也会带来更丰富纷呈的AI产品。未来AI领域应该多多支持跨学科研究,从而使得AI系统能够融合电子计算、社会科学以及人文气息。

  8、问题:现有的道德准则已经不能应对AI在现实中所面临问题的复杂性。(比如在医疗、执法、犯罪判决以及劳务等等)同时,在大学里的计算机课堂上,尽管这些理工课程也逐渐开始重视道德教育,然而并未彻底贯彻到实践中。

  建议:同美国人工智能协会(AAAI)、美国计算机协会(ACM)以及电器和电子工程师协会(IEEE)这些专业机构进行合作,推动产生可以面对新形势的道德准则。同时在学校课堂上贯彻落实这些新道德准则的教育。每个有志于计算机科学的学生在专业课之外也应接受公民权利、自由等道德教育。相应的,那些有AI渗入的领域(比如医疗场所)的从业人员也应该对这些新道德标准有所知悉。

  目前关于人工智能的四个关键性问题

  我们现在将对目前关于人工智能的四个关键问题进行深入探讨,为读者提供一个了解业内专家见解以及建议的机会。相关探讨包括每个关键问题所面临的挑战、机遇以及可采用的干预措施。

  1.社会不公

  人工智能系统如何造成偏见以及歧视等社会不公现象?

  人工智能系统在高风险决策领域的作用越来越重要——从信贷、保险再到第三方决策以及假释问题。人工智能技术将代替人工决定谁会获得重要机遇,而谁又将被抛弃,由此将会引发一系列关于权利、自由以及社会公正问题。

  有些人认为人工智能系统的应用有助于克服人类主观偏见带来的一系列问题,而有些人则担心人工智能系统将会放大这些偏见,反而会进一步扩大机会的不均等。

  在这场讨论中,数据将会起到至关重要的作用,引发人们的强烈关注。人工智能系统的运行往往取决于其所获得的数据,也是这些数据的直观反映。其中也包括这些数据的来源以及收集过程中的偏差。从这方面来讲,关于人工智能的影响是与相应的大数据技术密切相关的。

  从广义上讲,数据偏差有两种形式。第一种是采集的数据客观上不能够准确反映现实情况(主要归因于测量方法的不准确;数据采集不完整或过于片面;非标准化的自我评价以及数据采集过程中的其他缺陷)。第二种在数据采集的过程中主观上存在结构性偏差(诸如在关于职业数据的采集中有目的性地通过主观性的重男轻女来预测职场成功率)。前一种的数据偏差可以通过“净化数据”或者改进数据采集过程来加以解决。但后一种则需要复杂的人工干预措施。值得注意的是,虽然有很多机构都为解决这种问题做了大量的工作,但对于如何“检测”数据偏差尚无定论。

  当采集的数据存在上述偏差时,用这种数据所训练的人工智能系统也会存在相应偏差,其产生的模型或者结果不肯避免的会复制并放大这种偏差。在这种情况下,人工智能系统所作出的决策将会产生差别效应,从而引发社会不公。而这种不公平要比人为偏见和不公隐晦的多。

  在以风险控制为主导的行业中,随着人工智能系统的广泛应用,导致人与人之间的细微差别异化对待等现象显著增加,在保险以及其他社会担保行业尤为如此。人工智能系统的应用能够使公司更加有效地通过“逆向选择”来识别特定群体以及个人,从而有效避免风险。

  诸如在医疗保险领域,人工智能系统会对投保人的特征以及表现行为进行分析,并对那些被识别为特殊疾病或者是未来发病率高的投保人收取更多保费。在这种情况下,对于那些健康状况不佳且经济能力差的人群尤为不利。这就是为何批评者经常会指责称,即便人工智能系统的预测准确,保险人行为理性,但效果却常常是带来负面影响。

  保险业的竞争或许会加剧这种发展趋势,最终人工智能系统的应用或许会加剧这种不平等性。当然,相关反歧视法律法规中的规范性原则能够为解决这些问题带来帮助,虽然这种方法可能不是最有效、最公平的。此外,对人工智能系统进行设计和部署也很重要,但现有的法律框架或许会使相应研究受到阻碍。诸如如计算机欺诈和滥用法(CFAA)和数字千年版权法案(DMCA)都对这方面研究进行了限制,因此当下也需要对现行法规进行改革,确保必要的研究能够顺利进行。