关于人工智能法律政策问题的思考

近年来,人工智能获得了各界的高度关注和快速发展,其在智力游戏、自动驾驶、语音和图像识别、翻译等诸多领域取得重大突破,谷歌、Facebook、微软等收购人工智能创业公司的速度,已经快赶上这些公司创立的速度。

    各国政府(比如美国、英国等)以及一些社会公共机构(比如UN、IEEE等)也开始积极关注人工智能的法律、伦理、社会、经济等影响,密集出台战略文件和报告。借鉴发达国家和国际社会已有经验和案例,对中国企业预判后续可能面临的前瞻性法律政策问题有所裨益。     人工智能应用中面临的法律政策问题     1、图像识别领域     图像识别领域面临的用户隐私保护和种族歧视等问题突出。     一方面,图像识别软件的不包容和歧视的问题已经出现,比如,谷歌的图片软件曾错将黑人的照片标记为“大猩猩”, Flickr的自动标记系统亦曾错将黑人的照片标记为“猿猴”或者“动物”。     另一方面,社交媒体的图片标签或者自动标记功能可能引发关于用户隐私的争议,比如,Facebook的图片标记功能利用人脸识别技术就图片中的人像向用户进行“标签推荐”,这被认为是在未获用户明确同意的情况下收集用户的“脸纹”等生物识别信息,违反了美国伊利诺伊州的《生物识别信息隐私法》,而被用户提起隐私侵权诉讼,谷歌等企业的类似技术也引发了类似诉讼。因此,在欧盟、加拿大等地区,Facebook不得不暂停这项技术。     2、语音识别领域     语音识别领域也已经出现性别和种族歧视、伦理以及声音权保护等问题。基于自然语言处理的语音识别正在快速发展,如亚马逊的Alexa、苹果的Siri、微软的Cortana等。但这一领域却被诟病为已经产生了严重的性别歧视问题。     比如,2016年3月23日,微软公司的人工智能聊天机器人Tay上线。出乎意料的是,Tay一开始和网民聊天,就被“教坏”了,成为了一个集反犹太人、性别歧视、种族歧视等于一身的“不良少女”。于是,上线不到一天,Tay就被微软紧急下线了。类似的伦理问题已经引起诸多关注,批判硅谷正在将人类社会既有的种族歧视、性别歧视等问题带入机器学习的声音逐渐增多。     同时,在模拟人声方面,也出现声音是否受法律保护以及怎样保护的问题。比如,已经出现使用名人声音进行人工智能语音训练从而实现智能模仿他人声音效果的业务形态。     在国内,对于这种所谓的“声音权”并无明文规定,相关学者认为可以通过设立肖像声音权、声音语言权、形象权、独立声音权等方面进行保护,但尚未达成一致。在国外,对声音进行明确法律保护的国家或地区也较少,比如,澳门、捷克斯洛伐克和美国加利福尼亚州等为数不多的国家或地区,美国也有将其作为商品化权进行保护的观点,相关的立法动态后续还需要继续保持关注。     3、广告投放领域     广告投放领域面临的问题主要集中在用户数据的收集和使用、算法歧视等方面。算法歧视早已引起人们关注,在互联网广告领域同样存在这一问题。     比如,研究表明,在谷歌搜索中,相比搜索白人的名字,搜索黑人的名字更容易出现暗示具有犯罪历史的广告。再比如,在谷歌的广告服务中,男性比女性看到更多高薪招聘广告,当然,这可能和在线广告市场中固有的歧视问题有关,广告主可能更希望将特定广告投放给特定人群。     此外,基于用户自动画像和自动化决策的的精准广告投放正日益流行(自动化决策在信贷、保险等领域的应用也在加强),其中涉及用户数据的收集使用、对用户保持透明以及歧视等问题。     各国对人工智能法律政策问题的探索     1、在知识产权方面     人工智能中新产生作品的权利归属问题较为突出。欧盟法律事务委员会建议欧盟委员会就与软硬件标准、代码有关的知识产权提出一个更平衡的路径,以便在保护创新的同时,也促进创新。同时,对于计算机或者机器人创作的可版权作品,需要提出界定人工智能的“独立智力创造”的标准,以便可以明确版权归属。     此外,国际标准化组织IEEE在其标准文件草案《合伦理设计:利用人工智能和自主系统(AI/AS)最大化人类福祉的愿景》中也提出,应对知识产权领域的法规进行审查,以便明确是否需对AI参与创作的作品的保护作出修订,其中基本原则应为,如果AI依靠人类的交互而实现新内容或者发明创造,那么使用AI的人应作为作者或发明者,受到与未借助AI进行的创作和发明相同的知识产权保护。     2、在隐私和数据保护方面     在人工智能领域,欧盟认为除了应该按照必要性原则和比例原则等保护隐私和数据之外,还应该有更多的标准、规范。     欧盟法律事务委员会建议,在针对人工智能和机器人制定政策时,应当进一步完善通过设计保护隐私(privacy by design)、默认保护隐私(privacy by default)、知情同意、加密等概念的标准。当个人数据成为“流通物”使用时,在任何情况下都不得规避涉及隐私和数据保护的基本原则。     其实,在2016年通过的《一般数据保护条例》(简称GDPR)中,欧盟就加强了个人隐私和数据保护,其中关于用户画像等自动化决策的规定将对基于大数据的互联网行业实践产生重大影响,即用户有权拒绝企业对其进行画像等自动化决策,而且用于用户画像的数据不能包括人种或者种族起源、政治意见、宗教或者哲学信仰、商会会员、基因、生物特征、健康状况、性生活等特殊类别的个人数据。这将对个性化服务的提供产生重大影响。     3、在标准化建设方面     国际社会将推进标准化工作作为人工智能发展的重要抓手。     欧盟法律事务委员会建议欧盟委员会应继续致力于技术标准的国际统一,欧盟层面,需要建立相应的标准化框架,以免造成欧盟各成员国之间标准的不统一以及欧盟内部市场的分裂。     此外,IEEE于去年年底出台的指南文件中也呼吁各方形成一系列标准,用于指导人工智能研发和应用。     美国在去年出台的涉及人工智能、自动驾驶等的多份报告和政策如《联邦自动驾驶汽车政策》、《美国国家人工智能研发战略计划》、《为人工智能的未来做好准备》等中,也要求加强并统一技术、数据使用、安全等标准建设,避免造成碎片化的问题,影响人工智能研发和应用。     4、其他法律政策方面     (1)算法决策公开透明化     实现算法决策的透明性和公平性是国际社会的一个主流关注点。基于机器学习的自主或者自动化的决策系统日益被广泛应用在推荐引擎、精准广告、信贷、保险等诸多领域,甚至政府部门也利用自动化决策来处理给犯罪人定罪量刑等公共事务,然而算法模型的设计都是编程人员的主观选择和判断,所使用的数据也可能是不相关和不准确的,这就可能导致自动化决策的结果影响个人权益,或者对某些群体造成歧视。     确保算法及其决策可以有效接受中立第三方或者监管机构的审查,实现算法决策的透明性和公平性,是国际社会的一个主流关注点。IEEE提出,应当为个人提供异议和救济的渠道。欧盟的GDPR则赋予个人反对自动化决策的权利,意味着算法决策需要透明化。     (2)防止歧视和偏见     国际社会日益重视在人工智能领域对数据的收集和分析进行规范,以防止歧视或偏见。     美国联邦贸易委员会(FTC)在2016年1月发布的《大数据:包容性工具抑或排斥性工具?》(Big Data: a Tool for Inclusion or Exclusion?)特别关注大数据中的歧视和偏见问题,对于消费者,一方面需要确保公平机会法律得到有效执行,另一方面防止大数据分析中采取歧视等不公平行为;对于企业,FTC建议企业考察以下问题:数据集是否具有代表性,所使用的数据模型是否会导致偏见,基于大数据进行预测的准确性如何,对大数据的依赖是否会导致道德或者公平性问题。     其实,早在2014年5月,美国白宫就发布了《大数据:抓住机遇,保存价值》中呼吁重视自动化决策中的歧视问题,要求民权和消费者保护机构及FTC等政府机构加强专业知识,调查并解决潜在的歧视问题。