为什么说伦理道德是AI面临的最大挑战之一?

图:在许多工厂,人类工人已经开始与机器人共同工作。有些人认为,这可能对人类的心理健康造成巨大影响

更重要的是,如果越来越多的自动化已经对就业造成巨大影响,这也会对人们的心理健康产生负面影响。生物伦理学家、奥巴马总统前医疗顾问伊齐基尔·伊曼纽尔(Ezekiel Emanuel)表示:“如果你思考下能让人们的生活变得有意义的东西,你会发现三件事:有意义的人际关系、强烈的兴趣以及有意义的工作。其中有意义的工作是定义某人生活的重要因素。在有些地区,当工厂关门时失去工作,可能导致自杀、药物滥用以及抑郁症危险的增加。”

结果,我们可能需要看到更多的伦理需求。麻省理工学院专供法律和道德的专家凯特·达灵(Kate Darling)认为:“公司正遵循市场激励机制,这不是坏事,但我们不能仅仅依赖于伦理道德来控制它。它有助于监管到位,我们已经在隐私以及新技术领域看到它的存在,我们需要找出应对的方法。”

达灵指出,许多大牌公司(比如谷歌)已经成立道德委员会,来监督AI的开发和部署。有人认为,这种机制应该被广泛采用。达灵说:“我们不想扼杀创新,但到达某种程度时,我们可能想要创造某种结构。”

到底谁能入选谷歌道德委员会以及它到底能做什么,这些细节还所知甚少。但在2016年9月份,Facebook、谷歌以及亚马逊成立了联合组织,目标是寻找应对AI带来的安全与隐私威胁的解决方案。OpenAI也是类似的组织,旨在开发和推广能够让所有人受益的开源AI。谷歌的诺维格说:“机器学习技术被公开研究,并通过开放出版物和开源代码传播非常重要,我们可以分享所有奖励。”

如果我们能够制定行业标准和道德标准,并全面了解AI存在的风险,然后建立以伦理学家、技术专家以及企业领导人为核心的监管机制非常重要。这是利用AI为人类谋福利的最佳方式。斯特兰说:“我们的工作是减少人们对科幻电影中机器人接管世界的担忧,更多关注技术如何能够被用于帮助人类思考和决策,而非完全取代它。”(小小)

登陆|注册欢迎登陆本站,认识更多朋友,获得更多精彩内容推荐!