人工智能将毁灭人类?想法过于夸张却需谨慎对待

不过,温菲尔德教授承认,人类应该谨慎对待人工智能的发明和应用。在全球1000位签署呼吁“禁止在武器中应用人工智能”的科学家和工程师中,他是其中之一。他指出:“机器人和智能系统的研究开发,必须遵循极高的安全标准,因为我们需要安全的洗衣机、汽车和飞机。”然而,谁也无法预料未来的科技进步节奏,因为谁也无法保证全球每一个角落的每一位科学家都能持同样负责谨慎的态度。因此,在人工智能研发领域,的确存在不安定因素。

人工智能安全与否的一个至关重要里程碑就是人机对等,即“人工普通智能”。科学家正在努力研究评估,机器人何时会与人类一样拥有对等智能,以及这种对等对人类来说有何意义。牛津大学人类未来研究院院长尼克-博斯特罗姆教授,在新书《超级智能》中对未来人工智能继续发展所带来的潜在风险,表示了深深的担忧,并对此发出了警告。他援引了人工智能领域一些专家的最新调查成果。一项调查显示,有50%的可能计算机将在2050年具备相当人类水平的智能;另一项调查显示,有90%的可能在2075年机器人将具备与人类对等的智能。尼克-博斯特罗姆教授称,自己是一个不折不扣的人工智能支持者,因为借助人工智能可以应对气候变化、能源与新药物等问题。

然而,博斯特罗姆教授指出:“你不能把人工智能简单看作是一个很酷的工具,或者提高公司底线的小玩意儿。人工智能的确改变了人类的基本游戏规则,它是人类智能的最后一项发明,同时开启了机器人智能的新时代。”他假想了一幅画面,一个好奇的孩子拾起了一个没有引爆的炸弹,并且完全没有意识到危险性。他表示:“也许这一天还为期很远,但是我们真的像一个天真懵懂的孩子,完全没有意识到我们目前创造的机器人的力量——这就是我们作为一个物种所处的现状。”博斯特罗姆教授目前的研究项目得到了埃隆-马斯克的资金赞助,旨在探寻研究一种确保安全的共享方法。

斯坦福大学教授杰瑞-卡普兰在新书《人类不需要申请工作》中表示,机器人还可能有另一种隐蔽的接管形式,随着我们习惯信任这些智能系统,依赖它们进行交通、交友、定制新闻、保护财产、监控环境、培育和准备食材、教育孩子,以及关爱长辈,最后必定会有某些风险。问题的关键在于,我们能否及时有效地找到足够的安全防护措施。

登陆|注册欢迎登陆本站,认识更多朋友,获得更多精彩内容推荐!