把"AI威胁论"植入Musk大脑的那个人,现在反水了

Toby Walsh(新南威尔士大学人工智能教授):“伊隆·马斯克的言论危言耸听了。我最近对300名领先的AI研究者做了一次调查(论文在这:https://arxiv.org/abs/1706.06906),他们中的绝大部分都认为,要让机器变得和人一样聪明至少还需要50年时间。因此这不是一个需要立即注意的问题。”

“不过伊隆在一件事上说对了:我们需要政府现在就开始对AI进行管控。然而,需要开始管控的是今天我们所用的傻瓜人工智能,比如带有偏见的算法、开发“杀手机器人”的军备竞赛、科技公司对于个人、医疗数据隐私的威胁。”

李飞飞(斯坦福人工智能实验室主任):“独立的机器价值观并不存在,机器价值观就是人类的价值观。如果人类真的担心一种技术会对未来造成的影响,AI、能源或是其它什么东西,那就让各行各业都参与到这项技术的开发和应用中来。

“不管是斯坦福、谷歌还是特斯拉,每个技术专家都有责任去开发那些‘善意’的技术,来让我们的社会变得更好。作为一名AI教育者和技术专家,我最大的愿望就是能在这个领域看到更多的多元性和内涵,不管是在AI的发展上,还是在AI观点的传播上。”

机器人领域的知名大牛、MIT计算机科学与人工智能实验室的创始主任Rodney Brooks,在接受TechCrunch采访时同样谈到了这个问题。

“有很多人都声称AI是人类存在的威胁:斯蒂芬·霍金、马丁·里斯爵士……在没有亲身在AI领域工作的情况下,这样的想法很普遍。我们能够理解,对于那些不在AI领域工作的人,要通过产品级别的东西来弄明白一些问题有多么困难。”

这就是包括伊隆在内的那些人所犯的错误。当看见一个人把某件任务完成得很好,我们能够理解这其中所需的能力——我认为,他们把机器学习当成了同样的模式。当人们看到DeepMind开发的AlphaGo接连战胜韩国和中国的冠军时,他们会想,‘哦天啊,机器太聪明了,它几乎能做任何事情!’但三周之间我就在DeepMind位于伦敦的总部,他们自己都承认,人们很容易就会对这件事产生误解。”

对于马斯克提到的监管问题,Brooks接着怼道:“如果你现在要有一个监管措施,要么它会被用到什么东西上改变一些事情,要么它根本用不到任何东西上。如果它用不到任何东西上面,你要这监管有毛用?告诉我,你到底想改变什么行为,伊隆?顺便,我们还是谈谈对特斯拉无人车的监管吧,这才是真正的问题。”

当然,也不是完全没人同意马斯克的看法。美军空军四星上将Paul

Selva在回答关于美国国防部一道指令的相关问题时,就表达了对马斯克的支持。这道指令要求,当自动机器能够杀死敌军士兵时,人类操控者必须介入这一决策过程。将军说,在战争中,军队在恰当的位置坚守道德准则非常重要,否则我们可能会同胞放出了一群自己控制不了的机器人。

对于马斯克的观点,Selva说:“在真正看到机器人到街上杀人之前,人们都不会知道怎么应对。因为它看上去太虚无缥缈了。”

“在我看来AI就属于这种非常罕见的情况,我们需要主动、提前去监管,而不是被动地去反应。在我们需要对AI的监管进行反应时,已经太晚了。”

马斯克还是那个马斯克。无论是支持还是反对,对这些言论,他没有做出任何回应——在最近的推特上,他宣布自己刚刚拿到了政府对于在地下建造连接纽约、费城、巴尔的摩与华盛顿的超级高铁Hyperloop的口头许可。

实现之后,从纽约到华府只需要29分钟。

登陆|注册欢迎登陆本站,认识更多朋友,获得更多精彩内容推荐!