美媒:人类担心AI统治世界?10年内没啥可怕的

问:如何才能让顶级AI系统正确回答问题?

埃齐奥尼:通常情况下,语言中都隐藏着各种线索。最成功的系统可以从科学文本和其他公共资源中收集信息,然后利用调节信息检索技术为每个多选问题确定最佳答案。举例来说,什么是最好的电导体:塑料勺、木叉还是铁蝙蝠?AI系统非常善于运用公式,可以在大量常见的文件中检测电、铁或导电之间的关系,可以很轻松地给出答案。为此,有时候AI系统可以采取快捷方式,非常迅速地给出答案。之所以没有系统获得及格分数,我只能说这些系统都使用统计学进行猜测,而非仔细推理。

问:AlphaGo背后的DeepMind团队现在已经开发出新的AI程序,通过使用外部存储系统超越深度学习。他们的工作对创造更像人的AI有何影响?

埃齐奥尼:在移动深度神经网络领域,DeepMind依然是领跑者。这种特别贡献非常重要,但在推理方面却不算太大突破。现有的系统可以很轻松地完成类似任务,但这里涉及到神经网络如何通过例证学习执行任务的问题。总体来说,DeepMind迈出了一大步,但对于人类来说依然是一小步。

问:有人将深度学习、机器视觉和记忆等技术结合起来,以开发更完整的AI吗?

埃齐奥尼:这是个非常有吸引力的创意,实际上已经有许多类似研究。我在华盛顿大学担任教授时,就曾基于这个想法,利用互联网充当AI系统的数据库。我们建立了名为信息公开提取的技术,它可以为50亿个网页做索引,并从中提取语句,试图将它们变成机器可操作的知识。这台机器拥有超自然的能力,可以快速吸收这些网页和所有句子,问题是那些文本或图片上的句子很难吸收。人类大脑拥有不可思议的能力,计算机科学家们至今还未破解。这种能力可以映射出推理等反应。但是迄今为止,我们还么有找到机器能像人脑那样工作的机制。

问:你曾提及,要想达到人类水平,AI的研发至少还需要25年时间。你所谓的人类水平AI指什么,为何给出这样的时间框架?

埃齐奥尼:人类水平AI能够真正地理解自然语言、拥有人类智慧的广度、能够玩PokemonGo、走过街道等,这种多样性是人类智慧的标志,而我们今天能做的就是研发“狭隘的学者”,以便其能在某些方面表现更突出。至于25年的时间框架,我曾询问人工智能发展协会的朋友:计算机系统何时能在广义上变得像人类那样聪明?没人认为10年内能够实现这种假设,67%的人认为至少要到25年之后。25%的人认为永远无法实现。他们错了吗?你会选择相信谁,把握AI脉搏的人还是好莱坞?

问:为何如此多令人尊重的科学家和工程师警告称,AI可能灭亡人类?

埃齐奥尼:对于我来说,很难推测史蒂夫·霍金(Stephen Hawking) 或马斯克警告AI威胁的动机。我猜,谈论黑洞可能是非常无聊的,因为这是个缓慢进化的主题。但有一件事我要说,当他们谈论AI变得邪恶或引发潜在灾难性后果时,他们总会插入限定词,比如“最终”或“可能”。我同意这样的观点,如果我们谈论1000年后或无限未来,AI很可能导致人类灭绝。但我认为,这种长期讨论不该分散我们的注意力,我们应该更关注现实问题,比如AI与就业、AI与武器系统等。

问:鉴于AI存在的缺点,我们应该担心汽车制造商对无人驾驶汽车与日俱增的兴趣吗?

埃齐奥尼:我不是那些没有方向盘或刹车板的无人驾驶汽车的忠诚粉丝。鉴于我对计算机视觉和AI的了解,我对无人驾驶汽车感觉十分不舒服。但我是综合系统的支持者,比如当你在车上打盹时,AI能帮你刹车。人类司机和自动系统相结合可能比单纯的人类司机或AI驾车更安全。这很复杂,将新技术融入到人类日常工作与生活中同样不容易。但我不确信这种解决方案是否能有效。

问:谷歌、Facebook以及其他大科技公司近来联合推出了“人工智能造福人类和社会合作组织”,为AI研究设定道德和社会规范。对此你有何看法?

埃齐奥尼:世界上领先的科技公司联合起来思考这些事情是好事,我认为他们这样做是回应人们的担忧,即AI是否会接管世界。许多恐惧完全被夸大了。即使我们有了无人驾驶汽车,也不会立即造成破坏性影响。马斯科等人谈及的AI对人类生存威胁至少是数十年乃至数百年之后的事情。可是,目前有许多非常现实的挑战:自动化、数字化技术以及AI都在影响就业,无论是机器人还是其他技术,这非常令人担忧。无人驾驶汽车和卡车会大幅改善安全,但他们也会对依赖驾驶谋生的大量工人造成影响。这个新组织谈论的其他事情也存在偏见。如果AI技术被用于处理贷款或信用卡申请,它们能否法律或道德规范吗?