深度学习不是AI的未来

深度学习除了正在“非法”用于很多可解任务以外,它也不能被用于解决以下一系列问题:那些需要抽象推理来找出数据中哪些是公平,哪些是不公平的任务,以及那些需要解释其自行作出的决定的任务。即使对于那些不需要解释的任务,例如图像识别,深度学习看起来是最好的系统,但是也不如人类自己的眼睛保险。你可以轻而易举地使用“对抗样本”来让深度学习系统出错:为一张猫的图片加入一些不可见的噪点,机器就会把它误认为其他不相关的东西,比如一只狗。人类看到这样的图片仍然看得出它是一只猫,而深度学习会将其理解成一只狗或者其它黑客秘密嵌入的东西。这一点可以用到路牌上,来黑掉目前的自动驾驶汽车。新一代的人工智能系统必须克服这个问题才能取代深度学习。

著名深度学习库Keras作者François Chollet曾在一篇名为《深度学习的限制》的文章中说到:“深度学习唯一真正能成功做到的是使用连续几何变换,在给定大量人为标注数据的情况下将空间X映射到空间Y的能力。”这些空间拥有多重维度,不仅仅是三维的,这就是深度学习可以模仿毕加索的作画风格、在德州扑克中“Bluff”,以及在其他任务中模仿人类创造力的原因。但是对于外行人来说,这也许意味着:深度学习模型经过训练可以拥有识别猫的能力,而它本身不知道什么是猫;它可以是一个种族主义者,但不知道什么是种族主义。深度学习可以识别猫、具有种族主义、或赢得很多游戏,这一点是令人瞩目的,有时也有实际用途,但是深度学习无法解释为什么图中的动物是猫,或者一个决策是否带有种族歧视。

在《深度学习的未来》一文中,Keras的作者描述了一种只有“几何模块”的全新深度学习系统,它应该与尚未出现的“算法模块”和“元学习器”相关。这种系统可以显著增加能够解决的问题类型与数量,但因为深度学习模块的存在,这种方式仍然无法解释它的决策。这就像我们不能用言语解释大脑中计算出的某些感觉或图像。人类会解释一切事物,但大多数都是编造的、过于简单的理由,而每个人似乎都认为是准确的。机器的算法却总是被要求做到完全准确。有一些专家正在开发完全不包含深度学习的全新人工智能系统,但他们缺乏资金支持:现在所有人都只投资深度学习,而且这个风潮还将持续一段时间。没有人知道下一个人工智能大事件将会是关于什么的,但不太可能是深度学习2.0。

深度学习正被大肆炒作,因为尽管涉及利益冲突,目前也只有出售深度学习软、硬件的人在关于人工智能的访谈中发声。你可曾见过任何“自然智能”专家,如心理学家和哲学家支持过深度学习?

如果你并不急于学习人工智能,或者还没有时间,我认为你可以等待下一代人工智能系统的兴起然后直接学习它,跳过深度学习 1.0 时代。如果你急需学习人工智能,或者自己也有足够的时间,我建议你深入了解整个人工智能及机器学习领域的知识,而不仅仅是深度学习。