云创发布DeepRack深度学习一体机

  在与李世石大战之后,AlphaGo全新升级,并把下一个目标锁定为九段棋手柯洁,这注定又将是一场划时代大战。在这里,“升级”可以理解为深度学习的成果,而深度学习已经成为人工智能时代的入口。

 

  谷歌DeepMind旗下全新升级的AlphaGo,Facebook的人工智能计算服务器Big Sur,越来越“聪明”的IBM人工智能Watson,微软的“深度残差学习”,科大讯飞的“语音深度学习”——国内外行业巨头步伐异常统一,纷纷在语音识别、图像识别、自然语言处理等领域拓展深度学习版图。

 

  简单地说,深度学习通过构建深层神经网络,模拟人类大脑的工作原理。如图所示,深层神经网络由一个输入层,数个隐层,以及一个输出层构成。每层有若干个神经元,每个神经元模拟人类的神经细胞,而结点之间的连接模拟神经细胞之间的连接。

  

 

  深度神经网络的结构

 

  可以将深度学习理解为大脑的“构建”,虽然潜力无限,但是门槛不可谓不高。

 

  首先,深度学习网络模型复杂,计算量大。以DNN(深度神经网络)为例,它需要模拟人脑的计算能力,而人脑包含100多亿个神经细胞,这要求DNN中神经元多,神经元间连接数量也相当惊人,如此庞大的计算量需要高性能的硬件以及软件系统提供支撑。

 

  一方面,在深度学习系统中,GPU是提升计算性能的关键选择,代码写入并读取变量、执行指令、启动函数调用等都是GPU把控之事。当前CPU只有4核或者6核,模拟出8个或者12个处理线程来进行运算,但是普通级别的GPU就包含了成百上千个处理单元,这对于多媒体计算中大量的重复处理过程有着天生的优势。即使如此,并不表示所有GPU都适合深度学习,开发人员需要根据项目需求做出GPU选择。