张建中:AI落地看好四个行业 5月发布新架构GPU

所以说你要想去把这个架构做得更好,只有一个方法就是去不停地优化它的架构,让它计算得更快。

GPU下一代架构NVIDIA我们都知道了叫Volta,那我们在接下来的5月份,会在美国发布新的计算架构芯片。一年一度的GTC就是针对于GPU的技术发展,从各个不同的角度去优化它的计算平台的性能,无论你是在做训练或者影响都是一样的。

刚才水成将的很好,在训练的时候可能不惜一切代价,让它算得很快,功耗无所谓,只要算得快就行,但是到影响的时候,我们的模型要小,我们的功耗要很低,然后我们还要算得很快,还要做得很准。因为当你的精度不够的时候。这个AI就像刚才我们讲的,都要变成动物了,那就没有用了。所以它是有一定的门槛的,那这些门槛的对这个影响的作用也是一样的,你必须得达到一定的精度我们才能去用,否则的话这些技术放到今天,我们AI应用当中就是没有价值的了。

那从这些所有的架构当中,我们研究了几乎所有的架构。其实你不管它是叫GPU也好,叫FPGA也好,你最后的就是我们要做深度学习的处理的。那我们可以讲,今天的这个GPU恰恰是在目前架构当中最合适的,无论是用来做训练还是用来做影响,最佳的芯片,处理器的架构。

那在今后这个架构往哪个方向变,是不是叫GPU,你可以叫它是GPU,其实我们可以叫它是深度学习处理器,你要问我的话下一代架构我不叫GPU,可能GPU是我们以前的名字,就像以前我们叫微软研究院,今天有将门,其实都是同一批人,但是同一个架构的演变当中,以前GPU的名字叫图像处理器,20年后,GPU早就不再是以前的GPU。如果拿今天NVIDIA的架构叫做Pascal,跟第一代用来做定点渲染引擎--那个专门做VGA处理器的话,两个架构是完全不一样的。今天的GPU基本上是一个并行计算器,而且100% 可编程,以前是不可能的。

那我们讲20年前那个也叫GPU,今天也还叫GPU的话,下一代还叫GPU的话,那我们可以持续地用这个名称,但是你要问我的话,下一代已经就是深度学习处理器了。

所以FPGA也好,GPU也好,无论是谁,只要你想做人工智能行业,我们必须要专门为这个行业定制处理器。所以NVIDIA下一代处理器你完全100%地可以讲,它就是一个AI 处理器系统,我们在这上面就要搭建一个AI的平台,这个平台不只是芯片的,包括周边的设备,你会看到NVIDIA我们做一个N2N的解决方案。我们有第一个产品叫做AI 超级计算机,很多人可能没有听说过,叫做NVIDIA DGX,DGX1是第一个,在全世界我相信也是第一台基于AI的超级计算机,这个AI 超级计算机我们在中国已经有很多用户开始使用了,他的设计就是专门用来做AI的,它的工作就是AI运算。

在这个超级计算机的基础上,下一代我们要做的是,在超级计算机硬件的基础上,去增加很多数据的处理的能力,所以你可以看到它的支持的内存的速度,它的总线是NVLINK,不是我们的PCIE。在数据和数据之间的通讯,在GPU跟GPU之间的连接,多GPU和GPU Cluster之间的连接,都是专门用来设计做大规模计算处理的一些系统架构。

那当然只有硬件是没有用的,你必须要做很多的训练框架,就像CNTK,我们一定要100%加速,还要让它加速得很快,你就要有它的中间件,我们就要支持caffe,我们要去优化caffe,做成NVIDIA caffe,我们要去支持tensorflow,我们就要有专门NVIDIA Tensorflow去加速的这个Tensorflow的速度。

所以你可以看到一系列的软件过程是经过了很多年的积累下来。当然这些还不重要,重要的是如何让我们更多的人才,让我们所有的初创公司很快地用上这些工具,这个是最关键的。所以我们要有教育系统。

NVIDIA专门设立了一个培训学校叫做深度学习学院(Deep Learning Institute),DLI是NVIDIA在全球推广的一个项目,我们在全球几乎18个国家要去做培训学校,培养深度学习的人才。而这些人才我们肯定会跟北大这样的研究机构、培训机构去培训我们未来的天才,我们也不能只是靠小文帮我们培养在中国的人才,我们也是希望扩大我们的这个培训的机构的能力,让北大、清华、交大,各种各样的大专院校、科研机构在中国培养本土的人才,这样的人才很缺乏,我相信在今后的这一段时间当中,几乎所有的计算机专业的人,学数学的、学物理的,都会成为深度学习的专家的。那这些平台的培养、人才的培养、系统的软件、硬件的架构结合,我相信才会帮助我们把深度学习用在人工智能当中,同时让AI达到一个新的阶段。所以我希望大家不要再去看你是GPU、FPGA还是ASIC,只要是处理器,他要想做人工智能,你一定要为AI定制。