NVIDIA,不只是躲在幕后做一块卡

  在日前召开的2016全国高性能计算学术年会上,备受瞩目的中国超算性能TOP100排行榜发布。在本次的榜单中,国产系统独树一帜,以98%的占比成为中国超算的绝对主力。而如果以计算架构来分类,以采用GPU作为写处理器为代表的新一代异构计算系统也占据了相当大的份额。作为新兴的超算大国,中国系统不约而同的采用GPU作为加速单元显然也代表了目前整个超算领域发展的一种方向。

  从超算的应用分类来看,高精度数值计算已经越来越重要,包括大数据、人工智能、天气预报等多个领域的发展已经明显的验证了这一点。而在对高精度数值计算性能的不懈追求中,CPU由于需要兼顾绝大多数的指令处理和整数运算,所以无论是从架构还是能效表现亦或是峰值性能等方面来看,CPU都已经不能满足需求。而核心数量众多、内存带宽更高、并且为高精度数值计算进行专门优化的GPU则是目前这一领域中的绝对主力。

  作为GPU市场中的代表,英伟达在近几年更是在高性能计算领域不断发力,以每年一代产品的速度不断刷新着半导体芯片在高精度数值计算领域中的记录。另一方面,GPU本身扩展卡的产品形式也非常适于服务器系统进行升级和扩展,以获得更高的性能。

  而在未来GPU高性能计算产品的发展路径上,NVIDIA也走出了一条软件与硬件相结合、算法与SDK深度整合的新路。在这条道路上NVIDIA一方面借助不断优化的架构和工艺制成提高硬件本身的处理能力,另一方面则根据硬件特性不断研发新的算法和应用,让GPU能够在更多领域表现出更好的性能,同时也方便用户和企业将各种功能进行二次开发和整合。当然,NVIDIA多年来也一直秉承着对开发者的友好策略。其开发的CUDA语言以类C的方式将GPU的性能开放更多开发者,降低了GPU变成的门槛,让更多有想法、有创意、有能力的开发者能够借助GPU实现更快、更高、更强的目标。

  深度学习将GPU应用推向新高峰

  GPU技术的进步不仅让很多传统的科学计算任务能够更快、更低成本的完成,更为曾经多次受挫的人工智能领域打开了全新可能。

  人工智能一直是人类的一大梦想,但过去受限于硬件的性能和架构,这一领域的发展更偏向于理论。而随着核心众多、开发更简单、性能更高的GPU的出现,人工智能重新回到了发展的前沿,并且在近两年诞生了众多包括自动驾驶汽车、语音语义识别、图像识别等在内的非常实际的应用案例。

  英伟达解决方案与工程架构副总裁Marc Hamilton

  对此,英伟达解决方案与工程架构副总裁Marc Hamilton表示:NVIDIA在这些领域的研究和投资非常超前。早在十年前,NVIDIA就已经CUDA和GPU的通用计算方面投入资源;而早在五年前,NVIDIA就已经看到了GPU带深度学习、人工智能、神经网络等方面的发展潜力并积极进行相关优化。其实机器学习最早的算法就是一位大学生在NVIDIA的GPU上实现的。而NVIDIA未来也将继续在这些领域加大投资,推动这一领域的继续前进。

  降低门槛,让小组织拥有大能力

  一个行业或一个领域的高速发展绝对不是单独一个人或一个组织就可以推动的,他一定是整个行业中的所有参与者共同努力的结果。这个道理NVIDIA早就清楚,CUDA语言的推出就是最好的例证。

  而现在,人工智能、深度学习领域正处在高速发展过程中,不仅是大型企业和科研单位,就连小型初创公司甚至是个人或小组都开始积极投入到这一领域的研究当中。但随着这一领域的进化,整个行业的研究方向开始变得更加深与,聚焦的问题也变得越来越复杂。

  在过去,训练一个解决复杂问题的人工智能程序需要非常长的时间和海量的硬件资源。但为了降低这方面的成本,降低人工智能、深度学习的硬件门槛,NVIDIA终于推出了经过深度优化的GPU计算一体机系统GDX-1。从产品形态上看,GDX 1是一台标准的机架式服务器,而从其核心来看,他则是一个拥有超高计算性能且经过深度整合和优化的迷你超算。而类似系统的不断推出也让更多的小型组织能够以更低的成本切入人工智能、深度学习领域,从而进一步提高行业的发展速度。