谷歌公布了TPU细节,人工智能业界怎么看?

其对业界会有什么影响?会有很多人开始仿效制造吗?

谷歌以论文的形式,图文并茂地将TPU的架构、核心部件都描述地清清楚楚,那么会不会有后来者群起而仿效之呢?对于这一点,姚颂表示谷歌公布的技术虽然通常不是其最新的研究进展,但也往往是非常先进和新颖的,肯定会有人仿效,但仿效的话,也只会把自己起点放在谷歌4年前的起点罢了。

“我想一定会有很多人去追着TPU的思路设计自己的深度学习芯片,因为TPU已经批量在实际业务中应用并展示了它的威力。但是其实,TPU是个四年前左右开始研发的项目,仿效它只会把自己起点放在别人4年前起点。当做出来仿效的产品,很可能Google第3代TPU都已经出来了。并且,TPU强大的地方不完全在于芯片,而在于结合TensorFlow的软件生态,这使得开发更为简单——这一点不是可以效仿的。

业界领先的公司还是需要更多地看到未来,比如在TPU论文中提到‘Sparsity will have priority in future designs’,比如TPU的硬件与软件生态一起做,那么,如何高效支持稀疏性,如何提供让用户简单得到稀疏化神经网络的软件工具,其实更为重要,而这其实也是我们一直在做的。像我们与搜狗合作的语音识别加速,就是沿着Sparsity这条路线更进一步,而本次TPU论文也引用了3篇深鉴团队以往论文作为未来发展的参考。”

而陈天石从架构的角度给出了另一个看法,他认为与TPU类似的方案之前已经存在了。

“TPU在架构方面走了一条保守但稳健的道路。在TPU架构正式公开之前,在学术界其实已经有一些类似的方案(将脉动阵列机用于处理深度学习)。脉动阵列架构本身是个传统技术,早在1980年代初,中科院计算所的夏培肃院士和李国杰院士就曾将脉动阵列架构用于石油勘探。将其用于深度学习,其实是近年来DSP和硬件加速领域的旧瓶装新酒。”

总结

从这篇论文里,谷歌的TPU细节一览无余,然而TPU是为了TensorFlow定制的,对于一些AI芯片厂商来说,或许能从这篇论文里获得一些灵感,但一味仿效可能得不偿失。

TPU并不是全能的,只是用于数据中心的推理阶段。深度学习模型的前期训练,也还是要依靠高精度的GPU。而且TPU通用性差,谷歌也曾在多种场合表示自己并不会售卖TPU。所以对于英伟达一类的通用芯片厂商来说,并没有直接的竞争威胁。然而,谷歌带头追求特定领域应用的极致效率,对于很多走定制化路线的AI芯片厂商来说,这是一种强大的鼓舞。

陈天石和姚颂两位CEO各自带领的AI芯片公司,在进行不同种类的AI芯片研发和商用工作,寒武纪科技偏通用,深鉴科技偏行业定制。两位CEO也都彼此惺惺相惜,就像陈天石曾经对姚颂说的那样,这个市场需要多种芯片的,有偏通用,也有更专用更注重特定领域的,共同进步的同时未来也一定有机会合作。

如今的AI芯片产业处在一个“大航海时代”,真正的宝藏,需要更多的人去开拓。

登陆|注册欢迎登陆本站,认识更多朋友,获得更多精彩内容推荐!