量子计算机 速度带来的“原罪”

历经数次波折,颇受业界瞩目的Intel第四代酷睿处理器Haswell,终于即将登上历史舞台。

去年12月,这家全球最大的半导体芯片制造商推迟了其最新款CPU的发布,此次跳票令业界哗然。2013年2月,为该款CPU配套的主板又曝出设计问题,被厂家紧急回收。进入4月,由于传言称该款CPU将再次跳票至年底,投资银行甚至将Intel的股票下调了评级。

Haswell的难产,或许意味着计算机行业的“摩尔定律”开始走到尽头。

Intel公司创始人戈登·摩尔提出的摩尔定律,过去50年内一直被奉为业界定律,其内容大致为,当价格不变,集成电路上可容纳的晶体管数目,约每隔18个月会增加一倍,性能也将随之提升一倍。

这一定律确实在以半导体大规模集成电路为基础的电子计算机行业中无数次的被证实。Intel目前的芯片已经含有10亿个晶体管,每秒可执行1000亿条指令。

然而,在集成电路上容纳更多的晶体管,就意味着芯片上的线宽尺寸要无限制缩小。随着这一尺寸的缩小,芯片成本也将水涨船高。正是基于此,越来越多的公司无力承担这种成本压力,被迫退出芯片行业。

此外,从技术层面而言,如果芯片上线宽尺寸继续缩小,达到纳米数量级时,材料的物理、化学性能将发生质的变化,现行的半导体器件将无法工作,那时也就意味着摩尔定律的真正极限。

或许传统计算机在未来几十年内仍能满足家用和普通工作的需求,但如何突破芯片尺寸的极限,使计算机继续向前飞跃性发展是传统信息科学面临的重大问题。当芯片元件做到纳米尺寸,微观客体的运行机制将服从量子力学,科学家因此提出了革命性的设想:利用量子科学开发出新的信息处理功能,即量子计算机。

“量子计算机具有并行处理数据的能力,所以运算功能大幅增强,比如在大数分解方面,用现行的电子计算机分解一个129位的大数,需要好几百台计算机运算好几个月才能破译,而量子计算机只需要一分钟。”中国科技大学光学与物理系副教授涂涛告诉记者。

速度带来的“原罪”

量子计算机是基于量子力学原理,使用量子逻辑实现通用计算的设备,它的运算速度比传统电子计算机强大的关键也正是量子计算机最基础的部分——存储信息单位。

传统计算机的电路不是“开”就是“关”,相对应的一个传统比特不是0就是1。与传统计算机类似,量子计算所操纵的最基本单元也是比特,只不过是量子世界的“比特”。

一个量子比特可以同时表示0和1,两个比特就能表示00、01、10、11四种状态。因此理论上,300个量子比特可承载的数据就能是2的300次方,这将超过整个宇宙的原子数量总和。而300个传统比特能够承载的数据只有2的300倍。换言之,量子计算机的运算能力将是目前传统计算机所无法比拟的。

此外,量子计算机的运算能力还随量子处理器数目的增加呈指数增强。如果说之前的电子计算机甚至超级计算机是加法运算,那么量子计算机每增加一个量子,就相当于多加了一个幂次方的指数级运算,这将为人们以后在大数据、云计算等领域处理海量数据提供无比强大的运算工具。

值得注意的是,大数分解算法是现行银行体系通用的密码加密方法。如果量子计算机研制成功,对现行的银行密码系统,势必造成一定威胁。

目前最好的多核处理器能够解密150位的密码,如果想要解密一个1000位的密码,那么需要调用目前全球的计算资源才有可能实现。但是从理论上讲,一台量子计算机在几个小时内就能解决这一问题。

在量子计算机面前,目前世界上最复杂的密码也会变得不堪一击。这意味着互联网上将不再有秘密可言,人类需要重新设立一套与现在完全不同的信息加密系统。

“但是目前我们还不需要担心这个问题,量子计算机实际上相当于计算机领域的‘航天飞机’,它并不需要像汽车一样走进千家万户,它是为银行、军事等国家安全体系进行研究而做的高科技装置。”涂涛介绍,“如同航天飞机的技术、燃料都需要高额的成本一样,量子计算机也需要巨额的研究成本和几代人的努力。”

中国科学院院士、中国科学院量子信息重点实验室主任郭光灿告诉《中国经济和信息化》记者,量子计算机是21世纪至关重要的一项科技革新。由于其强大的计算能力,量子计算机可以解决电子计算机难以解决或不能解决的问题,如果能克服重重困难实现量子计算机,将推动整个社会的进步。

“测不准”的量子

量子计算的优越性主要体现在量子并行处理上,无论是量子并行计算还是量子模拟,都本质性地利用了量子相干性。

这里的所说的相干性,其中一种说法就是爱因斯坦和其合作者在1935年根据假想实验作出的一个预言。打一个简单的比方,有点像掷硬币。掷出的硬币,观测了其中一面后,那么另一面就一定能够确定。

要在量子计算机中实现高效率的并行运算,就要用到量子相干性。彼此有关的量子比特串列,会作为一个整体动作。因此,只要对一个量子比特进行处理,影响就会立即传送到串列中其余的量子比特。这一特点,正是量子计算机能够进行高速运算的关键。可一旦失去了量子相干性,量子计算的优越性就消失殆尽,就像假如硬币的两面不再有着对立的关系,所有的观察也就毫无意义。

不幸的是,在实际系统中,量子相干性真的很难维持。

与传统计算机不同,量子计算机的运算时间是有限制的。这是因为,量子比特之间的相干性很难长时间保持。在计算机中,量子比特不是一个孤立系统,它会与外部环境发生作用而使量子相干性衰减。量子比特从相干状态到失去相干性这段时间叫做“退相干时间”。如果退相干时间不能足够长,就无法完成计算。所以,延长退相干时间,是以后必须解决的重大课题。

以目前的技术水平而言,制作出可以实际使用的量子计算机,还为时尚早。

今年2月,IBM[微博]宣布在量子计算领域再次取得重大进展,这也仅仅意味着他们具备在一段足够长的时间内保持栅电极状态的能力。而只有当数据差错降低到足够小,才能把许多栅电极组合在一起,从而得到一个可以实际应用的量子位。

而宣称早在2007年就推出商用量子计算机的加拿大D-Wave系统公司,其新一代产品D-waveTwo号称拥有512个量子比特,似乎是远远超越了所有竞争对手甚至是整个时代。然而该公司对其核心计算技术始终三缄其口,学界对此更是议论纷纷。

“微型曼哈顿”计划

近10多年来,国际著名刊物《自然》和《科学》平均每个月发表一篇量子计算机研究的论文,量子计算机一直作为科学界研究的重点在稳步前行。2012年3月1日IBM研究院的科学家在提高量子计算装置性能方面取得重大进展。他们做到了在减少基本运算误差的同时保持量子比特的量子机械特性完整,从而进一步加快研制全尺寸实用量子计算机的步伐。IBM公司估计,再用10到15年,就可以制成可靠的量子计算机。

由于IBM的研究突破,对超导量子比特和未来研制量子计算机的乐观情绪快速高涨。更令人可喜的是,2012年的诺贝尔物理学奖再次颁给量子物理学家。法国物理学家塞尔日·阿罗什(SergeHaroche)和美国物理学家戴维·维因兰(DavidWineland),由于“独立发明和发展了测量和操纵单个粒子的同时,又保持其量子性质的方法”而获得2012年诺贝尔物理奖。瑞典皇家科学院认为:“他们的突破性方法使该研究领域向着建造基于量子物理的新型超快计算机迈出了第一步。”

美国量子芯片研究计划被命名为“微型曼哈顿计划”,美国国防部先进研究项目局负责人泰特,在向美国众议院军事委员会做报告时,把半导体量子芯片科技列为未来9大战略研究计划的第二位,并投巨资启动“微型曼哈顿计划”,集中了包括Intel、IBM等半导体界巨头以及哈佛大学、普林斯顿大学、桑迪亚国家实验室等著名研究机构,组织各部门跨学科统筹攻关。

由此可见,美国已经把该计划提高到几乎与二战时期研制原子弹的“曼哈顿计划”相当的高度。随后,日本也启动类似计划。国际范围内,新一轮关于量子计算技术的国际竞争呼之欲出。

在郭光灿看来,“正是由于量子芯片在下一代产业和国家安全等方面均具有举足轻重的作用,所以各国在相关研究方面均给予了足够的重视。”

我国也不例外。《国家中长期科技发展规划纲要》将“量子调控”列入重大基础研究计划。近年来,固态量子芯片研究被列为国家重大科学研究计划重大科学目标导向项目(又称“超级973”)给予重点支持。这些举措有力推动了量子信息技术在我国的发展。

但另一方面,也必须清醒地认识到,中国在该领域存在的不足甚至面临的危机。正如郭光灿在《量子计算机的发展现状与趋势》一文中指出的那样,鉴于基础较弱,研究积累较薄,我国在量子计算国际主流方向上做出原创性的成果还很少,总体水平明显落后于美日强国,在量子计算机方面,差距正日益增大。

郭光灿建议中国启动一个类似美国“微型曼哈顿”计划的战略攻关项目,组织国内精锐研究队伍,提供足够强大的支撑,加强相关基础建设,寻求技术突破,在下一代量子芯片的国际竞争中抢占战略制高点。