为什么要在数位系统中引入量子效应有哪些比特

《量子密钥分发的后处理简介》由会员分享,可在线阅读,更多相关《量子密钥分发的后处理简介(11页珍藏版)》请在人人文库网上搜索。

1、量子密钥分发的后处理过程摘 要在当今的信息社会中,通信技术发挥着越来越重要的作用,同时人们对通信安全性也提出了越来越高的要求。经典密码学是保障信息安全的有效工具,然而随着计算机和量子计算的发展,基于数学计算复杂性假设的经典密码体制日益受到严峻的挑战。量子密码学建立在量子力学原理基础上,被证明能够提供信息论意义上的绝对安全性。量子密钥分发(QKD)作为量子密码学的一种重要应用,在量子测不准原理和不可克隆性定理保障下,使合法通信双方 Alice 和 Bob 能够在存在窃听者 Eve 的情况下建立无条件安全的共享密钥。QKD 包括量子信道传输、数据筛选、密钥协商和保密增强等步骤,其中密钥协商和保密增

2、强合称为后处理。后处理算法对 QKD 的密钥速率和安全距离起着至关重要的作用。本文主要介绍量子密钥分发后处理过程的基本含义,步骤和主要的算法。(量子信道传输的过程请参见汇报PPT。)推荐精选I.简介在量子密钥分发实验中,通过量子信道通信后双方获得的密钥元素并不能直接作为密钥来使用,由于信道不完善性以及窃听者 Eve 的影响,使得双方拥有的密钥元素串之间存在误差,并且有部分信息为窃听者 Eve 所了解,我们需要引入后处理算法来获得最终完全一致且绝对安全的密钥串。后处理算法包括三个步骤,即数据筛选、密钥协商和保密增强,其中主要的步骤是密钥协商和保密增强。(1)筛选数据(Distill Data)发

先交换部分测量基(例如前10%)放弃基不同的数据后公开进行比对,测量得到误码率,若误码率低于我们的要求(例如25%),确定没有窃听存在,即本次通信有效,若超过这个要求值则发端Alice和收端Bob放弃所有的数据并重传光量子序列。若通信有效,则通过对剩下的数据比较测量基后会放弃那些在传送过程中测量基矢不一致或者是没有收到的数据,或者是由于各种因素的影响而不合要求的测量结果,这一过程称为筛选数据。通过这一过程也可以检测出是否有窃听的存在,并确定双方的误码率,以便下一步进行数据协调。(2)数据协调(Error

4、ifted key)并不能保证发端Alice和收端Bob的数据完全一致,因此要对双方的筛选数据进行纠错。即通过一定的算法,利用公开信道对筛后数据进行纠错,这一过程称之为数据协调。对数据协调的要求有:将误码率降低至适宜于使用;尽量减少窃听者获取的信息;尽量保留最多的有效数据;速度要够快并尽量节省计算以及通信资源。这样虽然使密钥长度有所缩短,但保证了密钥的安全性。(3) 密性放大(Privacy Amplification)密性放大最早是应量子保密通信的需要而提出来的,但是现在已经成为经典保密通信的重要课题之一。密性放大又称作密性强化,它是一种通过公开信道提高数据保密性的技术。经过上述的数据协调,

5、双方密钥序列基本上达成一致,密性放大技术是被用来减少潜在第三者的对数据协调后得到的密钥序列的窃听信息。发端Alice和收端Bob随机公开一个哈希函数h,它能映射字符串x成为一个新的串h(x),这样就可以是窃听者所得到的h(x)的信息大大减少。推荐精选经过上述三个步骤,Alice和Bob可以共享比较理想的密钥,通过对BB84协议通信过程的讲述,我们可以总结出量子密钥分发的重要特点,即需要两个信道,量子信道和经典信道,除了要在量子信道上传递量子信息之外,还要通过经典信道传递大量的辅助信息。II信息协调即使是有效的通信,筛选数据测量得到的误码率(QBER)一般都较大这样的数据是不能直接用来做密钥的,

6、还要进行数据协调纠错及密性放大,使双方的误码率达到一定的数量级才能用于可靠的保密通信系统中。数据协调通过公开信道进行纠错,既然公开就一定存在窃听的可能性。我们这里讨论的是信息泄露的可能性,即窃听者Eve能够收到Alice与Bob公开的内容。假设Alice利用量子态向Bob传送经典数据的过程是有噪声的二元对称信道,这一过程可得到筛选数据长度为n,量子误码率(QBER)为q,Alice与Bob的互信息

7、H ( q)。互信息的增加是通过公开通信而获得的,公开披漏的信息也可以为窃听者所获得。假设在数据协调过程中不舍弃已披露的信息,窃听者获得的信息为I ( E , A) n H ( q)因此通常数据协调的过程都会舍弃已公开披露的数据。推荐精选同时,上述的公开信道是指可以被窃听但不能篡改的经典通信信道,经研究后提出以下几种比较实用的方法。2.1二分法数据协调经过数据筛选步骤的误码率检验后,发送方Alice与接收方Bob留下的筛选数据长度为n,误码率为q。二分法纠错数据协调(binary correcting protocol)的步骤如下:(1) Alice和Bob共享一个随机序列,并按照此序列将它们

8、的数据重新排序,目的是使错误可以均匀地随机分布; (2) Alice和Bob分别将它们的数据串分组,分组长度为k,选取k的标准是使每组的错误尽可能的小(一般要求每组含有的错误个数尽可能小于1); (3) Alice和Bob各自计算每组数据的奇偶性并且通过公开信道进行校验比较。如果对应的数据组奇偶性不同,则表示该组数据有错误位,且错误的个数是奇数。然后将存在错误的数组一分为二,同时进行奇偶检验计算及公开比较。如此反复直到确定没有错误或进行到最后一个数位,这个最后数位就是错误数位。为了不让E(Eve,窃听者)获得信息,我们每公开披露一次奇偶性,就将该数组的最后一位舍弃,同时舍弃被发现的数组的错误位

9、; (4) 经过上述步骤(3)的纠错后,各组的奇偶性虽然相同但是仍然可能存在偶数个错误。继续进行纠错,重新排列分组使每组有奇数个错误,这就需要新一轮的数组长度应比上一轮的数组长度要长,例如是上一轮的两倍。然后重复步骤(1)、(2)、(3)进行下一轮的纠错。进行数轮纠错后,如果留下的错误概率已经接近我们的要求,例如接近1%,则可以进入下一步骤;(5) 这一步的目的是确保不存在错误(或者说错误很低)。从步骤(4)得到的数据里随机得取出一个子集,计算所取的子集的奇偶性,并公开进行比较。如果Alice和Bob的数据完全相同(也就是说没有错误),即奇偶性相同。当然当他们的奇偶性相同时仍有存在偶数个错误,

10、这个概率是0.5,由于偶数个错误是校验不出来的,因此错误无法校验的概率是0.5。若两端子集的奇偶性不同,也就是存在奇数个错误,则继续进行步骤(3)的纠错。若奇偶性相同,则重复步骤(5),直至连续许多次都不出现错误为止。推荐精选2.2级联纠错“二分法纠错”对含有偶数个错误的数组不能发现错误,只能依靠重新分组。级联纠错(protocol cascade)显著改善了这方面的性能,假设筛选数据长度为n,测量得到的误码率为q。其步骤如下: (1)Alice和Bob端将全部数据按照同一随机序列重新排列,目的是使错误均匀地随机分布。这时首先记下每个数据的编号,例如,Al 表示 Alice 端的序号为 l 的

11、数据,Bl 代表 Bob 端的序号为 l 的数据, l 1, 2,., n。然后双方分别将数据按照同一数据长度k1进行分组,共分为n/k1组,k1的大小取决于误码率 q,目的是使每组含有的错误个数不大于1,如可取1/2qk11)中的分组纠错中,采用随机函数:fi:1.n1.n/ki将数据分成长度为ki的n/ki 个组。在分组Kij内数据的序号为l|fi(l)=j。Alice与Bob分别计算各分组的奇偶性并公开比较,若发现奇偶性不一致则进行二分法纠错。在Kij中发现序号为 l 的错误,经二分法纠错后必定可以在含有数据序号l数组 1Kvu(1 u i)中发现奇数个错误(也就是这一组原来有偶数个错误

12、)。对这些含奇数个错误的分组重新使用二分法纠错。不能再发现错误时重复步骤(4)进行新一轮纠错。若本轮完全没有发现错误,则进入下一步骤(5)。(5)这一步的目的同上节的步骤(5)一样,是确认没有错误,即从纠错结束后的数据中随机地选取一个子集,计算子集的奇偶性并比较。若Alice和Bob端的奇偶性相同,则表明存在偶数个错误的概率是0.5。III密性放大如图所示,经过协商以后,Alice 和 Bob 拥有相同的比特串,我们用X表示。Eve 拥有的比特串为Z=ZM,M为协商中过程中公开的信息量。Z中包含X的部分信息,我们需要通过保密增强步骤来去除 Eve 从量子信道和经典认证信道上获取的信息量,最终提

13、取出绝对安全的密钥。保密增强的主要思想就是以牺牲一些比特的代价,将 Eve 对协商后比特串的确定部分尽可能均匀地分散到不确定部分中,使得 Eve 对保密增强后剩下的比特串完全不确定。遵循这样的思想,保密增强就可以归结为设计合适的压缩函数,压缩函数的每个输出比特都取决于大部分甚至全部的输入比特。推荐精选在实际的保密增强算法实现中,压缩函数一般是利用经典密码学中的哈希函数 来进行设计的,具体过程是先设计一类性能较好的哈希函数簇 ,由 Alice和 Bob 共享,然后每次保密增强时从簇里面随机选择一个哈希函数,并且 Alice将选取的哈希函数的描述告诉给 Bob,随后双方一起将该哈希函数作用到自己的

14、比特串上面,得到最终密钥串。为了达到较好的保密增强效果,选取的哈希函数簇需要满足一些特别的要求,接下来我们就来对其进行讨论。首先,为了减少 Eve 钻空子的可能性,选取的哈希函数对于任意不同的输入取值1x 和2x ,其输出值应该尽可能不同。因为如果相同的话,则 Eve 有可能利用自己的错误信息获得正确的最终密钥,显然协议就失去了效力。由于我们是从哈希函数簇H 中随机选取哈希函数来使用的,因此需要保证在这个簇里面,对于不同输入值具有相同输出值的函数尽可能少,才能保证保密增强算法多次使用的平均性能。其次,由于 Alice 需要发送所选哈希函数的描述给 Bob,这就要求描述哈希簇里面的某个特定哈希函

15、数所需使用的比特数尽量少。虽然所选哈希函数没有保密的必要,但是在实际运用中,描述过长会增加通信开销,同时影响处理速度。一般来说,我们应该将描述的长度控制在输入比特长度的一定比例范围内。再次,我们需要使用输入和输出长度较大的哈希函数簇。这是因为,在 QKD实验中,保密增强所需要去除的比特数是通过比较一定量的样本统计信道参数后估计出来的。估计所用的测试样本应该是随机且均匀地分布在 QKD 一轮实验得到的分块中,否则若 Eve 是时变的,估计结果就会有误。为了提高估计准确度,需要使用较多的测试样本,这样最终可用密钥量就相应减少了。因此,最理想的策略是使用更大的分块,增加测试样本数的同时减小样本在整个分块中的比例。这样一来,我们就需要设计输入和输出长度尽可能大的哈希函数簇。最后,哈希函数应该具有较高的计算效率,这很大程度上决定了其应用前景。在实时 QKD 系统中,对后处理算法的时间效率是有很高要求的,因此,不论是密钥协商过程,还是保密增强过程,都不能占用太多的运算时间。保密增强的主要时间消耗在于哈希函数的计算,所以我们要选取能够高效计算的哈希函数簇。推荐精选总结本文对量子

}

Zeilinger)小组首次完成量子隐态传输的原理性实验验证以来,这一领域一直是量子信息物理实现领域的研究热点。利用量子纠缠和经典通信,人们可以将完整的量子态信息从一个物理系统传送到另一个。二十多年来,量子隐态传输方案在不同的微观物理系统中由奥地利、美国、德国等各国科学家相继实现,在光子之间,单个离子、原子、或原子团之间,以及固体量子比特之间得到演示和证明,但人们一直希望将其对象推进到更宏观的物体,实现对宏观系统的量子相干调控。

2016年5月,清华大学交叉信息研究院段路明教授研究组在自然子刊《自然·通讯》发表了题为《光到宏观金刚石振动模式的量子隐态传输》的研究论文,报告了研究组的重要研究进展,首次实现从光子到宏观金刚石振动模式的量子隐态传输。

段路明研究组使用超快飞秒激光,实现光子与金刚石振动声子的纠缠,并利用它将光子的偏振“信号”转化为金刚石的振动“信号”。借助独具匠心的实验设计,段路明研究组不仅首次实现了量子态从一个微观粒子(单光子)到常温宏观物体(毫米尺寸的金刚石样品)的集体振动模式的量子隐态传输,将传输对象推进到迄今最大的宏观物体,而且平均传输保真度超过90%,远高于经典极限66.7%。

此论文得到三位审稿人一致推荐,称其为量子相干调控领域“一个激动人心的进展”。量子隐态传输的这一新成果,对于人类远距离低损耗信息传输问题的解决具有重要意义。交叉信息研究院三年级博士研究生侯攀宇为论文第一作者,段路明教授为论文通讯作者,其他作者还包括交叉信息研究院的数位学生。

}

查尔斯·巴贝奇(Charles Babbage)于 19 世纪 30 年代提出了一款难以实现的概念性分析引擎,自那时以来,计算机科学一直为了保持领先于时代的地位而奋力前行。在过去 75 年内,许多惊人的创举接连出现:可编程电子计算机、集成线路计算机以及微处理器等产品相继问世。尽管如此,最具变革性的一步或许仍未到来。

不论是科学家、企业家还是科技巨头对量子计算技术都寄予厚望,我们的未来即将实现量子化的飞跃。YouTube 上有一则关于量子计算技术的科普视频获得了好几百万的点击量,在这段视频中,加拿大总理贾斯汀·特鲁多(Justin Trudeau)向世人科普了量子计算技术的概念。特鲁多最近访问了位于安大略省滑铁卢市的圆周理论物理研究所,该研究所针对量子计算领域的研究水平处于全球领先地位。在一场记者招待会上,一位记者打趣地让特鲁多对量子计算技术作出解释。

从概念上讲,量子力学绝对是一个违反直觉的科学领域,即便是最聪明的科学家也会对这个领域感到困惑。正如阿尔伯特·爱因斯坦(Albert Einstein)所言:「上帝不会投掷骰子。」因此,一般的政治家绝不会贸然接受这样的讲解请求,但特鲁多却勇敢地接受了挑战。不少科学家认为,特鲁多所作的讲解完全符合教科书的规范,是一个化繁为简的绝佳案例。

量子计算的概念由诺贝尔奖获得者、美国杰出理论物理学家理查德·费曼(Richard Feynman)在 20 世纪 80 年代末期提出,是一个相对较新的领域。费曼从概念上探讨了以量子计算机的形式提升计算速度的可能性,但这种理论性的探索还只是第一步。想要将这种理论投入实际应用,科研人员需要投入极大的努力。

传统意义上的计算机在处理信息时只有打开和关闭两种状态,且在处理过程中,信息会被拆解成由「1」和「0」构成的比特状态。普通计算机的运算能力主要取决于二进制晶体管的数量,这些晶体管会被储存在未处理当中。

在 1971 年,第一款英特尔处理器问世,这款处理器整合了 2,300 个二进制晶体管。在今天,英特尔公司所产生的微处理器可以放置超过 50 亿个二进制晶体管。但尽管如此,计算机的性能还是会受到二进制选项的局限。正如特鲁多在讲解中所说的一样,由于量子的物理状态存在不确定性,因此在量子计算机所能提供的状态选项会更具多样性。

在不可思议的亚原子领域内,粒子也具有波的特性,因此量子有可能处于粒子状态,也可能处于波的状态,甚至还可能两者兼具。量子力学领域将这种现象称为叠加。在叠加原理的作用下,量子比特有可能处于「0」或「1」两种孤立状态,又或者是「0」和「1」的叠加状态。这也意味着一个量子比特可以同时执行 2 条方程式,两个量子比特则可以同时执行 4 条方程式,三个量子比特可以同时执行 8 条,设备的运算能力实现了指数式增长。随着这个过程的推演,量子计算机可以轻松处理体量庞大的数据,以及一些此前无从入手的工作。

现实意义上的量子计算机很可能会在特鲁多家乡的西南部问世,那是一个毫无时尚触感的郊区。本拿比是温哥华的一个卫星城市,这座城市中有一个整洁宽敞的实验室。实验室中放置着一个 10 英尺高的黑色金属机箱,在机箱的内部贮存有精心设置的电路板架构。位于机箱内部的电路板和物理课堂上常见的电路板并无太大差别,只是电路板的中央点缀着由铌晶片构成的彩色区域。尽管一切看起来非常平凡,但这其中却蕴含着不可思议的多重世界。

该实验室由一所名为「D-Wave」的小公司所有,这家公司只有 140 名雇员,他们立志要制造出世界上第一台可以运行的量子计算机。在和冰箱非常相似的金属机箱内部,量子计算机的雏形已经搭建完毕。实际上,这个机箱确实是有史以来温度最低的电冰箱,机箱的冷冻装置可以确保铌芯片在接近绝对零度(–273℃)的状态下运作。

在温度极低的条件下,量子可以维持连贯的叠加和牵连活动。在这种状态下,粒子会以相互依赖的方式产生交互作用,量子比特之间将因为量子力学而产生连接,这种连接和量子比特所处的位置无关。光和热量的介入将对上述过程产生干扰,进而降低计算机的运算性能。

我们尚未完全弄懂量子物理学所遵循的明确规则,传播最广的理论或许是量子在不同的宇宙中存在不同的状态。D-Wave 公司所制造的量子计算机拥有 1,000 个量子比特。

「这 1,000 个量子比特可能同时处于 2 种至 1,000 种状态当中,总共拥有 10 的 300 次方种可能性。」D-Wave 公司的首席执行官弗恩·布朗尼尔(Vern Brownell)表示,「而宇宙中的原子总数只有 10 的 80 次方,这是否意味着这 1,000 个量子比特同时存在于 10 的 300 次方个宇宙当中?」

数十亿个宇宙有可能在一台计算机中共存吗?如果不是处于嗑药状态,我们最好还是不要执着于这个问题,因为在某种意义上答案其实并不重要。我们更应该关注的问题是,这台量子计算机到底能否运作。

在当下,量子计算还很大程度上还仅仅是一个理论概念。这个领域所蕴含的潜力非常惊人,其所涉及的计算能力可能是现存所有计算机总和的许多倍。但要制造出量子计算机绝非易事。

D-Wave 所研制的 2X 计算机耗资高达 1,500 万美元,只有少数机构拥有这个财力,包括 Google、Lockheed Martin 和 Nasa 等。D-Wave 的投资者包括亚马逊公司的创始人杰夫·贝索斯(Jeff Bezos)、美国中情局的高科技部门以及 In-Q-Tel 等公司和个人。很明显,目前世界上最具前瞻性的机构都相信 D-Wave 的计算机拥有一片光明的未来。

人工智能领域和密码学领域的专家认为量子计算技术的发展将会改变许多领域的地貌。在未来,计算机或许可以掌握和人类相似的思维以及解释能力。

沃恩·布朗内尔(Vern Brownell)曾在高盛集团担任首席技术官一职。在任职期间,布朗内尔并没有被当时的技术进展所打动。他认为社交媒体成功的关键在于以聪明的方式运用现有技术,但现在整个硅谷都争先恐后地在相同的主题上追逐利润,这种状态表明那个地方已经不再热衷于思考。「和过去相比,我们所能观察到的革新程度实在低得可怜,可以改变世界进程的发明数量也处于历史低点。」

在布朗内尔眼中,D-Wave 的出现振兴了整个世界的创新浪潮。7 年前当他第一次听说这家公司时,D-Wave 已经创立了 9 年,当时有人认为这家公司只是一个笑柄。在第一次和这家公司进行接触的时候,布朗内尔的内心也充满了怀疑。

「在最开始的时候,我根本不相信这一切。」他说道,「当时在博客上有许多专家直斥 D-Wave 是一家骗子公司,我压根就提不起兴趣。」

和团队成员面谈过后,他的态度发生了转变。D-Wave 的创始人是物理学博士乔迪·罗斯(Geordie Rose),时年 44 岁的罗斯对整个学术界产生了质疑,继而参加了创业课程。他对极其昂贵但却存在诸多限制的实验完全失去了耐性。

罗斯异想天开地试图打造出可以投入商业应用的量子计算机,当时科学界普遍对量子计算技术感到不知所措。绝大多数所谓的量子计算机都在实验室内组装而成,这些计算机具有通用的门级模型,研究人员普遍使用晶体管作为电子比特的替代品。在当时,研究的进展一度陷入停滞。

另辟蹊径的罗斯计划研制一台绝热的量子计算机,这台计算机以所谓的「量子退火法」或「量子隧穿效应」运作。就本质而言,这意味着你需要开发一套算法以便按照经典模型指定量子比特之间的交互方式,例如指明哪种应该被认定为「0」,哪种应该被认定为「1」等等,随后你需要为量子的叠加创造出条件。在这种情况下,在回复至以「0」和「1」为代表的状态之前,量子比特可以实现接近无限种可能性。这个过程的重点在于量子比特会根据算法的要求以耗能最低的方式运作,继而得出最高效的答案。

如果这个过程已经让你觉得难以理解,研制量子计算机的过程更是难上加难。早期的研究成果并不乐观,没有人知道在量子化的世界中到底发生了什么。但不论如何,这个过程还是足以让人感到钦佩。

在 2007 年,D-Wave 展示了一台拥有 16 个量子比特的设备,并尝试用其解决数独问题。当时这台设备并没有引起广泛的关注。加州大学伯克利分校的计算机科学教授优曼许·沃兹内尼(Umesh Vazirani)认为 D-Wave 所谓的加快运算速度是对其研究成果的一种误解,并坚称即便当时展示的设备是一台真正意义上的量子计算机,即便其体内可以贮存数千个量子比特,但这台设备的运算速度依然比不上一台手机。

自那时起,D-Wave 一直被认为是一家善于夸大其辞的公司。最大的难题在于人们很难对设备中所发生的一切作出精准测量。D-Wave 计划对牵连活动作出测量,以表明这个可供量子计算机运作的前提确实存在。

但有专家对测试的真实性表示质疑。当 D-Wave 邀请独立科学家再次对牵连活动进行测量时,怀疑者声称尽管牵连活动确实存在,但最具参考意义的指标正是设备的性能。

在 2013 年,D-Wave 推出了第二台设备。尽管有测试表明这台设备的性能为普通计算机的 3,600 倍,但领域内数位权威科学家坚持认为测试结果毫无价值可言。在 2014 年,计算机物理学领域的著名教授马蒂亚斯·特罗耶(Matthias Troyer)发布了一份报告,并声称他本人并未发现任何和量子化加速现象有关的证据。

麻省理工学院的教授斯科特·阿伦森(Scott Aaronson)一直对 D-Wave 的设备持质疑态度,他甚至还骄傲地称自己为「D-Wave 首席质疑官」。在特罗耶发布报告之后,阿伦森表示尽管量子化效应确实有可能在 D-Wave 的设备中发生,但我们不能因此而轻信量子化效应在其中扮演着关键角色,更不能断定这些设备的运算能力要比普通计算机更强。

布朗内尔从未将这些质疑者放在心上,他声称大部分问题已经得到解决。他还透露 Google 曾于上一年进行过对比测试,最终发现 D-Wave 的量子计算机在解决问题时要比普通计算机快 1 亿倍。

「如果这还不是量子计算。」布朗内尔问道,「那我们又怎么能研制出比英特尔公司的芯片快上 1 亿倍的设备?如果最终的原因不是量子计算,那么我们必然是发现了一些超乎自然法则的现象,后一种可能性甚至比量子力学还要让人感到兴奋。我可以向全世界的科学家发起挑战:如果这不是量子计算,那么这究竟是什么?」

即便是阿伦森也承认 Google 所作的测试具有重大意义。「这次测试完全展现出了 D-Wave 设备的性能,非常令人深刻。但尽管如此,我还是对 D-Wave 设备所使用的架构是否能实现真正意义上的量子计算感到怀疑。」

特罗耶并没有对 Google 公司的测试感到信服。「你需要细心阅读测试报告。」他表示,「D-Wave 的设备在解决难题时要比传统算法快 1 亿倍,但参照物只是特定的传统算法。因此而宣称 D-Wave 的设备比普通计算机快 1 亿倍具有一定的误导作用。」

在阿伦森眼中,这一系列质疑和反质疑的过程至少有一个好处,这个过程可以提升我们对量子力学的了解程度。尼可·哈里根(Nic Harrigan)在布里斯托大学的量子光学研究中心从事研究工作,该中心对量子力学领域的研究处于世界领先水平。

「尽管量子计算技术的应用前景十分光明。」哈里根表示,「即便目前还没有人研制出了可以投入应用的量子计算机,但在尝试的过程中我们依然获益良多。这听起来或许有点找下台阶的意味,但量子力学是一门非常重要的理论,这门学科是我们了解宇宙的基础,同时也是多项当下及未来技术的根据。因此,加深对量子力学的了解对于人类而言具有重要意义。而不可思议的是,其中一种观察量子力学发生过程的绝佳方式是尝试用量子力学的机制去解决计算难题,我们可以从中观察到量子力学和经典物理学之间的区别。」

在 Google 公司内部,许多员工对 D-Wave 设备的实用性持谨慎乐观态度。工程部门领导人哈特穆特·内文(Hartmut Neven)列举了测试的优点和缺点,并承认有部分算法也可以在普通计算机上实现量子退火的效果。但内文表示,未来的技术可以实现真正意义上的量子退火过程。「下一代设备必定会和实际问题联系得更加紧密。」他说道。

需要使用量子退火过程解决的难题普遍和最优化问题有关,计算机需要在复杂的系统中寻找最优的解决方式。

「最优化问题听起来非常沉闷。」布朗尼尔说道,「但每门学科都有许多复杂的应用难题会涉及到最优化问题。最优化问题对于人工智能领域尤为重要,比方说你需要用电脑识别水瓶,计算机在完成这个任务时的表现并不如人类高效。但计算机技术正在持续发展,而量子计算技术的出现会让计算机的发展过程进一步加快。」

基因组学、经济学和医学都需要解决大量的最优化问题。在使用普通电脑的情况下,即便是构建金融产业常见的蒙特卡罗模拟过程也需要耗费庞大的计算能力,计算能力的产生需要消耗许多电能。

「你会发现许多大型网络设备的数据中心都设置在水力发电厂附近,因为这些设施在运转过程中需要耗费许多电能。」布朗尼尔说道,「数据中心是全球第二大的电力消耗设施。」

他表示 D-Wave 的目标在于让计算机行业变得更符合环保节能的要求,每一个人都可以通过云方式接触到更节能的量子计算设备。在数年内,我们可以通过手机接入到量子计算设备。

「我认为我们的企业将会成为历史上最有价值的科技公司之一。」布朗尼尔说道,「我知道这目标听起来过于宏大,但从我们所做的一切看来,我们将会成为未来数十年内量子计算领域的主导者。」

任何一位具有相当自信的 CEO 都会发表一番好言壮志,但 D-Wave 目前确实在量子计算领域处于领跑状态。至于这场竞赛将会如何发展,所牵涉的有哪些因素,以及在多少个宇宙中存在,想要找出这些问题的答案,我们需要一台可以运作的量子计算机。

原文发布时间为:2016年05月25日
本文来源:,如需转载请联系原作者。

}

我要回帖

更多关于 量子效应有哪些 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信