整理蒋宝尚
  2019 年是量子计算占据新闻热点版面的一年,从 1 月份 IBM 公布全球首款商用量子计算原型机到 9 月份谷歌宣告在全球首次实现“量子霸权”。
  这一年在量子计算的历史上将具有里程碑的意义,因为它意味着量子计算的时代将会到来。
  量子计算离我们到底还有多远?实现大规模的商用还需要多长时间?当前的技术状态处在什么时代?
  3 月 28 日,在 CCF  YOCSEF 总部 AC 委员、总部侯任学术秘书、北京交通大学工业互联网安全研究中心主任陶耀东,CCF YOCSEF 总部 AC 委员、北京交通大学计算机与信息技术学院教授王伟主持下,CCF YOCSEF(中国计算机学会青年计算机科技论坛)举办了“量子计算机离我们还有多远?”线上论坛,针对此主题,来自合肥本源量子计算科技有限责任公司的张辉博士做了“量子计算机的发展概况与应用前景”的报告。来自腾讯量子实验室的郑亚锐博士做了“实现量子计算,我们还需要做些什么?”的报告,清华大学终身副教授 Kihwan Kim(金奇奂)做了“Quantum Computation with Trapped Ions”的报告。
  另外,中山大学数据科学与计算机学院李绿周教授,国防科技大学强晓刚博士作为特邀嘉宾也进行了发言。天津理工大学教授罗训、人民邮电出版社高级策划编辑贺瑞君担任线上主席。
  AI 科技评论对报告“量子计算机的发展概况与应用前景”的整理已经发布,现在腾讯量子实验室郑亚锐博士“实现量子计算,我们还需要做些什么?”的报告也已经整理完毕,现在发布,请欣赏~
  郑亚锐:博士毕业于中国科学院物理研究所。主要研究领域为超导量子计算。在超导量子芯片的设计与仿真,量子芯片的微加工制作,高精度量子比特控制,高精度量子比特读取,量子耦合器,杂化量子系统等方面有着多年的研究经验。目前是腾讯量子实验室的硬件负责人,致力于推动量子技术的发展与落地。
  在报告中,郑亚锐博士介绍了量子比特的测控精度、量子纠错和 NISQ 等量子计算机开发关键问题,并在量子领域的可持续发展等方面分享了他的观点。
  量子计算机何时投入实用?
  郑亚锐博士认为量子计算至少需要十年才可能真正实现有价值的商业落地,谷歌宣称要在 10 年之内实现 100 万个量子比特其实有些激进,但是考虑到谷歌的强大实力,也不排除 10 年内实现的可能性。在 2018 年,IBM 宣称他们的“Quantum volume”可以每年翻一倍,Quantum volume 相当于量子比特的有效比特位数,每年一倍的任务对比谷歌十年 100 万个比特非常接近。霍尼韦尔每年提升十倍性能的宣传比谷歌、IBM 更加激进,如果以十年的维度来计算,霍尼韦尔大概是 100 亿倍的性能提升,这就有些过分宣传。
  经典计算机用高低电压代表0、1 进行计算,在量子比特里面,则用量子态计算。量子比特本身遵循量子力学的叠加原理,1 个量子比特可以处于 0 和 1 的叠加态上,N个量子比特实际上可以处于2^N个量子叠加态上。
  所以,量子态的数量和量子比特数量呈指数增长关系。在 1980 年,费曼教授就提出疑问:随着量子比特数量的增长,其复杂度呈指数增长,是否可以直接利用量子力学计算量子力学的一些问题?量子计算的概念从那个时候起慢慢发展成了一个比较系统的学科。
  如何做一个量子计算机
  如何做一个量子计算机呢?有三个要求,首先要有量子比特;然后有一个高保真度的量子操作,所谓的量子操作,可以类比成经典计算机里面的非门、与非门、或门这些基本的门操作;最后要执行算法,就需要足够多的量子比特进行运算。
  这三个问题看起来简单,但做起来却不简单。首先,什么材料可以作为量子比特?现在人类已经挖掘出非常多的量子计算载体,包括超冷原子、离子阱、光子、超导量子比特,都可以用来做量子计算。这些体系有各自的优缺点,目前还不知道哪一种体系一定能够最终实现量子计算,但目前发展比较快的是超导量子比特和离子阱。
  超导量子比特最重要的优势,在于其结构类似于电路,能够采用传统的集成电路工艺帮助快速实现大规模量子比特系统制造。
  这种技术近几年发展特别快,借用 IBM 和谷歌的研究,从上面左图可以看到超导量子比特退相干时间大概两到三年就会翻一倍,现在整个量子比特的性能也比十年前好很多。在 2005 年,退相干时间还是 1 微秒的级别,现在量子比特退相干时间已经有几百微秒。比特数量增加也非常快。
  2019 年谷歌发布了具有 53 个量子比特的芯片,其实在 2017 年的时候,谷歌已经有 72 个比特的量子芯片,53 对比 72 数量看起来没有增加,其实复杂度比以前增加了很多。
  某种程度上,53 个量子比特能够达到 100 多个比特的芯片级别。除了退相干时间和量子比特数量之外,超导量子比特门操作的保真度非常高,在 2014 年,已经达到了 99.4%,谷歌最新的量子芯片保真度会更高,可能有 99.6%,超过了纠错阈值。
  回过头看,如何造一个量子计算机?首先我们要有量子比特,然后要有高保真度的量子操作,足够多的量子系统。超导目前已经大体能够满足这三个要求,此技术也达到了一个门槛。
  量子计算机发展路径
  上图来自 IBM,说明了量子计算后面发展的可能路径。从下往上看整个方块的叠加,最底层为 Physical Quantum  Processor,是物理层面的概念。
  量子芯片首先要有量子比特,有了量子比特,然后研究如何控制,随后是读取量子比特。在读取和控制达到比较高的保真度之后,然后对量子系统做 Quantum error Correction,也就是量子纠错,此操作的主要目的是为了进一步提升量子系统操控的精度。
  其实,超过 99% 的操控精度,不够实现量子算法的实际应用。但是科学家非常聪明,既然直接做出高保真度的门不容易,那为什么不使用很多个量子比特呢?所谓的量子纠错就是借鉴经典计算机纠错概念,确保最后达成总的等效的量子操作,可以达到比较高的保真度。
  在这个基础上,可以依靠大量的量子比特达成非常高保真度的量子操作,用更多的量子比特实现有价值的量子算法落地,就到了 Logical Quantum  Processor,也就是逻辑层面的量子处理器。在逻辑层面需要突破的技术和物理层面的量子处理器一样,需要控制和读取,最后才能实现有价值的量子算法。
  从最终的目标来看,要实现量子计算应用的落地,理论上大概需要达到 100 万个量子比特,用这个数量做量子纠错之后,会形成大约有 1000 多个逻辑量子比特的规模,如此规模足够落地应用。
  从数据上来看,单比特门需要达到 99.99% 的精度,双比特门需要达到 99.9% 的精度,读取也需要达到非常高的保真度。目前双比特门已经可以到 99.4%,保真度已经非常接近算法落地的目标。下一步重要的问题在于提高比特数量的同时,确保量子比特的门保真度不会下降,这也是当前学术界主要研究重点。
  如何解决比特数量和保真度双重问题?
  技术角度怎样解决这两个问题呢?先从超导量子比特角度,观察超导电路转化过程。上图左边是一张简单的示意图,线条可以认为是超导体的线条,电路的下面有一个圆环,圆环上面有两个黄色的小方块,这两个小方块叫约瑟夫森结,用它可以组成超导量子干涉器,叫 SQUID。
  上图右方能看到两个小山峰,可以认为是一个粒子在这个山峰里面滚来滚去的系统,把这个系统量子化之后,就可以劈裂成一系列分粒的能级,就可以利用这些能级进行量子操作。量子操作需要控制、读取。
  读取就是上图黄色标记(Re-out),可以认为通过一根输入线和一根输出线,就可以读取量子比特的状态。单个比特很容易画电路结构,但如果有一排,只能借鉴印刷电路的结构,通过设计一排的量子比特来进行量子计算的各个研究。
  显然一排的结构不太适用于实际的应用需求,还需要二维的阵列结构,但是二维的阵列结构中量子比特的控制线以及读取很难实现。这也是量子比特的数量提升会遇到瓶颈的原因。解决这个问题的基本思路是增加维度实现布线的可能性。
  2014 年,谷歌已经有了这个想法,通过借鉴传统的半导体工艺(Flip-Chip 的工艺,倒装焊)把两个芯片对接扣到一起,从而实现布线。上图右上角是谷歌的 Sycamore 处理器,它是由两个芯片贴合而成,上面的芯片就是比特,下面芯片就是布线。
  谷歌通过这种方式实现了二维比特阵列的控制和读取。此概念可以再进一步发展,不仅局限于两个芯片,可以把很多层的芯片贴合到一起,这就是多层堆叠技术,麻省理工 Lincoln Lab 也已经实现这项技术。所以,在这样的技术突破基础上,布线可能就不会成为阻碍比特数扩张的拦路虎。
  另一个问题是如何提升比特门的操作精度。目前,比特门的操作精度受限于退相干时间,简单来说,这个问题已经转换成如何在提升比特数量的同时,还能够提升量子比特的相干时间。
  根据研究,可以认为超导量子比特的退相干主要是受 TLS 影响,TLS 就是两级系统(Two level System),超导量子芯片的衬底和表面可能有一些缺陷杂质,能形成亚稳态或者半能级系统,会干扰超导量子比特的运行。提升超导量子比特的退相干需要把缺陷杂质去除,把超导量子芯片电路做得越干净,退相干性能就会变得越好。
  所以,从根源上来说,需要从材料和工艺两个方面进行改进,从超导量子计算的发展来看,业界对材料做了非常多的创新和改进,两到三年的时间增加了一倍的退相干时间。
  在超导量子比特刚刚出现时候,都没意识到材料问题。因为超导量子比特出现非常晚,到目前为止,也就只有 21 年的历史。今年是超导量子比特发现的第 21 年,它的退相干性能从小于一微秒,迅速提升到两三百微秒,靠的就是材料和工艺的更新。
  早期的量子比特用的都是非常传统的材料,半导体经常用到的材料也是量子比特的选择,但是退相干性能比较差,小于一微秒。基于这个原因,研究人员当时对超导量子计算并不寄予厚望。
  所以,当时的想法是用来做基本的研究,研究量子力学的基本问题,如果拿它来做量子计算还是存在差距。2007 年,研究人员换了一种电容结构。2013、2014 年,谷歌又提出了很多工艺的革新,包括设计上也做了一些更新。退相干时间迅速提升到百微秒的级别。
  在今年,也有科学家发明了新的材料,比如钽这种金属可能把比特的退相干时间进一步提升到几百微秒的量级。这对研究人员非常鼓舞,超导量子计算的发展时间虽然短,但是 21 年的发展期间,一直保持着非常快的进步速度。目前新工艺、新材料也没有达到瓶颈,比如可以用超高真空的封装让电路的表面更加干净。
  对于超导量子比特退相干时间的提升,研究人员比较乐观,预期提升到毫秒的级别毫无问题。毫秒是什么样的概念呢?意味着一个量子比特,单比特可以达到 5 个9(99.999%)的保真度,双比特有可能可以达到 4 个9(99.99%)的保真度。
  根据目前已知的量子算法,真正产生实际应用价值还需要 100 万个比特的规模,100 万个比特太过遥远,至少十年才能实现这个目标,寄望于十年的技术突破,对行业发展非常不利。
  于是研究人员考虑:100 到 1000 个规模的量子芯片,能不能实现有价值的应用呢?上图蓝色 2 区域,在谷歌确定量子霸权的时候已经实现,从 2 走到 3 可能是谷歌下一步要走的路。在 2 和 3 之间,谷歌定义为近期应用,主要目的就是在 2 和 3 的中间,尝试去找有价值的应用。
  量子计算与经典计算或可协同
  人们经常用上图来对量子计算与经典计算做比较,谷歌有时候也会炒概念,比如量子计算机挑战传统的超级计算机。目前来说,传统的超级计算机功能非常强大,远远强于我们目前所拥有的量子计算机的能力。从对抗的角度来看,量子计算机在十年之内可能毫无希望。
  如果换一个角度考虑,量子计算的目的不是挑战经典计算机的优势,而是协同。能否突破以前单纯靠经典计算机的困境,才是真正应该思考的方向。
  量子计算领域如何进一步发展?
  第一、最核心的关键问题是提升量子比特测控的精度;
  第二、量子纠错是使用量子计算机比较关键的步骤;
  第三、实现 100 万个量子比特之前,在 100 到 1000 的量子比特规模要去做 NISQ 的研究,这时候需要原型机启发;
  第四、量子领域可持续发展的问题要重视,因为有些观点认为量子计算机肯定造不出来,这会对领域造成破坏;也不能过分乐观,向公司投资者或者政府投资者过分地承诺,如果实际技术发展没有那么快,可能会让投资者失望,也会破坏这个领域;
  第五、量子计算和经典计算的关系是非对抗的关系,量子计算很多技术来自经典计算;
  第六、在量子计算技术发展过程中,企业有非常重要的地位,因为企业和实际的应用更加靠近,可能会带来不一样的想法,帮助量子计算找到真正的应用价值;第七、企业和科研院所应当更加开放,量子计算可能在短期内无法做到有价值的商业化落地,在此阶段,过分强调技术保护可能不利于技术的发展。
10-08 21:56