国际量子科技前沿(70)|《Science》年底压轴重磅:量子计算如何从“实验室原型”走向“工业级系统”?
2025/12/12
引言
量子信息科学正站在一个历史性的拐点。过去十年间,实验室中的奇思妙想已开始蜕变为可触碰的技术原型。然而,若想将量子计算、全球量子互联网等宏大愿景变为现实,我们仍需在硬件领域穿越一段布满挑战的“创新深水区”。《Science》杂志于2025年12月发表的这篇重磅综述《Challenges and opportunities for quantum information hardware》,该篇文章如同一幅精密绘制的航海图,不仅标定了各技术路线的当前坐标,更以史为鉴,为整个领域的未来航向提供了思考。

第一章 从经典计算演进逻辑中寻找答案
回顾经典计算机七十五年的发展历程,对于理解当前量子技术所在的处境至关重要。早期晶体管和集成电路的发明,源于对半导体物理“自下而上”的探索,那是一个纯粹发现的时代。然而,一旦基础原理确立,后续的爆炸性增长——从微处理器到如今的万亿级晶体管芯片——则是由“自上而下”的系统级需求驱动的。当芯片功耗和漏电成为制约摩尔定律延续的瓶颈时,产业界转向采用高介电常数材料(如二氧化铪)替代传统二氧化硅栅极介质的需求,这种明确的目标进而引导了材料科学家的定向研究。这带给量子技术的启示是深刻的:当前各主流平台已基本满足了构建量子计算机的迪文森佐准则(DiVincenzo Criteria,用来评判某个硬件平台是否有资格成为量子计算机的五条法则:可扩展的量子比特、能量子态进行初始化、长相干时间、一组通用量子门以及能够对量子比特进行大测量)。下一步的发展逻辑必须从“我们能制造什么样的高性能量子比特”转向“为了构建容错量子计算系统我们需要什么样的硬件特性”。在未来若想是实现质的突破,不再是提高某个孤立的量子比特的性能,而是源于为构建包含数千个逻辑量子比特的容错系统,而对材料、器件和架构提出的协同设计要求。
此外,经典计算的辉煌也是一部开放合作的历史。诸如登纳德缩放定律(Dennard Scaling,当晶体管尺寸缩小一定比例,只要把工作电压和电流也缩小同样比例,就可以在不增加功率密度的情况下,增加晶体管密度和晶体管开关速度)等深刻理解,大多通过公开论文传播,成为了全行业共享的知识基石。这种“竞争前”的研究避免了在基础共性技术上“重复发明轮子”,我们应当将整个领域的智力集中于真正的未知前沿。当前的量子技术社区正面临着类似的抉择,构建开放的、标准化的知识体系才是加速突破的关键。例如,若全行业能共享对超导量子比特中“二能级系统”损耗机制的理解,或是统一半导体界面的缺陷控制标准,将比各自为战更快地催生出普适的材料解决方案。
最后对于量子技术的发展一定要有耐心!每一个计算时代的更迭,背后都是材料与工艺的静默革命。从极紫外(EUV)光刻技术长达二十多年的研发周期中我们可以看到,从实验室原理验证到工业级量产,往往需要漫长的耐心。无论是用于低损耗量子互连的新型光子材料,还是能实现高均匀性量子点阵列的原子级精准制造工艺,都需要这种战略定力。
第二章 技术准备程度(TRL)背后的真实差距

图1 不同量子平台的技术准备程度快照。技术准备程度等级从 1(实验室环境中观察到的基本原理)到 9(在实际环境中得到验证的新兴平台)。
为了客观评估复杂的量子技术现状,文章的作者引入了“技术准备程度”(TRL)框架,并结合大模型(ChatGPT、Gemini)进行分析,对六种量子硬件平台在不同应用领域的成熟度进行了评估。这一评估揭示了一个常被公众误解的事实:高TRL并不等同于高性能。一个平台可能在系统集成和演示上已经相当成熟,达到TRL 7甚至更高,但其核心性能指标可能仍处于初级阶段。例如1971年发布的Intel 4004微处理器,虽然在当时它是当之无愧的高TRL产品,但放到今天其计算能力与如今的GPU相比有着天壤之别。现如今那些可以通过云端访问的量子计算机原型也是如此,它们对于教育和算法验证具有很大价值,但距离能够解决药物设计或材料模拟等实际商业问题所需的容错逻辑量子比特,仍有漫长的工程鸿沟需要跨越。此外,TRL评估还揭示了发展的不平衡性,例如基于自旋缺陷的平台在量子传感和网络节点方面已经相当成熟,但在大规模通用计算方面则相对滞后,这种清晰的定位有助于科研资源与人才的合理配置。
第三章 六大硬件平台的发展现状

图2 六大量子硬件平台
在具体的硬件路径上,超导量子比特无疑是当前最接近“工业化”形态的领跑者。这项技术的精髓在于利用铝、铌等超导材料构建约瑟夫森结,在蓝宝石上制造出宏观的“人造原子”。其最大的优势在于速度——量子逻辑门的操作时间极短,仅需10到40纳秒,这使得系统能够在量子态退相干之前执行足够多的指令。目前最先进的超导量子比特处理器已经实现了超过100个量子比特的二维阵列集成,并通过可调耦合器灵活地开关比特间的相互作用。2025年,该领域迎来了一个里程碑式的转折点:研究人员在实验中构建了基于表面码的逻辑量子比特,通过将纠错码的“距离”从3提升至5再到7(分别对应17、49和97个物理比特),不仅观察到了错误率的显著下降,更重要的是,距离为5和7的逻辑量子比特错误率已经低于最好的物理比特本身。这证明了我们不再被微观世界的噪声所奴役,而是可以通过增加硬件冗余来获得确定性的计算结果。但这种“暴力美学”的扩展方式正撞上一堵工程高墙:目前的超导比特尺寸较大(约1平方毫米),且采用“一量子比特对应一到三根线”的控制模式。如果按照当前架构扩展到百万比特,意味着需要数百万根微波线缆穿过稀释制冷机,这在热负荷和空间上都是不可能完成的任务。除非在低温控制电路(Cryo-CMOS)或光子链路互连上取得突破,否则单个制冷机内的算力增长已接近天花板。
如果说超导是宏观物理的胜利,那么半导体量子点技术则是微纳加工的极致体现,它寄托着将量子计算无缝植入全球半导体产业链的梦想。该技术主要利用栅极电压在硅/硅锗(Si/SiGe)或锗/硅锗(Ge/SiGe)异质结中形成势阱,囚禁单个电子,利用其自旋作为量子比特。其核心竞争力在于“小”与“兼容”——比特尺寸仅为纳米级,且制造工艺与现代芯片产线高度重合。目前,研究人员已成功在300毫米的标准晶圆厂中流片制造出保真度达到99%的量子点阵列,证明了工业级大规模制造的可行性。特别值得关注的是锗基材料的兴起,由于其较强的自旋轨道耦合,实现了对四个量子比特的通用控制。更令人兴奋的是,相比于超导必须在10mK环境下工作,半导体自旋比特正在向更高的工作温度(1K)进军,且在此温度下已实现了99.8%的门保真度。这一度的温差看似微小,实则意味着制冷功率成千上万倍的提升,极大地简化了系统复杂度。但在通往大规模集成的路上,材料物理层面的挑战依然严峻:硅晶格结构导致的“能谷分裂”现象若控制不均,会引发量子态泄漏;而在如此狭小的空间内(纳米级间距)进行高频微波寻址,如何避免信号串扰干扰邻近比特,仍是亟待解决的难题。
在量子网络的构建中,自旋缺陷平台扮演着不可替代的“特种部队”角色。无论是金刚石中的氮-空位(NV)中心,还是碳化硅、稀土离子(如镱-171)掺杂的晶体,它们本质上是固态晶格中被捕获的原子级系统。这些系统的独特之处在于其天然的模块化结构:电子自旋可以作为与光子交互的快速通信接口,而周围的核自旋则提供了寿命长达分钟甚至小时的稳定存储单元。这种“通信+存储”的组合,使其成为量子互联网中继器的完美人选。目前的实验不仅展示了三节点、五比特的小型网络,更通过量子频率转换技术,将原本容易损耗的可见光信号转换为适合长距离传输的通信波段光子,在十公里的光纤网络中实现了纠缠分发。这一平台面临的主要挑战在于制造工艺的随机性——要在晶体中精准地植入缺陷并控制其周围的电荷环境极其困难,且光子收集效率目前受限于材料界面,通常仅有50%左右,这限制了纠缠生成的速率。
与此同时,自然界中的“完美量子比特”——原子与离子,正以两条截然不同但同样精妙的路径推进。囚禁离子技术利用射频电场将带电原子悬浮在真空中,由于离子之间通过强库仑力相互作用,其逻辑门保真度极高。但正因为库仑力是长程力,将过多离子塞进同一个势阱会导致运动模式过于复杂,难以控制。因此,未来的扩展必须依赖“量子电荷耦合器件”(QCCD)架构,即把芯片设计成复杂的迷宫,让离子像穿梭巴士一样在不同的操作区(Trapping Zones)之间移动,这对电场控制的精度和表面材料的稳定性提出了极高要求。另一边,中性原子阵列则利用成千上万个光镊(高度聚焦的激光束)来捕获原子,并通过激发到里德伯态(Rydberg states)实现微米量级的相互作用。其扩展速度惊人,目前光镊能控制的原子数量理论极限可达十万级,是量子模拟领域的绝对霸主。但该方案对“光”的依赖也是其软肋:维持成千上万个光镊需要极高功率的激光系统,且原子的移动和重排速度受限于机械和光学调制器的物理极限,这限制了算法的运行速度。
光子作为信息的终极飞行载体,在量子计算和互连中占据着独特的生态位。在全光量子计算路线上,目前主要采用基于测量的“簇态”(Cluster State)计算模型。传统的概率性单光子源效率低下,限制了簇态的规模,但基于腔量子电动力学(Cavity QED)的新技术正在改变游戏规则——利用被光学腔囚禁的原子作为“光子织布机”,可以确定性地编织出包含十几个光子的一维或二维簇态,甚至通过“融合”操作构建更大的纠缠网络。更为关键的是,光子学是所有量子硬件的“粘合剂”。无论是超导比特的微波信号读取,还是原子阵列的控制,亦或是将不同模块连接成超级计算机,都离不开高性能的光子器件。然而,现有商用硅光子器件0.25-1dB/cm的损耗对于量子信号来说依然太高。为了突破这一瓶颈,学术界和产业界正在联手将薄膜铌酸锂、氮化铝等新材料引入加工流程,试图制造出损耗更低、调制速度更快、且能在低温下工作的集成光子芯片。如果说其他平台是构建量子计算机的大脑,那么光子学就是连接神经元的突触,其性能直接决定了系统能否从单核走向多核、从孤岛走向网络。
第四章 无法回避的四大系统性挑战

图3 低温CMOS双量子比特接口芯片组及量子计算验证系统,图片来自于[2]
当我们的视线从单个平台移开,从更高的视角去审视构建大规模量子系统时,一系列共通的系统级挑战便浮现出来。首先是材料与制造的挑战。商用硅光子器件的损耗对于经典通信或许可以接受,但对于量子应用则是致命的,这迫使我们必须研发如薄膜铌酸锂等新型低损耗材料,并将其推向代工厂的标准工艺中。在微波领域,传输控制信号的波导品质因数也需大幅提升以降低噪声。此外,理解并控制原子级的表面界面,消除微观缺陷导致的退相干,是提升所有固态量子比特性能的基础科学问题。
布线问题则是另一个制约扩展的瓶颈。每比特独立连线的模式已接近物理极限,未来的解决方案必然指向信号复用技术,即用一根线控制多个比特,但这要求比特频率的高度均匀。另一种更激进的方案是将控制电路(如低温CMOS)直接集成在量子芯片旁,但这又带来了热耗散和噪声干扰的新挑战。与此同时,随着比特数目的增长,校准工作量也随之上升。未来的量子计算机必须依赖机器学习和自动化技术,来实时管理成千上万个比特的频率漂移和参数校准。
最后,尺寸与功耗正在成为从实验室走向商用的现实障碍。目前的实验系统的能耗是相当惊人。无论是庞大的稀释制冷机,还是高功率的激光阵列,都需要在能效和体积上进行革命性的优化,否则未来的百万比特机器将面临无处安放和供电困难的窘境。若一台通用量子计算机需要一座小型核电站来维持它的运行,那它的“通用”便毫无意义。
第五章 “量子乐高”拼出的异构未来

图4 未来模块化架构:每个量子计算模块都由具有不同功能的子模块(处理、存储、量子随机存储器、互联)以及一个经典控制层组成(右下)。然后这些模块通过类似于数据中心机架架构的短量子互连相互连接(左下)。这些机架可以在量子互联网中跨越更远的距离连接到其他机架(上)。
面对上述挑战,一种清晰的未来架构愿景逐渐浮出水面,那就是模块化量子系统。与其试图在一个单一的巨型芯片上集成数百万个量子比特,不如将其分解为许多个功能化、规模适中的“量子模块”。这种化整为零的策略可以将布线、散热和良率问题限制在模块内部,大幅降低工程复杂度。更重要的是,模块化架构允许我们采用更高效的量子纠错码(如qLDPC码),从而降低实现容错所需的物理资源开销。
在这一蓝图中,光子学将成为连接各个模块的基石。实现模块间高保真、高速率的量子态传输,必须依赖高性能的量子互连技术,例如腔光力学系统、磁光/磁振子系统等。这需要开发包括高效光子源、低损耗开关以及微波-光学转换器在内的一系列新器件。同时,未来的量子系统极可能是异质集成的——利用超导或半导体量子点进行快速运算,利用原子或离子提供长寿命存储,利用固态色心作为网络接口,各取所长,并通过集成光子线路将它们有机地融为一体。
终章 总结
量子技术的征程,其复杂性已远超任何单一团队、公司甚至国家的能力范围。我们正处于一个关键的转型期,需要像当年微电子产业那样,形成跨越学术界、工业界和国家实验室的全球创新共同体。这场远征不仅是对物理极限的挑战,更是对工程创造力、跨学科协作以及长期战略耐心的巨大考验。最终,量子时代的真正到来,将取决于我们能否培养出一代能够融会贯通物理、材料与工程的新型人才,将量子力学的神秘力量,转化为造福社会的革命性技术。
参考文献:
[1]: https://www.science.org/doi/10.1126/science.adz8659
[2]: https://www.nature.com/articles/s41928-024-01145-9
撰稿|潘 洋
指导|刘玉龙
编辑|陈治光 王海月
English
OA
Email
