里程碑式突破:量子纠错低于关键阈值
国际著名学术期刊《自然》最新发表一篇量子计算论文称,谷歌量子人工智能(Google Quantum AI)的最新一代量子芯片,能实现将错误抑制在一个关键阈值以下的量子纠错功能,这被认为是实现未来量子计算实际应用的必要条件。
研究人员认为,最新一代量子芯片的性能扩展后,或能推动大规模容错量子计算的运算要求。
量子计算的挑战:错误率问题
量子计算有潜力在特定任务上加速计算速度并超越经典计算机的能力。不过,量子计算机很容易出错,所以当前的原型机无法运行足够长的时间以实现实际输出。
量子计算研究人员为此设计的解决策略依赖量子纠错,即将信息分布到许多量子比特(量子信息的单位,类似于经典计算机的比特)上,能在不破坏计算的情况下识别和补偿错误。
核心难题:低于阈值的运算
量子纠错需要的量子比特开销可能会引入比它能纠正的更多的错误。因此,实现”低于阈值”的运算一直存在挑战——未纠错率要低于一个关键值,这样才能按预期纠错并指数级地抑制错误。
Willow芯片:突破性架构设计
在本项研究中,美国谷歌量子人工智能及其合作伙伴研发出名为”Willow”的最新一代超导量子处理芯片架构,该芯片能实现低于表面码关键阈值的量子纠错,表面码是一种特定的量子纠错技术。
他们的系统能在数小时内运行最多100万个周期,同时实时解码错误并维持表现。
实验验证:逻辑错误率减半
研究人员进一步在一个72量子比特的处理器和一个105量子比特的处理器上运行了表面码。结果显示:
- 每次码距从3增加到5再到7
- 逻辑错误率减半
这种对逻辑错误的潜在抑制,为运行有纠错功能的大规模量子算法奠定了基础。
里程碑意义
这一突破具有重要意义,因为:
- 关键阈值突破:首次实现将错误抑制在关键阈值以下
- 长期运行能力:系统能在数小时内运行最多100万个周期
- 实时错误解码:能够实时解码错误并维持表现
- 可扩展性:随着量子比特数量的增加,逻辑错误率能够指数级下降
未来展望
研究人员总结表示,这种对逻辑错误的潜在抑制,为运行有纠错功能的大规模量子算法奠定了基础。这标志着量子计算从实验室研究向实际应用迈出了关键一步。
随着Willow芯片的成功,量子计算领域的竞争进入新阶段。全球各大科技公司和研究机构都在加速布局,争取在这一革命性技术领域占据领先地位。