2001年IBM Almaden研究中心在7量子比特NMR体系上实现15=5*3的Shor算法
早在1995年离子阱就能执行逻辑门,1998年第一台核磁共振体系的量子计算机就已经能运行Deutsch-Jozsa算法,然而距离现在实现容错量子计算(Fault-Tolerant Quantum Computing, FTQC)阈值共识:单比特门保真度99.9%,两比特门99%的还有很长一段距离。
对量子体系这种系统进行微观测量是一个很矛盾的点,我们只有对系统接入一个外部的channel才可能进行检测,但这不可避免的会引入decoherence“你的测量导致量子态消失”,我们在测控应该有个标准或者目标来实现容错量子计算。
去年Google在Willow量子『芯片』上验证了量子纠错的可行性
以下是几个对这套容错量子计算系统重要的标准或者要求:
1. 物理错误率必须低于阈值 (Below-Threshold Physical Error Rate):图b,整个系统的错误保持在很低的水平,是重要前提。
2. 稳定性强 (Stability):图c,随着纠错循环次数增加错误率提升缓慢,长时间运行系统稳定性强。
3. 能超越“盈亏平衡” (Beyond Break-Even): 图d,多个物理比特组成的逻辑比特应该比物理比特更少错误,寿命更长。
4. 低延时,高吞吐,实时解码,可拓展:实时解码平均63us,纠错周期1.1us,即使码距增大解码器亦可大规模扩展,及时响应。
目前大多数系统都仍然在努力提升物理比特的质量,同时我也介绍一下历史,帮助大家理解这个过程,当前这套量子比特+谐振腔读取的架构并非与生俱来。早期诞生过许多检测的体系:
1. Charge Qubit(1999): 探针直接检测库柏对隧穿产生的电压或者电流变化,变化太过微弱,不好检测,同时可能寿命不足以完成测量
2. 早期测量的方案通常都是读取线直接耦合后放大信号进行,根据比特状态的不同在频谱的中间得到两个量子态最大的信噪比
3. 中间还出过许多方案,flux qubit, phase qubit。但是也多少都有缺陷,直到Transmon,她对电荷噪声不敏感,因此比特的coherence得到一个质的飞跃,有了微秒级别的寿命(具体可以看前文超导量子『芯片』-transmon/xmon)
4. 大约在2004年,才补充了谐振腔进行耦合的方案,通过测量谐振腔间接地道量子态的状态,谐振腔可以在和量子比特大失谐的情况下当做一个滤波器有效的反射比特能量减少损失,至此就很接近我们当前的比特+读取的一个单元了。
参考文献:
1. https://www.ibm.com/quantum/blog/factor-15-shors-algorithm
2. https://www.nature.com/articles/s41586-024-08449-y
3. https://arxiv.org/abs/2106.10522