NVIDIA CUDA-Q助力业内首个量子计算逻辑量子比特演示

描述

量子计算具有变革药物发现、物流等各行各业的巨大潜力。然而,噪声一直是量子器件在投入实际应用的过程中所面临的巨大障碍。由于存在这些因环境相互作用和不完美硬件导致的噪声干扰,量子计算的性能目前在量子比特仅仅执行数百次运算之后就会发生不可逆的退化。

尽管量子硬件中的噪声看似不可避免,但逻辑量子比特可以解决这个问题。通过将数十、数百甚至数千个实际物理量子比特组合在一起,逻辑量子比特可以纠正噪声导致的错误,堪称量子计算领域利器。量子硬件制造商 Infleqtion 近日取得了重大突破,其利用 NVIDIA CUDA-Q 平台成功地设计并演示了一项采用两个逻辑量子比特的实验。

Infleqtion 使用这些逻辑量子比特进行了单杂质安德森模型的小规模演示,这种高精度方法在材料科学领域的许多重要应用中都必不可少。

这是业界首次在逻辑量子比特上演示材料科学量子算法。在仅仅创建一个逻辑量子比特就已经极具挑战性的情况下,Infeqion 成功地取得了这项重大突破,这得益于其量子计算机使用了 CUDA-Q 独特的 GPU 加速模拟能力进行精确建模。

Infleqtion 首先在 CUDA-Q 的模拟器中开发和测试了整个实验,随后只需进行微小调整即可使用 CUDA-Q 策划这项实验,在其 Sqale 中性原子量子处理器中使用实际的物理量子比特。

这项突破性进展为量子计算迈向大规模纠错系统奠定了基础。

然而,要想打造大型逻辑量子比特系统,目前的量子器件仍面临着许多扩展上的挑战。只有通过集成量子硬件与 AI 超级计算机来打造加速量子超级计算机,才能解决这些挑战。

NVIDIA 将继续与 Infleqtion 等合作伙伴携手推进这项突破性的研究工作,使加速量子超级计算变成现实。

 

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分