谷歌计划如何解决量子计算的准确性问题

尽管准确率仅小幅提升,但该公司声称这是一个“重大进步”。
google's quantum processor
谷歌量子处理器一览。谷歌/YouTube

在本周发表于《自然》杂志的论文中,谷歌量子人工智能研究人员展示了一种通过增加运行的“量子比特”(qubits)数量来减少量子计算机错误的方法。据谷歌CEO桑达尔·皮查伊称,这是实现“让量子应用对人类进步产生意义”的“一大步”。

传统计算机使用二元比特——只能是零或一——进行计算。无论你是玩电子游戏、编辑文本文档还是创作人工智能生成的艺术,所有底层计算任务都由二元字符串表示。但有些复杂的计算,例如模拟原子相互作用,在传统计算机上无法大规模进行。研究人员不得不依赖近似值,这会降低模拟的准确性,并使整个过程变得毫无意义。

这就是量子计算机的用武之地。它们不使用普通比特,而是使用量子比特,量子比特可以表示零、一,或同时表示零和一。它们甚至可以纠缠、旋转和以其他量子特有的方式进行操作。一台可行的量子计算机不仅能让研究人员更好地理解分子相互作用,还能让我们模拟复杂的自然现象,更轻松地检测信用卡欺诈,以及发现新材料。(当然,也存在一些潜在的缺点——量子计算机可以破解目前保护从密码、银行交易到公司和政府秘密的经典算法。)

但目前,这一切在很大程度上仍然是理论性的。量子计算机目前太小且容易出错,无法改变世界。谷歌的最新研究在解决后者的问题上取得了一定进展。(IBM正在努力解决前者的问题。)

问题在于量子计算机对几乎所有事物都极其敏感。它们必须在密封的、低温冷却的装置中运行。即使是 Stray photon 也会导致量子比特“退相干”或丢失其量子态,从而产生各种干扰计算的奇怪错误。直到现在,增加量子比特数量也意味着增加发生随机错误的几率。

据谷歌称,其第三代Sycamore量子处理器拥有53个量子比特,通常的错误率在万分之一到百分之一之间。这个错误率对于解决现实世界的问题来说太高了;谷歌的研究人员认为,我们需要量子比特的错误率在十亿分之一到百万分之一之间。

不幸的是,通过当前的物理量子比特设计极不可能实现这种性能提升。但是,通过将多个物理量子比特组合成一个逻辑量子比特,谷歌已经展示了一条潜在的前进道路。

研究团队举了一个简单的例子来说明这种设置如何减少错误:如果“鲍勃想通过一个有噪声的通信信道向爱丽丝发送一个读数为‘1’的单个比特。鲍勃意识到如果比特翻转为‘0’,消息就会丢失,因此他发送了三个比特:‘111’。如果其中一个比特错误地翻转了,爱丽丝可以通过对所有收到的比特进行多数投票(一种简单的纠错码)来理解原始消息。”

由于量子比特具有额外的状态可以翻转,事情会变得更加复杂。更糟糕的是,由于我们处理的是量子问题,直接测量它们的值会导致它们丢失“叠加态”——一种允许它们同时具有‘0’和‘1’值的量子特性。为了克服这些问题,你需要量子纠错(QEC),即信息被编码在多个物理量子比特中以创建一个逻辑量子比特。

研究人员将两种类型的量子比特(一种用于处理数据,一种用于测量错误)排成棋盘状。据谷歌称,“顶点上的‘数据’量子比特构成了逻辑量子比特,而每个方格中心的‘测量’量子比特则用于所谓的‘稳定器测量’。”测量量子比特能够在“不暴露单个数据量子比特值”从而破坏叠加态的情况下,检测到错误发生。

为了创建一个逻辑量子比特,谷歌研究人员使用了49个物理量子比特:25个数据量子比特和24个测量量子比特。至关重要的是,他们将此设置与由17个物理量子比特(9个数据量子比特和8个测量量子比特)组成的逻辑量子比特进行了测试,发现更大的网格比小的网格准确率高出约4%。虽然只是小幅提升,但这在该领域是首次通过增加量子比特数量而不是增加错误率来减少错误。(理论上,一个包含577个量子比特的网格的错误率将接近目标值万分之一。)

并且尽管近期进行了裁员,谷歌似乎仍致力于更多的量子研究。在他的博客文章中,皮查伊表示,谷歌将“继续努力,直到量子计算机能够与经典计算机协同工作,拓展人类知识的边界,帮助我们找到解决世界上一些最复杂问题的方案。”

 

更多优惠、评测和购买指南

 
Harry Guinness Avatar

Harry Guinness

撰稿人

Harry Guinness 是一位爱尔兰自由作家兼摄影师。他一年中的大部分时间在爱尔兰和法国阿尔卑斯山之间度过。Harry 的作品发表在《纽约时报》、《流行科学》、OneZero、Human Parts、Lifehacker 等数十家媒体上。他撰写关于科技、文化、科学、效率以及它们碰撞的文章。


© .