在人類探索計算極限的漫長征途中,一場靜默卻深刻的革命正在悄然醞釀。就在數(shù)年前,學(xué)界普遍認(rèn)為,真正能破解復(fù)雜化學(xué)反應(yīng)、革新材料科學(xué)乃至顛覆現(xiàn)代加密體系的“實(shí)用容錯量子計算機(jī)”,仍需等待數(shù)十年之久。然而,隨著技術(shù)突飛猛進(jìn),這一曾經(jīng)遙不可及的夢想,正加速向我們走來。
幾年前,如果有人提出“量子計算在十年內(nèi)將迎來實(shí)用突破”,這樣的說法很可能會被輕易否定。如今,這種預(yù)期正成為新常態(tài)。圖為牛津離子公司的量子計算機(jī)芯片。圖片來源:牛津離子公司

《自然》雜志網(wǎng)站報道指出,近年來,全球多個頂尖團(tuán)隊(duì)宣布在量子糾錯、門操作保真度與系統(tǒng)集成等方面取得決定性進(jìn)展。越來越多科學(xué)家開始相信:百萬比特規(guī)模容錯量子計算機(jī)將于2035年面世。
大規(guī)模容錯證實(shí)可行
量子計算機(jī)依托的“量子比特”除了可為0或1外,還可同時處于0與1的疊加態(tài),并通過糾纏實(shí)現(xiàn)指數(shù)級并行運(yùn)算。但量子態(tài)極端脆弱,環(huán)境噪聲、熱擾動甚至測量行為本身都會導(dǎo)致信息迅速退相干。更棘手的是,任何對量子比特的操作都可能引入錯誤。若不加以糾正,這些誤差將在計算過程中不斷累積,最終使結(jié)果毫無意義。
于是,“容錯量子計算”成為核心命題。早在上世紀(jì)90年代,以色列科學(xué)家多麗特·阿哈羅諾夫等人便提出:只要單次操作的錯誤率低于某一閾值,就可通過重復(fù)應(yīng)用量子糾錯技術(shù),將整體錯誤率無限壓縮。
近年來,4個獨(dú)立研究團(tuán)隊(duì)證實(shí)他們構(gòu)建的量子系統(tǒng),基礎(chǔ)錯誤率已跨越這一關(guān)鍵閾值。谷歌量子人工智能實(shí)驗(yàn)室與中國科技大學(xué)利用超導(dǎo)電路中電子的集體態(tài)編碼量子信息;量子連續(xù)體公司使用的是電磁阱內(nèi)單個離子內(nèi)電子的磁取向;量子時代公司則借助光鑷捕獲中性原子,通過其排列表示信息。這意味著,大規(guī)模容錯計算不再是紙上談兵,而是物理上可實(shí)現(xiàn)的目標(biāo)。
這些團(tuán)隊(duì)共同采用并改進(jìn)了一種核心技術(shù):量子糾錯。其基本思想是,將一個邏輯量子比特承載的信息分散編碼到多個物理量子比特內(nèi)。當(dāng)部分物理量子比特出錯時,系統(tǒng)可識別并修復(fù)錯誤。
讓糾錯變得足夠高效
糾錯原理已被驗(yàn)證,下一個真正的挑戰(zhàn)接踵而至:如何讓糾錯變得足夠高效?
目前主流估算顯示,一個邏輯量子比特往往需要上千個物理量子比特支撐,即所謂“1000∶1”的冗余比例。然而,當(dāng)今最大量子處理器也不過數(shù)千比特規(guī)模。若要運(yùn)行大整數(shù)因式分解等標(biāo)志性任務(wù),早期估計甚至需要數(shù)十億比特,這顯然遠(yuǎn)超當(dāng)前工程能力。
轉(zhuǎn)機(jī)出現(xiàn)在算法與架構(gòu)創(chuàng)新中。近年來,研究人員發(fā)現(xiàn),通過優(yōu)化量子門序列的組織方式,可顯著減少資源消耗。2024年,谷歌科學(xué)家克雷格·吉德尼提出一種新型三維拓?fù)渚幣欧椒?,將因式分解大?shù)所需的量子比特數(shù)從2000萬個銳減至100萬個,降幅達(dá)兩個數(shù)量級。
與此同時,糾錯編碼本身也在進(jìn)化。IBM研發(fā)的新一代表面碼,有望將冗余比壓縮至100∶1;量子時代公司也憑借其中性原子平臺的獨(dú)特優(yōu)勢——量子比特可自由移動并按需糾纏,瞄準(zhǔn)同一目標(biāo)。
在量子門保真度上,一些研究團(tuán)隊(duì)也取得了顯著突破。
2025年6月,英國牛津大學(xué)莫莉·史密斯團(tuán)隊(duì)報告了高達(dá)99.999985%的單量子比特門保真度,較此前紀(jì)錄提升10倍。10月,牛津離子公司宣布,其雙量子比特門操作保真度達(dá)到99.99%;以色列量子晶體管公司也于12月宣布,實(shí)現(xiàn)99.9988%的雙量子比特門保真度。
延長量子比特相干時間
如果說糾錯是“軟件防護(hù)”,那么延長量子比特的相干時間,則是提升“硬件耐力”的關(guān)鍵。
美國普林斯頓大學(xué)團(tuán)隊(duì)去年在《自然》發(fā)表論文,宣布通過純化基底材料等一系列改進(jìn),他們將超導(dǎo)量子比特壽命從0.1毫秒提升至1.68毫秒。
研究人員表示,若能將壽命延長至10毫秒,糾錯所需的資源開銷可再降兩到三倍。這意味著,用3萬到5萬個量子比特可完成大整數(shù)質(zhì)因數(shù)分解等任務(wù),已不再是遙不可及的目標(biāo)。這一數(shù)量級,正好接近企業(yè)希望在一臺單一的超低溫制冷裝置中容納的量子比特規(guī)模。
傳統(tǒng)系統(tǒng)中,每個量子比特需通過導(dǎo)線連接至室溫控制器,造成布線擁堵與信號衰減。但下一代可在極低溫環(huán)境下工作的電子學(xué)器件,理論上可被直接放置在制冷設(shè)備最冷的區(qū)域,并與量子芯片高度集成。谷歌透露,其最新低溫平臺已支持約1萬個比特集成,如果這一設(shè)想成為現(xiàn)實(shí),未來版本有望容納數(shù)十萬個量子比特。
幾年前,如果有人提出“量子計算在十年內(nèi)將迎來實(shí)用突破”,這樣的說法很可能會被輕易否定。如今,這種預(yù)期正成為新常態(tài)。中國科技大學(xué)陸朝陽教授預(yù)測,到2035年前后,人們將迎來百萬比特規(guī)模、完全容錯、具備實(shí)用價值的量子計算機(jī)。

