《電子技術應用》
您所在的位置:首頁 > 通信與網絡 > 業(yè)界動態(tài) > 走進大眾視野的量子計算機

走進大眾視野的量子計算機

2018-11-06
關鍵詞: 量子 IBM 云端

量子計算機的發(fā)展方向如今尚不明確,但是對于國家政府和很多公司而言,量子計算的研究方向并不是量子優(yōu)勢、量子至上或者量子計算機在完成特定任務的過程中可以勝過傳統(tǒng)計算機的優(yōu)點。

全球都在為了量子計算機而競爭。最新數據顯示,位于加州的Rigetti正處于這場比賽的領先位置,它的目標是在一年內造出一臺128比特的計算機。

1541378831758005911.jpg

量子比特比傳統(tǒng)計算機的比特要厲害得多。傳統(tǒng)計算機的比特不是“0”,就是“1”。但是量子比特不同,它利用電子自旋的優(yōu)勢,可以同時為“0”和“1”。量子計算機的一個特點是它能夠有效地通過各種不同的結果來檢測系統(tǒng)故障。這些系統(tǒng)故障包括從加密破壞和路徑故障到神經形態(tài)計算和分子建模的所有問題。根據《科學》最近發(fā)表的一篇文章表明,有些行業(yè)有可能將實現(xiàn)指數級加速。

但現(xiàn)在說這個還太早。即使是研究量子信息理論的領先企業(yè)IBM,也似乎已經厭倦了這種炒作。當然,IBM也希望可以將量子計算機技術商業(yè)化。和Rigetti和D-Wave一樣,IBM最近向全球初創(chuàng)公司開放了自己的云端資源。

英特爾專門研究量子計算技術總監(jiān)吉姆克拉克(Jim Clarke)表示,想要創(chuàng)造出真正的量子計算機仍然需要克服重重障礙。他說:“要想量子計算機大眾化,我們需要克服在科學和工程技術領域的各種問題?!?/p>

英特爾認為自己已經找到了解決方案。它最近發(fā)布了一種量子芯片。這種量子芯片的體積非常小,即便將它放在橡皮擦上也不會掉下來。該芯片由大量量子比特組成,每個量子比特比一根頭發(fā)還小一千倍。在典型的超導量子計算機中,量子比特存在于被冷卻到超低溫的超導線路中。英特爾的無晶體芯片依賴于易于控制和獲取的傳統(tǒng)組件——硅片。一些研究人員表示,刺激行業(yè)發(fā)展的傳統(tǒng)硅片將成為量子計算機發(fā)展下一階段的關鍵。

“我十分看好英特爾spin qubits芯片的發(fā)展前景?!逼樟炙诡D大學物理學教授杰森佩塔(Jason Petta)說。他最近有一篇論文發(fā)表在《自然》雜志上,該論文描述了他的團隊如何成功通過量子計算芯片傳遞有關電子自旋的信息。

Petta的團隊向人們展示了如何利用光有效地處理數據。利用微波場,他們能夠在原子(電子)和光(微波頻率照片)之間交換一定量的能量。結果是一個簡單又可程控的系統(tǒng):單個電子的量子控制有可能將信息發(fā)送到一厘米之外的另一個量子位。

1541378832060017724.jpg

那么硅會在哪里發(fā)揮作用呢?當基于硅自旋的量子處理器工作時,兩個粒子即電子和光子需要結合。但除非電子被隔離,否則這種情況不會發(fā)生。因此,研究人員建立了一個稱為雙量子點的陷阱指令:它是一個微小的硅腔,可以將電子保持在一個位置足夠長的時間,使其電荷自旋結合。

在此過程中,硅是關鍵。它具有容納特殊電子自旋軌道相互作用的獨特能力,只需使用電力就可以運行。這些相互作用在硅中持續(xù)的時間通常比在其他材料中持續(xù)的時間更長,但是也可能難以控制。

為了解決干擾問題,包括來自設備本身的核,Petta和他的團隊采取了一系列雙量子點。雙量子點效果比單量子點效果好,因為電子能夠來回轉換它們的自旋狀態(tài),使得精心設計的信息交換過程能夠順利進行。

Petta說,新的研究表明硅量子芯片有可能實現(xiàn)量產。相關量子計算研究人員也可能因此獲利。

“作為計算機的基本量子電路,單量子比特與超導量子比特不相上下,也是我們固態(tài)芯片領域最直接的競爭對手。”Petta說。

硅量子比特大約比超導量子比特小一百萬倍,這使工程師們能夠將更多量子比特集合到單個芯片上??死耍–larke)說,這種規(guī)模優(yōu)勢有助于擴大量子計算機的規(guī)模和路徑。

克拉克(Clarke)說:“這將比使用超導量子比特更容易,雖然還有待證實?!?/p>

他補充道,相對于超導量子比特,硅量子比特運行環(huán)境的溫度要稍微高一點?!斑@意味著你需要將集成電路放在更接近量子位平面的位置。如此一來,控制電子設備的空間將會更加緊密。”他說道。除了有助于設備更快地運行以外,硅片還可以促進那些需要獨立空間的設備小型化。

Petta的論文描述的設備只有兩個量子比特。Petta表示要增加量子比特的規(guī)模將需要很長的時間。他的實驗室現(xiàn)在正在研究的是具有四個量子比特的設備。

“我們計劃未來可以研究具有九個量子比特的設備,這將耗費我們好幾年的時間。而且超過數十個量子比特的規(guī)模需要更大量的工程研究?!彼f。

英特爾正在與另一個開展硅量子計算研究的團隊合作,即荷蘭代爾夫特理工大學的Vandersypen實驗室。英特爾承諾在10年內對該研究項目投入5000萬美元。該公司在位于俄勒岡州的公司總部附近制造芯片,并將芯片運往代爾夫特,以進行量子研究。

該實驗室最近在《Nature》上發(fā)表的一篇論文描述了如何利用硅創(chuàng)造出能夠處理量子算法的處理器。他們創(chuàng)建了一個由雙量子點組成的可編程計算機,即在基于硅的設備中的雙量子比特處理器。他們執(zhí)行的一種算法,被稱為Grover搜索算法,以其能夠比傳統(tǒng)計算機更快地在數據庫中挖掘信息而聞名。

盡管如此,這些實驗過程無法等同于基于硅的量子計算機在工廠車間大量生產的過程。“在很大程度上,他們不需要與設計整體順序計算法的人合作?!盋larke分別舉了Petta和Vandersypen描述過的雙量子比特設備的典型例子。

擴大量子比特的規(guī)模

未來的量子計算機將不僅僅是一個量子處理器,就像現(xiàn)在的計算機不僅僅是一個微處理器一樣。大規(guī)模生產依賴于許多移動部件,從控制電子設備到算法架構。

重大的技術問題仍未解決。這些問題如此復雜,以至于總是無法完全解決。比如,你能使兩個量子比特在保持足夠高且必要的保真度的同時進行交互作用嗎?就算你能夠讓這兩個量子比特相互作用,那么如果是四個量子比特呢?或者更多呢?

“每個量子比特都有自己的特點。”克拉克(Clarke)說。即使是具有90%保真度的量子設備也不能夠進行大規(guī)模生產。然而,研究人員還在堅持解決這個問題。今年,有個團隊利用天然硅達到了超過60%的保真度,還有一個團隊最近利用同位素富集硅將雙量子比特的保真度提高到將近95%。

“顯然,要實現(xiàn)99%以上的保真度還需要耗費大量的時間和精力,但其增長趨勢還是非??捎^?!盤etta說?!拔覀兒芮宄男﹩栴}需要我們時刻注意,才能提高雙量子比特的保真度?!?/p>

另一個限制是控制電子設備的速度問題:它們對于自旋量子比特來說還不夠快。

“這些量子比特不會長時間存在,”克拉克(Clarke)說。它們持續(xù)存在的時間太短,無法在大規(guī)模的系統(tǒng)中工作。盡管相關研究人員已經提出了可以對生命支持進行量子比擬的算法,即延長其壽命,但這尚未得到證實是否真的有效果。

Petta強調,還有一個關鍵的限制是原材料。就化學純度和同位素富集而言,自旋量子需要純度非常高的硅。

“到目前為止,美國尚未表示支持采集自旋量子比特相關材料的重大項目。我想不久之后就可以看到美國為了自旋量子比特所需的材料做出努力。”他說。

美國華盛頓一直對量子計算機技術很感興趣。美國能源部最近宣布,它將為全國85個量子研究項目投入2.18億美元。同時美國國家科學基金會將撥款3100萬美元用于量子研究。Petta對自旋量子比特的研究也得到了美國國防部的資助,因為美國急于在這場量子計算機競賽中擊敗中國這個強勁對手。

通過國會的議案也可以帶來更多資金。眾議院已經批準了《國家量子倡議法》。如果該法案通過了參議院批準,該法案將提供13億美元,以支持未來10年對量子計算機的研究。

與此同時,Rigetti也表示向能夠在其128比特的系統(tǒng)上構建應用程序的團隊提供100萬美元的獎金,因為這充分展示真正的量子優(yōu)勢。一般來說,人們認為量子計算機需要使用至少50個量子比特,才能真正超越傳統(tǒng)計算機。

不過,估算是一個不容小覷的問題??死耍–larke)表示,為特定計算任務實現(xiàn)量子優(yōu)勢所需的量子比特數量很大程度上取決于任務本身。在英特爾,他曾使用蛋白質折疊作為內部倡導量子計算的示例目標,但相信使用其他材料完成任務將需要更長的時間。

“我認為密碼學非常復雜,因此第一代或第二代量子計算機對我們的生活可能不會產生太大的影響,”他說?!叭绻沽孔佑嬎銠C真正改變我們的生活,這將需要一百萬個量子比特。我們還有很長的路要走?!?/p>


本站內容除特別聲明的原創(chuàng)文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創(chuàng)文章及圖片等內容無法一一聯(lián)系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。