華文網

一文讀懂量子機器學習:量子演算法基石已經奠定

新智元編譯

在人類擁有電腦之前,人類就從資料中尋找模式。托勒密將對星系運動的觀測資料納入宇宙地心說的模型,並用複雜的行星輪理論來解釋行星的逆行運動。 在十六世紀,開普勒分析了哥白尼和布拉赫的資料,揭示出以前隱藏未見的模式:行星以太陽為焦點進行橢圓運動。用於揭示這種模式的天文資料分析,

進一步產生了新的數學技術,例如求解線性方程的方法(牛頓-高斯)、通過梯度下降學習優化(牛頓)、多項式插值(拉格朗日)和最小二乘擬合(拉普拉斯)。 十九世紀和二十世紀初,產生了範圍廣泛的數學方法以分析資料,揭示資料中所包含的模式。

二十世紀中期,數位電腦的建成,使得資料分析技術得以自動化。在過去半個世紀中,計算能力的快速發展,

使得回歸和主成分分析等線性代數資料分析技術得以實現,並導致了更為複雜的學習方法,如支持向量機等。在同一時期,數位電腦的快速發展也產生了嶄新的機器學習方法。隨著計算能力的提高, 人造神經網路(如感知器)在五十年代獲得實現; 建立在神經網路(如霍普菲爾德網路和波爾茲曼機)上的深度學習和訓練方法(如反向傳播)在20世紀60年代至90年代被引入和實現。
在過去十年特別是過去五年中,強大的電腦和能夠實現數十億權重深度網路的專用資訊處理器彼此結合,被應用於各種巨型資料集,並揭示出,這樣的深度學習網路能夠識別出資料中複雜和微妙的模式。

眾所周知,量子力學能在資料中產生非典型模式。經典機器學習方法如深層神經網路通常具有這樣的特徵:它們可以識別資料中的統計模式,並產生具有相同統計模式的資料;換句話說,

它們可以識別出它們所要產生的模式。這一特點揭示出一種希望:如果小型量子資訊處理器可以產生出經典電腦在計算方面很難產生的統計模式,那麼,或許量子處理器也可以識別出經典電腦難以識別出的統計模式。

這個希望能否實現,取決於是否可以為機器學習找到有效的量子演算法。量子演算法是用於解決問題的一組可以在量子電腦上執行的指令,

例如,這個指令可以是”確定兩個圖是否同構“。量子機器學習軟體則以量子演算法作為更大型的軟體實現的組成部分。通過分析量子演算法所規定的步驟,顯而易見的是,針對某些特定問題,它相對於經典演算法具有潛在優勢,能夠降低步驟數量。這個潛在優勢被稱為量子加速。

量子加速的概念可以從兩個視角來理解。如果採取採用形式化的電腦科學視角,那麼能否加速需要數學證明。如果採用實用的視角,這個問題便相當於問,基於現實的有限大小的設備,能否實現加速;而這要求我們能以統計證據證明,在某些有限問題集合上,量子演算法具有規模性優勢。對於量子機器學習來說,與之對照的經典演算法的最佳性能並不總是已知的。這與用於整數分解的Shor-多項式時間量子演算法的情況有些類似:我們尚未發現低於指數時間的經典演算法,但並不能排除這種可能性。

要確定量子機器學習相對於經典機器學習是否具有規模性優勢,這依賴於量子電腦的現實存在,這個問題也被稱為“測試基準”問題。量子機器學習的優勢可能包括:提高分類精度,對經典方法無法進入的系統進行採樣。 因此,目前機器學習的量子加速特性,是使用複雜度理論中的兩個理想化指標,查詢複雜度和門複雜度,來衡量的。查詢複雜度衡量經典或量子演算法對資訊源的查詢次數。如果量子演算法解決問題所需的查詢數量低於經典演算法,則會帶來量子加速。為了確定門複雜度,需要計算獲得所要結果所需的基本量子操作(或閘)的數量。

信息框1:量子加速

量子電腦使用諸如量子相干和糾纏等效應來處理資訊,而傳統電腦則做不到。近二十年來,在構建更強大的量子電腦方面取得了長足進步。 量子演算法是在量子電腦上執行的逐步過程,用於解決諸如搜索資料庫之類的問題。量子機器學習軟體利用量子演算法來處理資訊。 在解決某些問題時,量子演算法在原則上可以勝過最著名的經典演算法。 這被稱為量子加速 。

例如,量子電腦可以搜索具有N個條目的未分類資料庫,所耗費時間與√N成正比,即,具有O (√N)複雜度;與此相比,經典電腦對同一資料庫的黑箱訪問所耗費時間與N成正比。因此,在這類問題上,量子電腦與經典電腦相比,具有平方根加速。 類似地,量子電腦可以在N個資料點上進行傅立葉轉換,反轉N × N疏鬆陣列,並找到它們的特徵值和特徵向量,這個過程耗費的時間與log 2 N成正比,而已知的經典電腦最佳演算法的時間消耗與 Nlog 2 N成正比。因此,量子電腦與經典電腦最優演算法相比,在這類問題上具有指數加速。

在下麵的表格中 ,加速與否是相對於經典演算法而言的。例如, O (√N)意味著相對於經典演算法的平方根加速, O (log( N))意味相對於經典演算法的指數加速。

查詢複雜度和門複雜度是用於量化解決問題所需的必要資源的理想化模型。如果不知道如何將這兩個理想化模型映射到現實中,就無法用這兩個模型估算現實世界情景需要的必要資源。因此,經典機器學習演算法所需資源主要是通過數值實驗來量化。量子機器學習演算法的資源需求在實踐中可能同樣難以量化。對量子機器學習演算法的實際可行性的分析將是本綜述的中心議題。

在本文的各處都會看到,機器學習的量子演算法展示了量子加速。例如,幾個量子基本線性代數程式(BLAS)——傅裡葉變換,尋找特徵向量和特徵值,求解線性方程 ——與其最著名的經典演算法對應物相比都展示了指數量子加速。這種量子基本線性代數程式(qBLAS)的加速可轉化為各種資料分析和機器學習演算法的量子加速,包括線性代數,最小二乘擬合,梯度下降,牛頓法,主成分分析,線性、半定性和二次規劃,拓撲分析和支持向量機。 同時,諸如量子退火器和可程式設計量子光學陣列等專用量子資訊處理器與深度學習架構也有很好的匹配。 儘管目前還不清楚這種潛力可被實現的程度,但我們有理由認為,量子電腦可以識別出經典電腦無法在資料中識別的模式。

我們所考慮的學習機器既可以是經典的,也可以是量子的。它們分析的資料既可以是量子感測得到的量子狀態,也可以或測量裝置獲取的經典狀態。我們將簡要討論常規機器學習,即使用經典電腦來查找經典資料中的模式。然後,我們轉向量子電腦學習。量子電腦分析的資料可以是經典資料,這些資料最終被編碼為量子態或量子數據。 最後,我們簡要討論使用經典機器學習技術在量子動力過程中尋找模式的問題。

經典機器學習

古典機器學習和資料分析可以分為幾類。首先,電腦可以用於執行“經典”的資料分析方法,如最小二乘回歸,多項式插值和資料分析。機器學習協議可以是有監督的或無監督的。在監督學習中,訓練資料被分為多個標記類別,例如手寫數位的樣本按照所表示的數位被標記分類,機器的工作是學習如何為訓練集之外的資料分配標籤組。 在無監督學習中,訓練集未被標注,機器的目標是找出訓練資料所屬的自然類別(例如,互聯網上不同類型的照片),然後對訓練集外的資料進行分類。最後,有的機器學習任務如圍棋AI,涉及監督學習和無監督學習的組合,並且會利用由機器本身所產生的訓練集。

基於線性代數的量子機器學習

通過對高維向量空間中的向量執行矩陣運算,可以對各種資料分析和機器學習協定進行操作。而量子力學所擅長的恰恰是是對高維向量空間中向量的矩陣運算。

這些方法的關鍵因素是,n個量子比特或量子位的量子態是2^n維複向量空間中的一個向量; 對量子位元執行量子邏輯運算或測量,是將相應的狀態向量乘以2^n×2^n個矩陣。 通過構建這樣的矩陣變換,量子電腦已被證明可以執行常見的線性代數運算,如傅裡葉變換,尋找特徵向量和特徵值,以及在時間上求解 2^n 維向量空間的線性方程組,只需耗費 n的多項式時間,與相應的經典演算法相比具有指數級的高速。後一演算法通常被稱為HarrowHassidim Lloyd(HHL)演算法(參見資訊框2 )。這個演算法的原始版本假定,一個 wellconditioned 的矩陣是稀疏的。在資料科學中,稀少性不太可能。後來的改進放寬了這一假設,使之也能包含低階矩陣。下面,通過介紹HHL演算法,我們會研究幾個量子演算法,這些演算法在量子計算學習軟體中採用線性代數技術時會作為副程式被用到。

信息框2:HHL演算法

用於反演方程系統的HHL演算法是一個基礎性的、易於理解的副程式,它是許多量子機器學習演算法的基礎。該演算法試圖用量子電腦求解A x= b 。HHL將向量 b ∈ C^N 表示為log2N個量子位上的量子態 |B>,將向量 x表示為 |x>, 從而將問題量子化。矩陣A 可以被視為是厄米特共軛的,這並不會損失一般性,因為總是可以通過擴展向量空間使得這一點為真。方程式A|x>=|b> 可以通過將方程的兩邊乘以A ^-1來求解,其中A^ -1是A的倒數。然後,HHL演算法允許構造與A^-1|b> 成比例的量子態 。 更一般地說,當A不是正方形矩陣或具有零特徵值時,該演算法還可用於查找能夠將|A|x>-|b>|最小化的狀態 |x>。

該演算法的工作原理如下。假定 ,其中 |En>是 A的特徵向量,具有特徵值 λn ≥ Λ。通過在A中應用相位估計來計算λn,並將輔助量子位旋轉arcsin(Λ /λn)的角度,然後對相位估計進行uncomputing,就會得到:

如果測量了輔助量子位,並且如果觀察到了1,則每個本征態被劃分為λn ,這會影響到反演過程。在採用振幅放大之後,狀態準備回路得以成功應用所需要的次數是 ,這正好是矩陣的條件數。

HHL演算法採用O[(logN)2] 個步驟就能輸出|x>,與之相比,使用經典電腦上最著名方法需要 O(NlogN)個步驟。

HHL演算法有幾個重要的注意事項。首先,從量子狀態|x>找到完整的向量x 需要O(N) 個步驟來重建x的N個分量。諸如最小二乘法擬合這樣的對HHL方法的一般化方式,通過允許輸出具有比輸入更少的維度來回避這個問題。 然而,一般來說,HHL只能提供一部分資料特徵,例如解向量的矩(moment)或它在其他疏鬆陣列中的期望值。第二,輸入向量需要在量子電腦上獲得,或使用qRAM來準備,這可能是昂貴的。第三,矩陣必須是 well conditioned,並且必須能有效地模擬 e−iA 。最後,雖然HHL演算法的尺度為 O[(logN)2],但演算法處理實際問題的成本估計仍是令人望而卻步的,這意味著研究進一步的改進的重要性。一般來說,不應過於指望對線性系統的指數加速的承諾,應認識到它們僅適用於某些問題。

量子主成分分析

例如,考慮主成分分析(PCA)。假設資料以d維向量空間中以向量v j的形式呈現,其中d = 2^n= N。 例如, v j可以是股票市場從時間t j到時間t j +1的所有股票價格變動的向量。資料的協方差矩陣是,其中上標T表示轉置操作。協方差矩陣總結了資料的不同分量之間的相關性,例如不同庫存價格變化之間的相關性。在最簡單的形式中,主成分分析將協方差矩陣對角化,其中c_k是C的特徵向量, e_k是相應的特徵值。(因為C是對稱的,特徵向量c_k形成正交集合)。如果只有少數特徵值c_k較大,其他都較小或為零,那麼與這些特徵值對應的特徵向量稱為C 。每個主成分代表資料中相關的常見趨勢或相關形式,並且以主成分v=的形式分解資料向量,從而允許壓縮資料的表示,並預測未來的行為。 在計算複雜度和查詢複雜性方面,用於執行PCA的經典演算法複雜度為O(d^2)。

對於經典資料的量子主成分分析,我們隨機選擇資料向量v j ,並使用量子隨機存取記憶體(qRAM),將該向量映射到量子態:。 總結該向量的量子態具有log d量子位元,並且qRAM操作需要在可以並存執行的O(logd)步中劃分O(d)個運算。 因為v j是隨機選擇的,所得到的量子態具有密度矩陣 ,其中N是資料向量的數量。通過與經典資料的協方差矩陣C進行比較,我們看到資料的量子化版本的密度矩陣實際上是協方差矩陣。通過重複採樣資料,並使用稱為密度矩陣求冪的技巧,結合量子相位估計演算法,可找到矩陣的特徵向量和特徵值;我們可以取任何資料向量的量子版本|v>, 並將其分解為主成分|c_k>, 同時揭示C的特徵值, 然後可以通過對C的特徵向量的量子表示進行測量, 來探測C的主要成分的性質。量子演算法在計算複雜度和查詢複雜度方面均為 O[(logN)2]。也就是說,量子PCA比傳統的PCA指數更高效。

量子支持向量機和內核方法

監督機器學習演算法的最簡單的例子是線性支援向量機和感知器。這些方法尋求在資料集中的兩類資料之間找到一個最優的分離超平面。這樣一來,同質資料的所有訓練樣例都位於超平面的同一側。當超平面和資料之間的margin最大化時,就能得到最強健的分類器。這裡從訓練中學到的“權重”是超平面的參數。支持向量機的最大優點之一是,它通過核函數對非線性超曲面進行泛化。這種分類器在圖像分割以及生物科學領域都取得了巨大的成功。

與其經典的對應方法一樣,量子支持向量機是量子機器學習演算法的良好範例。 第一個量子支援向量機在2000年代初期被討論,使用Grover功能最小化搜索。 從N個向量中找出支援向量需要次反覆運算。最近,開發了一種利用qBLAS副程式的全部功能的最小二乘量子支援向量機。資料登錄可以來自各種來源,例如可從qRAM訪問經典資料,或從正在準備量子態的量子副程式中獲取。一旦資料可被用於量子計算設備,就用量子相位估計和矩陣求逆(HHL演算法)進行處理。原則上,構建最優分離超平面並測試向量是否位於同側的所有操作可以在多項式時間log N中執行,其中N是用於準備超平面向量的量子版的矩陣維數。過往研究也討論了多項式、徑向基函數內核,以及一種稱為高斯過程回歸的基於內核方法。量子支援機的這種方法已經在核磁共振測試中用於手寫數字識別任務,並得到了實驗證明。

基於qBLAS的優化

許多資料分析和機器學習技術涉及到優化。越來越令人感興趣的是,使用D-Wave處理器通過量子退火來解決組合優化問題。一些優化問題也可以被形式化為線性系統的singleshot 解決方案,例如, 受到等式約束的二次函數的優化, 這個問題是二次規劃問題的子集。如果所涉及的矩陣是稀疏或低秩的,則可以在log d多項式時間內解決這樣的問題,其中d是通過HHL矩陣求逆演算法獲得的系統維數。這種演算法具有相對於經典演算法的指數加速。

機器學習中的大多數方法需要對其性能進行反覆運算優化。例如,不平等約束通常通過懲罰函數和梯度下降或牛頓法的變化來處理。量子PCA方法的某個修正版本實現了反覆運算梯度下降和牛頓多項式優化的方法,並且可以提供對經典方法的指數加速。使用以量子態編碼的當前解的多個拷貝可以用於在每個步驟改進該解。Brandao和Svore提供了半定義程式設計的量子版本,它可以提供超多項式加速的可能性。 量子近似優化演算法(QAO演算法)則提供了一種獨特的、基於交替量子位旋轉優化的方法,它也用到了問題的懲罰函數。

將古典資料讀入量子機器

必須先輸入經典資料,才能在量子電腦上處理這些資料。這個“輸入問題”通常只有很少的開銷,但對某些演算法來說可能會造成嚴重的瓶頸。同樣,在量子設備上處理資料之後,還會出現“輸出問題”。像輸入問題一樣,輸出問題通常會導致明顯的操作放緩。

特別是,如果我們希望將HHL,最小二乘擬合,量子主成分分析,量子支援向量機和相關方法應用於經典資料,則該過程首先要將大量資料載入到量子系統中,這可以要求指數時間的消耗。原則上,可以使用qRAM來解決這個問題,但這樣做的代價是,可能無法處理大資料問題。除了基於組合優化的方法之外,唯一已知的不依賴大規模qRAM的基於線性代數的量子機器學習演算法是,用於執行資料(持久同源性)拓撲分析的量子演算法。除了最小二乘擬合和量子支持向量機這兩個顯著例外之外,基於線性代數的演算法也可能受到輸出問題的困擾,因為諸如HHL的解向量或PCA的主成分之類的的經典量很難被估計,對其進行估算的難度是指數級的。

儘管有指數量子加速的潛力,若沒有進行足夠優化,回路規模和深度的開銷可以極度膨脹,(在HHL的實現中可以達到10^25個量子門的地步)。 需要持續的研究工作來優化這些演算法,提供更好的成本估算,並最終瞭解,什麼樣的量子電腦才是能夠為經典機器學習提供有用的替代選擇的。

深度量子學習

經典深層神經網路是機器學習的高效工具,也非常適合激勵深度量子學習方法的發展。諸如量子退火器和採用可程式設計光子電路的專用量子資訊處理器也非常適合構建深量子學習網路。最簡單的可量子化的深度神經網路量化是玻爾茲曼機。經典的玻爾茲曼機由具有可調諧相互作用的位組成,可以通過調整這些相互作用來訓練玻爾茲曼機,使得由玻爾茲曼 - 吉布斯分佈描述的位的熱統計可以再現資料的統計。為了量子化Boltzmann機器,可以簡單地將神經網路表示為一組相互作用的量子自旋,它對應於一個可調諧的Ising模型。然後通過將玻爾茲曼機中的輸入神經元初始化為固定狀態,並允許系統進行熱化,我們可以讀出輸出量子位以獲得答案。

深度量子學習的一個基本特徵是,它不需要大型通用量子電腦。量子退火器是專用的量子資訊處理器,比通用量子電腦更容易構建和擴展。量子退火器非常適合實現深度量子學習者,並且是可以商業採購的。D-wave量子退火器是可調諧的橫向ising模型,可以通過程式設計產生經典系統和某些量子自旋系統的熱態。D-wave裝置已經被用於在一千多個自旋系統上執行深度量子學習協議。具有更一般性的可調諧耦合的量子波爾茲曼機目前處於設計階段,該耦合可實現通用量子邏輯。片上矽波導(On-chipsilicon waveguides )已被用來構建具有數百個可調諧干涉儀的線性光學陣列,並且可以用專用超導量子資訊處理器來實現量子近似優化演算法。

量子電腦通過幾種方式可以提供優勢。首先,量子方法可以使系統在熱化時比相應的經典系統快二次方倍。這可以使完全連接的玻爾茲曼機實現準確的訓練。其次,量子電腦通過提供改進的採樣方式來加速玻爾茲曼訓練。因為玻爾茲曼機中的神經元啟動模式是隨機的,所以需要許多次重複來確定成功概率,並反過來發現改變神經網路權重對深層網路性能有什麼影響。相反,當訓練量子玻爾茲曼機時,量子相干性可以二次方級地減少學習任務所需的樣本數量。此外,對訓練資料的量子訪問(即qRAM或量子黑盒副程式)允許更少的訪問請求來訓練機器,與經典機器相比減少了二次方級。量子演算法可以在一個大訓練資料集上訓練深層神經網路,同時唯讀取少量的訓練向量。

量子資訊處理為深度學習提供了新的、量子性的模型。例如,向Ising模型量子玻爾茲曼機添加橫向場,可以引發各種量子效應,例如隧道效應。加入更多量子耦合,可將量子玻爾茲曼機轉換成各種量子系統。將可調諧橫向交互添加到可調諧Ising模型,這對完全量子計算具有通用性:通過適當的權重分配,該模型可以執行通用量子電腦可執行的任何演算法。這種普遍深度量子學習系統可以識別和分類出經典電腦不能處理的模式。

與經典玻爾茲曼機器不同,量子波爾茲曼機輸出量子態。因此,深度量子網路可以學習和產生代表各種系統的量子態,允許整個網路以量子關聯記憶體的形式活動。經典機器學習中不存在這種產生量子態的能力。因此,量子玻爾茲曼訓練不僅可用於量子態分類,還可以為經典資料提供更豐富的模型。

對量子數據的量子機器學習

也許,對量子機器學習來說最直接的應用是處理量子數據——由量子系統和過程產生的實際狀態。如上所述,許多量子機器學習演算法通過將資料映射到量子力學狀態,然後使用基本量子線性代數副程式來處理這些狀態,從而在經典資料中尋找模式。這些量子機器學習演算法也可以直接應用於光和物質的量子態,以揭示其基本特徵和模式。所得到的量子分析模式,與對從量子系統獲取的資料進行經典分析相比,往往更有效率和更有揭示性。例如,給定由N × N密度矩陣描述的系統的多個拷貝,可以使用量子主成分分析來找到其特徵值,並且在時間O[(logN)2] 中顯示相應的特徵向量,與此相比,對這個密度矩陣進行經典測量消耗時間為O(N2) ,執行經典PCA所需的時間為O(N2) 。對量子數據的這種量子分析,未來幾年後可能會在可用的小型量子電腦上執行。

一個特別強大的量子數據分析技術是,使用量子模擬器來探測量子動力學。量子模擬器是一個“量子類比電腦”—— 對某個量子系統的動力學進行程式設計,以讓它匹配其他一些可欲的量子系統。量子模擬器既可以是用於模擬特定類別的量子系統的專用設備,也可以是通用量子電腦。通過將可信任的量子模擬器連接到未知系統,並調整模擬器的模型以反制未知的動力學,可以使用近似貝葉斯推理有效地學習未知系統的動力學。這樣,可以大大減少執行模擬所需的測量次數。類似地,通用量子模擬器演算法允許重構量子動力學,量子玻爾茲曼訓練演算法允許在希爾伯特空間的維度上以時間對數重建狀態,與通過經典斷層掃描重建動力學相比,具有指數級加速。

為了使用量子電腦來説明表徵量子系統,或接受在量子PCA演算法中使用的輸入狀態,我們必須面對一個重大挑戰,即,如何載入相干輸入狀態。儘管如此,由於這類應用不需要qRAM,並且為設備提供了指數加速的潛力,它們仍然是近期應用量子機器學習的希望所在。

設計和控制量子系統

量子計算和資訊科學發展面臨的一個主要挑戰是,調整量子門以滿足量子糾錯所需的嚴格要求。啟發式搜索方法可以幫助在受監督學習場景中實現這一點,(例如,在雜訊的情況下在門保真度高於99.9%的條件下實現最近相鄰耦合的超導人造原子),並因此抵達接受容錯量子計算的閾值。類似的方法已經成功地構建了一個single shot Toffoli門,並達到高達99.9%的門保真度。有的研究採用遺傳演算法來減少量子門中的數位和實驗誤差。它們已被用於通過輔助量子位和不完全門來模擬controlled-NOT門。遺傳演算法不僅在表現上超越了數位量子類比協定,也可用於抑制門中的實驗誤差。另一種方法使用隨機梯度下降和兩體相互作用,使用量子網路的自然動力學將Toffoli門嵌入到量子操作或閘序列中,無需時間依賴控制。動態去耦序列有助於保護量子態不相干,這可以使用迴圈神經網路進行設計。

對量子系統進行控制,這同等重要和複雜。量子學習方法在開發控制序列、優化自我調整量子計量學方面非常成功,這已成為許多量子技術中關鍵的量子構建模組。研究者提出了遺傳演算法來控制量子分子,以克服在實驗過程中改變環境參數所引起的問題。使用啟發式全域優化的強化學習演算法,例如電路設計演算法,已經得 到了廣泛的成功;特別是在存在雜訊和去相干的情況下,與系統規模適應得很好。也可以利用基於柵極的量子系統強化學習。例如,基於智慧主體、用於量子資訊的自我調整控制器在固定方向、未知幅度的外部雜散場中展現了自我調整校準和補償策略。

經典機器學習也是提取關於量子狀態的理論洞見的有力工具。近年已部署神經網路來研究凝聚物質中的兩個核心問題,即物相檢測和基態搜索。這些工作取得了比已有的數值工具更好的表現。理論物理學家正在研究這些模型,以便與傳統方法(如張量網路)相比較,以理解這些模型的描述力。用這些方法對異乎尋常的物質狀態的處理也已在進行,並且被證明可以從無序或拓撲有序系統中捕獲高度不平凡的特徵。

對未來工作的展望

正如我們在這篇綜述中所討論的那樣,小量子電腦和更大型的專用量子模擬器、退火器等似乎都在機器學習和資料分析中有潛在的用途。然而,量子演算法的執行仍然缺乏可用的量子硬體。

在硬體方面,幾項技術取得了長足的進步。具有50-100個量子位元的小規模量子電腦將通過量子雲計算(“Qloud”)被廣泛使用。諸如量子模擬器,量子退火器,集成光子晶片,氮空位中心(NV)金剛石陣列,qRAM、定序超導電路專用量子資訊處理器等將在尺寸和複雜性方面繼續前進。量子機器學習為小量子電腦提供了一套潛在的應用,這些小型量子電腦由專用量子資訊處理器,數位量子處理器和感測器所支援。

特別是,研究者使用原則上可擴展的集成超導電路,已構建並操作了具有大約2000個量子位的量子退火器。量子退火器實施量子機器學習演算法的最大挑戰包括:改進連線性,並在量子位之間實現更為普遍的可調耦合。研究者已在晶片中使用集成光子學,構建了具有大約100個可調諧干涉儀的可程式設計量子光學陣列,但是量子效應的損失也隨著這些回路的放大而增加。量子機器學習的一個特別重要的挑戰是,構建qRAM等的周邊設備,以允許經典資訊以量子力學形式編碼。用於訪問N個資料的qRAM由2 ^N個量子開關的分支陣列組成,它們在記憶體調用期間必須相干地進行操作。原則上,這樣的qRAM需要時間O(Log(N))才能執行記憶體調用,並且可以容忍每次切換操作時高達O(1/ logN)的錯誤率,其中log N是qRAM回路的深度。對qRAM已進行過概念驗證,但構建量子開關的大陣列仍是一個困難的技術問題。

這些硬體挑戰本質上是技術性的,而且克服這些困難的途徑也是明確的。但是,如果量子機器學習要成為量子電腦的“殺手級應用”,那麼,這些困難必須被克服。如前所述,已經提到的大多數量子演算法都面臨著許多限制其適用性的問題。我們可以將這些難題提煉成四個基本問題。

輸入問題:雖然量子演算法可以為處理資料提供顯著的加速,但它們很少在讀取資料方面具有優勢。這意味著,輸入時的讀取成本在某些情況下可以主導量子演算法的成本。理解這個問題,將構成一個持續的挑戰。

輸出問題:要從量子演算法中以比特串的形式獲取問題的完整的解,往往需要對指數級的比特資訊進行學習。這使得量子機器學習演算法的一些應用變得不可行。通過只學習問題解的某些總結性統計資訊,可能可以繞開此問題。

成本問題。與輸入/輸出問題密切相關的是,我們對量子電腦學習演算法在現實中到底需要多少個門尚缺乏瞭解。經典演算法在複雜性方面的限制表明,對於規模足夠大的問題,量子演算法將提供巨大的優勢,但是,仍然不清楚這個臨界點在什麼地方。

測試基準問題。在實踐中,通常很難斷言,量子演算法是否比所有已知的經典機器演算法更好,因為,這將需要針對各種現代啟發式方法進行廣泛的基準測試分析。建立量子機器學習的下限,將部分地解決這個問題。

為了避免上面的一些問題,我們可以將量子計算應用於量子數據而非經典資料。其中一個目標是,使用量子機器學習來表徵和控制量子電腦。這將實現類似於經典計算中發生過的那種創新的良性迴圈,在這個迴圈中,每一代處理器都可以被利用以設計下一代處理器。我們已經開始看到這個迴圈的第一代成果:經典機器學習已被用來改進量子處理器設計,而量子處理器反過來又會為量子機器學習提供強大的計算資源。

論文:doi:10.1038/nature234

點擊閱讀原文可查看職位詳情,期待你的加入~

那麼能否加速需要數學證明。如果採用實用的視角,這個問題便相當於問,基於現實的有限大小的設備,能否實現加速;而這要求我們能以統計證據證明,在某些有限問題集合上,量子演算法具有規模性優勢。對於量子機器學習來說,與之對照的經典演算法的最佳性能並不總是已知的。這與用於整數分解的Shor-多項式時間量子演算法的情況有些類似:我們尚未發現低於指數時間的經典演算法,但並不能排除這種可能性。

要確定量子機器學習相對於經典機器學習是否具有規模性優勢,這依賴於量子電腦的現實存在,這個問題也被稱為“測試基準”問題。量子機器學習的優勢可能包括:提高分類精度,對經典方法無法進入的系統進行採樣。 因此,目前機器學習的量子加速特性,是使用複雜度理論中的兩個理想化指標,查詢複雜度和門複雜度,來衡量的。查詢複雜度衡量經典或量子演算法對資訊源的查詢次數。如果量子演算法解決問題所需的查詢數量低於經典演算法,則會帶來量子加速。為了確定門複雜度,需要計算獲得所要結果所需的基本量子操作(或閘)的數量。

信息框1:量子加速

量子電腦使用諸如量子相干和糾纏等效應來處理資訊,而傳統電腦則做不到。近二十年來,在構建更強大的量子電腦方面取得了長足進步。 量子演算法是在量子電腦上執行的逐步過程,用於解決諸如搜索資料庫之類的問題。量子機器學習軟體利用量子演算法來處理資訊。 在解決某些問題時,量子演算法在原則上可以勝過最著名的經典演算法。 這被稱為量子加速 。

例如,量子電腦可以搜索具有N個條目的未分類資料庫,所耗費時間與√N成正比,即,具有O (√N)複雜度;與此相比,經典電腦對同一資料庫的黑箱訪問所耗費時間與N成正比。因此,在這類問題上,量子電腦與經典電腦相比,具有平方根加速。 類似地,量子電腦可以在N個資料點上進行傅立葉轉換,反轉N × N疏鬆陣列,並找到它們的特徵值和特徵向量,這個過程耗費的時間與log 2 N成正比,而已知的經典電腦最佳演算法的時間消耗與 Nlog 2 N成正比。因此,量子電腦與經典電腦最優演算法相比,在這類問題上具有指數加速。

在下麵的表格中 ,加速與否是相對於經典演算法而言的。例如, O (√N)意味著相對於經典演算法的平方根加速, O (log( N))意味相對於經典演算法的指數加速。

查詢複雜度和門複雜度是用於量化解決問題所需的必要資源的理想化模型。如果不知道如何將這兩個理想化模型映射到現實中,就無法用這兩個模型估算現實世界情景需要的必要資源。因此,經典機器學習演算法所需資源主要是通過數值實驗來量化。量子機器學習演算法的資源需求在實踐中可能同樣難以量化。對量子機器學習演算法的實際可行性的分析將是本綜述的中心議題。

在本文的各處都會看到,機器學習的量子演算法展示了量子加速。例如,幾個量子基本線性代數程式(BLAS)——傅裡葉變換,尋找特徵向量和特徵值,求解線性方程 ——與其最著名的經典演算法對應物相比都展示了指數量子加速。這種量子基本線性代數程式(qBLAS)的加速可轉化為各種資料分析和機器學習演算法的量子加速,包括線性代數,最小二乘擬合,梯度下降,牛頓法,主成分分析,線性、半定性和二次規劃,拓撲分析和支持向量機。 同時,諸如量子退火器和可程式設計量子光學陣列等專用量子資訊處理器與深度學習架構也有很好的匹配。 儘管目前還不清楚這種潛力可被實現的程度,但我們有理由認為,量子電腦可以識別出經典電腦無法在資料中識別的模式。

我們所考慮的學習機器既可以是經典的,也可以是量子的。它們分析的資料既可以是量子感測得到的量子狀態,也可以或測量裝置獲取的經典狀態。我們將簡要討論常規機器學習,即使用經典電腦來查找經典資料中的模式。然後,我們轉向量子電腦學習。量子電腦分析的資料可以是經典資料,這些資料最終被編碼為量子態或量子數據。 最後,我們簡要討論使用經典機器學習技術在量子動力過程中尋找模式的問題。

經典機器學習

古典機器學習和資料分析可以分為幾類。首先,電腦可以用於執行“經典”的資料分析方法,如最小二乘回歸,多項式插值和資料分析。機器學習協議可以是有監督的或無監督的。在監督學習中,訓練資料被分為多個標記類別,例如手寫數位的樣本按照所表示的數位被標記分類,機器的工作是學習如何為訓練集之外的資料分配標籤組。 在無監督學習中,訓練集未被標注,機器的目標是找出訓練資料所屬的自然類別(例如,互聯網上不同類型的照片),然後對訓練集外的資料進行分類。最後,有的機器學習任務如圍棋AI,涉及監督學習和無監督學習的組合,並且會利用由機器本身所產生的訓練集。

基於線性代數的量子機器學習

通過對高維向量空間中的向量執行矩陣運算,可以對各種資料分析和機器學習協定進行操作。而量子力學所擅長的恰恰是是對高維向量空間中向量的矩陣運算。

這些方法的關鍵因素是,n個量子比特或量子位的量子態是2^n維複向量空間中的一個向量; 對量子位元執行量子邏輯運算或測量,是將相應的狀態向量乘以2^n×2^n個矩陣。 通過構建這樣的矩陣變換,量子電腦已被證明可以執行常見的線性代數運算,如傅裡葉變換,尋找特徵向量和特徵值,以及在時間上求解 2^n 維向量空間的線性方程組,只需耗費 n的多項式時間,與相應的經典演算法相比具有指數級的高速。後一演算法通常被稱為HarrowHassidim Lloyd(HHL)演算法(參見資訊框2 )。這個演算法的原始版本假定,一個 wellconditioned 的矩陣是稀疏的。在資料科學中,稀少性不太可能。後來的改進放寬了這一假設,使之也能包含低階矩陣。下面,通過介紹HHL演算法,我們會研究幾個量子演算法,這些演算法在量子計算學習軟體中採用線性代數技術時會作為副程式被用到。

信息框2:HHL演算法

用於反演方程系統的HHL演算法是一個基礎性的、易於理解的副程式,它是許多量子機器學習演算法的基礎。該演算法試圖用量子電腦求解A x= b 。HHL將向量 b ∈ C^N 表示為log2N個量子位上的量子態 |B>,將向量 x表示為 |x>, 從而將問題量子化。矩陣A 可以被視為是厄米特共軛的,這並不會損失一般性,因為總是可以通過擴展向量空間使得這一點為真。方程式A|x>=|b> 可以通過將方程的兩邊乘以A ^-1來求解,其中A^ -1是A的倒數。然後,HHL演算法允許構造與A^-1|b> 成比例的量子態 。 更一般地說,當A不是正方形矩陣或具有零特徵值時,該演算法還可用於查找能夠將|A|x>-|b>|最小化的狀態 |x>。

該演算法的工作原理如下。假定 ,其中 |En>是 A的特徵向量,具有特徵值 λn ≥ Λ。通過在A中應用相位估計來計算λn,並將輔助量子位旋轉arcsin(Λ /λn)的角度,然後對相位估計進行uncomputing,就會得到:

如果測量了輔助量子位,並且如果觀察到了1,則每個本征態被劃分為λn ,這會影響到反演過程。在採用振幅放大之後,狀態準備回路得以成功應用所需要的次數是 ,這正好是矩陣的條件數。

HHL演算法採用O[(logN)2] 個步驟就能輸出|x>,與之相比,使用經典電腦上最著名方法需要 O(NlogN)個步驟。

HHL演算法有幾個重要的注意事項。首先,從量子狀態|x>找到完整的向量x 需要O(N) 個步驟來重建x的N個分量。諸如最小二乘法擬合這樣的對HHL方法的一般化方式,通過允許輸出具有比輸入更少的維度來回避這個問題。 然而,一般來說,HHL只能提供一部分資料特徵,例如解向量的矩(moment)或它在其他疏鬆陣列中的期望值。第二,輸入向量需要在量子電腦上獲得,或使用qRAM來準備,這可能是昂貴的。第三,矩陣必須是 well conditioned,並且必須能有效地模擬 e−iA 。最後,雖然HHL演算法的尺度為 O[(logN)2],但演算法處理實際問題的成本估計仍是令人望而卻步的,這意味著研究進一步的改進的重要性。一般來說,不應過於指望對線性系統的指數加速的承諾,應認識到它們僅適用於某些問題。

量子主成分分析

例如,考慮主成分分析(PCA)。假設資料以d維向量空間中以向量v j的形式呈現,其中d = 2^n= N。 例如, v j可以是股票市場從時間t j到時間t j +1的所有股票價格變動的向量。資料的協方差矩陣是,其中上標T表示轉置操作。協方差矩陣總結了資料的不同分量之間的相關性,例如不同庫存價格變化之間的相關性。在最簡單的形式中,主成分分析將協方差矩陣對角化,其中c_k是C的特徵向量, e_k是相應的特徵值。(因為C是對稱的,特徵向量c_k形成正交集合)。如果只有少數特徵值c_k較大,其他都較小或為零,那麼與這些特徵值對應的特徵向量稱為C 。每個主成分代表資料中相關的常見趨勢或相關形式,並且以主成分v=的形式分解資料向量,從而允許壓縮資料的表示,並預測未來的行為。 在計算複雜度和查詢複雜性方面,用於執行PCA的經典演算法複雜度為O(d^2)。

對於經典資料的量子主成分分析,我們隨機選擇資料向量v j ,並使用量子隨機存取記憶體(qRAM),將該向量映射到量子態:。 總結該向量的量子態具有log d量子位元,並且qRAM操作需要在可以並存執行的O(logd)步中劃分O(d)個運算。 因為v j是隨機選擇的,所得到的量子態具有密度矩陣 ,其中N是資料向量的數量。通過與經典資料的協方差矩陣C進行比較,我們看到資料的量子化版本的密度矩陣實際上是協方差矩陣。通過重複採樣資料,並使用稱為密度矩陣求冪的技巧,結合量子相位估計演算法,可找到矩陣的特徵向量和特徵值;我們可以取任何資料向量的量子版本|v>, 並將其分解為主成分|c_k>, 同時揭示C的特徵值, 然後可以通過對C的特徵向量的量子表示進行測量, 來探測C的主要成分的性質。量子演算法在計算複雜度和查詢複雜度方面均為 O[(logN)2]。也就是說,量子PCA比傳統的PCA指數更高效。

量子支持向量機和內核方法

監督機器學習演算法的最簡單的例子是線性支援向量機和感知器。這些方法尋求在資料集中的兩類資料之間找到一個最優的分離超平面。這樣一來,同質資料的所有訓練樣例都位於超平面的同一側。當超平面和資料之間的margin最大化時,就能得到最強健的分類器。這裡從訓練中學到的“權重”是超平面的參數。支持向量機的最大優點之一是,它通過核函數對非線性超曲面進行泛化。這種分類器在圖像分割以及生物科學領域都取得了巨大的成功。

與其經典的對應方法一樣,量子支持向量機是量子機器學習演算法的良好範例。 第一個量子支援向量機在2000年代初期被討論,使用Grover功能最小化搜索。 從N個向量中找出支援向量需要次反覆運算。最近,開發了一種利用qBLAS副程式的全部功能的最小二乘量子支援向量機。資料登錄可以來自各種來源,例如可從qRAM訪問經典資料,或從正在準備量子態的量子副程式中獲取。一旦資料可被用於量子計算設備,就用量子相位估計和矩陣求逆(HHL演算法)進行處理。原則上,構建最優分離超平面並測試向量是否位於同側的所有操作可以在多項式時間log N中執行,其中N是用於準備超平面向量的量子版的矩陣維數。過往研究也討論了多項式、徑向基函數內核,以及一種稱為高斯過程回歸的基於內核方法。量子支援機的這種方法已經在核磁共振測試中用於手寫數字識別任務,並得到了實驗證明。

基於qBLAS的優化

許多資料分析和機器學習技術涉及到優化。越來越令人感興趣的是,使用D-Wave處理器通過量子退火來解決組合優化問題。一些優化問題也可以被形式化為線性系統的singleshot 解決方案,例如, 受到等式約束的二次函數的優化, 這個問題是二次規劃問題的子集。如果所涉及的矩陣是稀疏或低秩的,則可以在log d多項式時間內解決這樣的問題,其中d是通過HHL矩陣求逆演算法獲得的系統維數。這種演算法具有相對於經典演算法的指數加速。

機器學習中的大多數方法需要對其性能進行反覆運算優化。例如,不平等約束通常通過懲罰函數和梯度下降或牛頓法的變化來處理。量子PCA方法的某個修正版本實現了反覆運算梯度下降和牛頓多項式優化的方法,並且可以提供對經典方法的指數加速。使用以量子態編碼的當前解的多個拷貝可以用於在每個步驟改進該解。Brandao和Svore提供了半定義程式設計的量子版本,它可以提供超多項式加速的可能性。 量子近似優化演算法(QAO演算法)則提供了一種獨特的、基於交替量子位旋轉優化的方法,它也用到了問題的懲罰函數。

將古典資料讀入量子機器

必須先輸入經典資料,才能在量子電腦上處理這些資料。這個“輸入問題”通常只有很少的開銷,但對某些演算法來說可能會造成嚴重的瓶頸。同樣,在量子設備上處理資料之後,還會出現“輸出問題”。像輸入問題一樣,輸出問題通常會導致明顯的操作放緩。

特別是,如果我們希望將HHL,最小二乘擬合,量子主成分分析,量子支援向量機和相關方法應用於經典資料,則該過程首先要將大量資料載入到量子系統中,這可以要求指數時間的消耗。原則上,可以使用qRAM來解決這個問題,但這樣做的代價是,可能無法處理大資料問題。除了基於組合優化的方法之外,唯一已知的不依賴大規模qRAM的基於線性代數的量子機器學習演算法是,用於執行資料(持久同源性)拓撲分析的量子演算法。除了最小二乘擬合和量子支持向量機這兩個顯著例外之外,基於線性代數的演算法也可能受到輸出問題的困擾,因為諸如HHL的解向量或PCA的主成分之類的的經典量很難被估計,對其進行估算的難度是指數級的。

儘管有指數量子加速的潛力,若沒有進行足夠優化,回路規模和深度的開銷可以極度膨脹,(在HHL的實現中可以達到10^25個量子門的地步)。 需要持續的研究工作來優化這些演算法,提供更好的成本估算,並最終瞭解,什麼樣的量子電腦才是能夠為經典機器學習提供有用的替代選擇的。

深度量子學習

經典深層神經網路是機器學習的高效工具,也非常適合激勵深度量子學習方法的發展。諸如量子退火器和採用可程式設計光子電路的專用量子資訊處理器也非常適合構建深量子學習網路。最簡單的可量子化的深度神經網路量化是玻爾茲曼機。經典的玻爾茲曼機由具有可調諧相互作用的位組成,可以通過調整這些相互作用來訓練玻爾茲曼機,使得由玻爾茲曼 - 吉布斯分佈描述的位的熱統計可以再現資料的統計。為了量子化Boltzmann機器,可以簡單地將神經網路表示為一組相互作用的量子自旋,它對應於一個可調諧的Ising模型。然後通過將玻爾茲曼機中的輸入神經元初始化為固定狀態,並允許系統進行熱化,我們可以讀出輸出量子位以獲得答案。

深度量子學習的一個基本特徵是,它不需要大型通用量子電腦。量子退火器是專用的量子資訊處理器,比通用量子電腦更容易構建和擴展。量子退火器非常適合實現深度量子學習者,並且是可以商業採購的。D-wave量子退火器是可調諧的橫向ising模型,可以通過程式設計產生經典系統和某些量子自旋系統的熱態。D-wave裝置已經被用於在一千多個自旋系統上執行深度量子學習協議。具有更一般性的可調諧耦合的量子波爾茲曼機目前處於設計階段,該耦合可實現通用量子邏輯。片上矽波導(On-chipsilicon waveguides )已被用來構建具有數百個可調諧干涉儀的線性光學陣列,並且可以用專用超導量子資訊處理器來實現量子近似優化演算法。

量子電腦通過幾種方式可以提供優勢。首先,量子方法可以使系統在熱化時比相應的經典系統快二次方倍。這可以使完全連接的玻爾茲曼機實現準確的訓練。其次,量子電腦通過提供改進的採樣方式來加速玻爾茲曼訓練。因為玻爾茲曼機中的神經元啟動模式是隨機的,所以需要許多次重複來確定成功概率,並反過來發現改變神經網路權重對深層網路性能有什麼影響。相反,當訓練量子玻爾茲曼機時,量子相干性可以二次方級地減少學習任務所需的樣本數量。此外,對訓練資料的量子訪問(即qRAM或量子黑盒副程式)允許更少的訪問請求來訓練機器,與經典機器相比減少了二次方級。量子演算法可以在一個大訓練資料集上訓練深層神經網路,同時唯讀取少量的訓練向量。

量子資訊處理為深度學習提供了新的、量子性的模型。例如,向Ising模型量子玻爾茲曼機添加橫向場,可以引發各種量子效應,例如隧道效應。加入更多量子耦合,可將量子玻爾茲曼機轉換成各種量子系統。將可調諧橫向交互添加到可調諧Ising模型,這對完全量子計算具有通用性:通過適當的權重分配,該模型可以執行通用量子電腦可執行的任何演算法。這種普遍深度量子學習系統可以識別和分類出經典電腦不能處理的模式。

與經典玻爾茲曼機器不同,量子波爾茲曼機輸出量子態。因此,深度量子網路可以學習和產生代表各種系統的量子態,允許整個網路以量子關聯記憶體的形式活動。經典機器學習中不存在這種產生量子態的能力。因此,量子玻爾茲曼訓練不僅可用於量子態分類,還可以為經典資料提供更豐富的模型。

對量子數據的量子機器學習

也許,對量子機器學習來說最直接的應用是處理量子數據——由量子系統和過程產生的實際狀態。如上所述,許多量子機器學習演算法通過將資料映射到量子力學狀態,然後使用基本量子線性代數副程式來處理這些狀態,從而在經典資料中尋找模式。這些量子機器學習演算法也可以直接應用於光和物質的量子態,以揭示其基本特徵和模式。所得到的量子分析模式,與對從量子系統獲取的資料進行經典分析相比,往往更有效率和更有揭示性。例如,給定由N × N密度矩陣描述的系統的多個拷貝,可以使用量子主成分分析來找到其特徵值,並且在時間O[(logN)2] 中顯示相應的特徵向量,與此相比,對這個密度矩陣進行經典測量消耗時間為O(N2) ,執行經典PCA所需的時間為O(N2) 。對量子數據的這種量子分析,未來幾年後可能會在可用的小型量子電腦上執行。

一個特別強大的量子數據分析技術是,使用量子模擬器來探測量子動力學。量子模擬器是一個“量子類比電腦”—— 對某個量子系統的動力學進行程式設計,以讓它匹配其他一些可欲的量子系統。量子模擬器既可以是用於模擬特定類別的量子系統的專用設備,也可以是通用量子電腦。通過將可信任的量子模擬器連接到未知系統,並調整模擬器的模型以反制未知的動力學,可以使用近似貝葉斯推理有效地學習未知系統的動力學。這樣,可以大大減少執行模擬所需的測量次數。類似地,通用量子模擬器演算法允許重構量子動力學,量子玻爾茲曼訓練演算法允許在希爾伯特空間的維度上以時間對數重建狀態,與通過經典斷層掃描重建動力學相比,具有指數級加速。

為了使用量子電腦來説明表徵量子系統,或接受在量子PCA演算法中使用的輸入狀態,我們必須面對一個重大挑戰,即,如何載入相干輸入狀態。儘管如此,由於這類應用不需要qRAM,並且為設備提供了指數加速的潛力,它們仍然是近期應用量子機器學習的希望所在。

設計和控制量子系統

量子計算和資訊科學發展面臨的一個主要挑戰是,調整量子門以滿足量子糾錯所需的嚴格要求。啟發式搜索方法可以幫助在受監督學習場景中實現這一點,(例如,在雜訊的情況下在門保真度高於99.9%的條件下實現最近相鄰耦合的超導人造原子),並因此抵達接受容錯量子計算的閾值。類似的方法已經成功地構建了一個single shot Toffoli門,並達到高達99.9%的門保真度。有的研究採用遺傳演算法來減少量子門中的數位和實驗誤差。它們已被用於通過輔助量子位和不完全門來模擬controlled-NOT門。遺傳演算法不僅在表現上超越了數位量子類比協定,也可用於抑制門中的實驗誤差。另一種方法使用隨機梯度下降和兩體相互作用,使用量子網路的自然動力學將Toffoli門嵌入到量子操作或閘序列中,無需時間依賴控制。動態去耦序列有助於保護量子態不相干,這可以使用迴圈神經網路進行設計。

對量子系統進行控制,這同等重要和複雜。量子學習方法在開發控制序列、優化自我調整量子計量學方面非常成功,這已成為許多量子技術中關鍵的量子構建模組。研究者提出了遺傳演算法來控制量子分子,以克服在實驗過程中改變環境參數所引起的問題。使用啟發式全域優化的強化學習演算法,例如電路設計演算法,已經得 到了廣泛的成功;特別是在存在雜訊和去相干的情況下,與系統規模適應得很好。也可以利用基於柵極的量子系統強化學習。例如,基於智慧主體、用於量子資訊的自我調整控制器在固定方向、未知幅度的外部雜散場中展現了自我調整校準和補償策略。

經典機器學習也是提取關於量子狀態的理論洞見的有力工具。近年已部署神經網路來研究凝聚物質中的兩個核心問題,即物相檢測和基態搜索。這些工作取得了比已有的數值工具更好的表現。理論物理學家正在研究這些模型,以便與傳統方法(如張量網路)相比較,以理解這些模型的描述力。用這些方法對異乎尋常的物質狀態的處理也已在進行,並且被證明可以從無序或拓撲有序系統中捕獲高度不平凡的特徵。

對未來工作的展望

正如我們在這篇綜述中所討論的那樣,小量子電腦和更大型的專用量子模擬器、退火器等似乎都在機器學習和資料分析中有潛在的用途。然而,量子演算法的執行仍然缺乏可用的量子硬體。

在硬體方面,幾項技術取得了長足的進步。具有50-100個量子位元的小規模量子電腦將通過量子雲計算(“Qloud”)被廣泛使用。諸如量子模擬器,量子退火器,集成光子晶片,氮空位中心(NV)金剛石陣列,qRAM、定序超導電路專用量子資訊處理器等將在尺寸和複雜性方面繼續前進。量子機器學習為小量子電腦提供了一套潛在的應用,這些小型量子電腦由專用量子資訊處理器,數位量子處理器和感測器所支援。

特別是,研究者使用原則上可擴展的集成超導電路,已構建並操作了具有大約2000個量子位的量子退火器。量子退火器實施量子機器學習演算法的最大挑戰包括:改進連線性,並在量子位之間實現更為普遍的可調耦合。研究者已在晶片中使用集成光子學,構建了具有大約100個可調諧干涉儀的可程式設計量子光學陣列,但是量子效應的損失也隨著這些回路的放大而增加。量子機器學習的一個特別重要的挑戰是,構建qRAM等的周邊設備,以允許經典資訊以量子力學形式編碼。用於訪問N個資料的qRAM由2 ^N個量子開關的分支陣列組成,它們在記憶體調用期間必須相干地進行操作。原則上,這樣的qRAM需要時間O(Log(N))才能執行記憶體調用,並且可以容忍每次切換操作時高達O(1/ logN)的錯誤率,其中log N是qRAM回路的深度。對qRAM已進行過概念驗證,但構建量子開關的大陣列仍是一個困難的技術問題。

這些硬體挑戰本質上是技術性的,而且克服這些困難的途徑也是明確的。但是,如果量子機器學習要成為量子電腦的“殺手級應用”,那麼,這些困難必須被克服。如前所述,已經提到的大多數量子演算法都面臨著許多限制其適用性的問題。我們可以將這些難題提煉成四個基本問題。

輸入問題:雖然量子演算法可以為處理資料提供顯著的加速,但它們很少在讀取資料方面具有優勢。這意味著,輸入時的讀取成本在某些情況下可以主導量子演算法的成本。理解這個問題,將構成一個持續的挑戰。

輸出問題:要從量子演算法中以比特串的形式獲取問題的完整的解,往往需要對指數級的比特資訊進行學習。這使得量子機器學習演算法的一些應用變得不可行。通過只學習問題解的某些總結性統計資訊,可能可以繞開此問題。

成本問題。與輸入/輸出問題密切相關的是,我們對量子電腦學習演算法在現實中到底需要多少個門尚缺乏瞭解。經典演算法在複雜性方面的限制表明,對於規模足夠大的問題,量子演算法將提供巨大的優勢,但是,仍然不清楚這個臨界點在什麼地方。

測試基準問題。在實踐中,通常很難斷言,量子演算法是否比所有已知的經典機器演算法更好,因為,這將需要針對各種現代啟發式方法進行廣泛的基準測試分析。建立量子機器學習的下限,將部分地解決這個問題。

為了避免上面的一些問題,我們可以將量子計算應用於量子數據而非經典資料。其中一個目標是,使用量子機器學習來表徵和控制量子電腦。這將實現類似於經典計算中發生過的那種創新的良性迴圈,在這個迴圈中,每一代處理器都可以被利用以設計下一代處理器。我們已經開始看到這個迴圈的第一代成果:經典機器學習已被用來改進量子處理器設計,而量子處理器反過來又會為量子機器學習提供強大的計算資源。

論文:doi:10.1038/nature234

點擊閱讀原文可查看職位詳情,期待你的加入~