歡迎光臨
每天分享高質量文章

量子機器學習-人工智慧的未來

人工智慧和機器學習

    當你聽到人工智慧這個詞時,你會想到什麼?不久前,這個短語被保留用於談論想象中遙遠的未來,在那裡人類有機器人僕人和自動駕駛汽車。聽起來熟悉嗎?這是我們今天生活的世界。我們有像Siri這樣的個人助理來回答我們的任何問題,特斯拉可以在我們睡覺的時候把我們從A點帶到B點,Snapchat上有無窮無盡的過濾器可以立即改變我們的外表。人工智慧時代已經到來。

    機器學習是人工智慧的一個子集,它利用演算法來教計算機像人類一樣做出決策。一種特別的模擬人腦的最大似然演算法是人工神經網絡。這些神經網絡通過獲取信息,通過一系列人工處理來模擬我們大腦的工作方式神經元,並產生輸出(圖1)。神經網絡為當今大量最突出的人工智慧技術提供了動力。

圖1 模擬一系列相連的神經元的人工神經網絡

量子計算導論

    量子計算是另一項有潛力將人工智慧帶入下一個層次的創新。量子計算機利用量子力學的特性來處理信息。傳統的計算機將信息編碼成比特,比特值可以是0或1。相反,量子計算機用量子比特編碼信息。就像一個比特,一個量子比特可以取0或1的值。然而,量子位能夠同時呈現多種狀態,這叫做疊加。因此,兩個量子位可以呈現四種可能狀態中的任何一種:01、11、10或00。一般來說,n量子位可以代表2^n不同的狀態。這種(非常簡化的)疊加概念使得量子計算機比傳統計算機強大得多。它們可以用更少的計算能力代表更多的信息。

量子機器學習

    神經網絡的一個主要不足是訓練時間比較長。甚至花上幾周的時間也並不少見,由於缺乏計算能力,甚至幾個月來訓練神經網絡。如果有一種方法可以利用量子計算的力量來加速訓練過程,讓這些複雜的網絡變得可行呢?進入量子機器學習。

    量子數學模型聽起來完全一樣—數學模型和量子計算的交集。量子機器學習的標的是利用量子計算機的力量,以比傳統計算機快得多的速度處理信息。然而,這並不像將現有代碼從中央處理器轉移到量子處理器那麼簡單。代碼首先需要能夠描述量子比特的量子語言。今天關於量子力學的大部分工作都試圖解決這個確切的問題。

量子神經網絡(QNNs)

    方法

    功能性神經網絡是人工智慧向前邁出的一大步。然而,現有的神經網絡還不能利用量子計算機的力量。創建一個工作的QNN的第一步是模擬一個單獨的量子神經元。

    讓我們檢查量子神經元的表現方式,以及量子神經網絡與傳統神經網絡的比較。因為對量子力學有不同的解釋,所以有不同的方法來表示量子神經元。一個這樣的解釋是Huge Evertt Many-world Interpretation。簡而言之,這個理論宣告有許多平行的宇宙,每一個都同時展現了每一個可能的歷史和未來。

    這聽起來非常複雜和抽象,因為確實如此。多宇宙為QNN的行為提供了洞察力。就像傳統的神經網絡如何模擬人腦一樣,QNN可以模擬量子物理。賓夕法尼亞州立大學的研究人員利用這種解釋開發了一種構建量子神經網絡的方法。

    傳統的神經網絡使用單個網絡來儲存許多樣式。如果量子神經網絡使用many網絡來儲存many樣式,就像可能有許多包含許多現實的宇宙一樣,會怎麼樣?態疊加原理可以讓這成為可能。記住,疊加意味著一個量子位有可能同時處於多種狀態。理論上,將這個類比推廣到神經網絡,QNN將能夠一次疊加儲存所有可能的樣式。因此,網絡中的每一種樣式都代表了它自己的平行宇宙。

    這是量子神經網絡的眾多理論框架之一。如果你對這個理論的細微細節感興趣,請查閱全文。代表多個平行宇宙的QNN的實際實現尚不可行。然而,可以模擬單個量子神經元。

    實現

    根據麻省理工技術評論的說法,意大利帕維亞大學的一個研究小組在2018年在量子計算機上實現了世界上第一個單層神經網絡(圖2)。

圖2: 人工神經元的經典模型(一)和在量子處理器上量子實現人工神經元的方案(二)

 

    在具有單個神經元(a)的經典神經網絡中,輸出是通過激活函式將其映射到二進制輸出的輸入向量的加權和。在抽象層次上,QNN的功能是相同的,但是在量子處理器上的實現是不同的。量子網絡的第一層將輸入向量編碼成量子態。然後,第二層對輸入進行酉變換,類似於經典神經網絡中權重向量的功能。你可以把酉變換想象成計算機把比特轉換成量子比特。最後,輸出被寫入Ancilla量子位,產生最終輸出。

    量子處理器上酉變換的實現是複雜的(圖2)。在高層次上,輸入通過一系列門,這些門是量子電路的一部分。這些門表示為Z、H N和X N,模擬傳統神經網絡中的權重向量。

圖3 . 一個4比特人工神經元的量子電路

 

    這個模型能夠精確模擬單個神經元的行為。然而,它還沒有擴展到由多層多個神經元組成的深度神經網絡。像這樣的單層模型能夠識別簡單的樣式,但是還不能擴展。這是在量子硬體上有效訓練量子神經網絡的第一步,也是實現神經網絡多宇宙的第一步。

QNNs的優勢

    QNNs似乎極其複雜,難以理解。但是他們被探索是有充分理由的。根據賓夕法尼亞州立大學的研究團隊,量子神經網絡與傳統神經網絡相比具有許多優勢,包括:

    指數儲存容量

    隱藏神經元數量越少,性能越高

    更快的學習速度

    處理速度(1010 bits/秒)

    小規模(1011個神經元/mm3)

    更高的穩定性和可靠性

    這些優勢解決了傳統神經網絡的大部分(如果不是全部的話)局限性。這也意味著有一個非常高的動機去成為量子力學領域的先行者,去利用這些優勢。目前,正在作出許多努力來實施一個全面運作的QNN。

當前和未來的工作

    谷歌的量子人工智慧團隊是量子移動通信的先驅之一。該團隊構建了一個可以在量子計算機上訓練的深度神經網絡理論模型。雖然他們缺乏當前的硬體來實際實現模型,但他們的結果令人鼓舞。一旦硬體可用,他們創建的框架將允許快速採用量子機器學習。

    此外,谷歌人工智慧團隊研究了神經網絡訓練如何在量子處理器上工作。傳統的網絡訓練方法是在訓練前隨機初始化權重。然而,他們發現這種方法在轉移到量子空間時並不奏效。因此,在訓練量子模型時,會出現梯度消失等問題。通過他們的研究,谷歌人工智慧團隊正在為量子移動通信的未來奠定基礎。

量子問題

    專註於讓傳統神經網絡以量子速度訓練是一個自然的起點,無疑也是非常重要的工作。但是量子計算的魅力在於解決量子問題的能力。這些型別的問題太複雜了,傳統計算機無法有效建模,更不用說人類大腦無法理解了。那麼量子力學能做什麼我們目前不能做的呢?

    這個問題的答案並不像人們希望的那樣令人滿意。考慮到量子力學的前沿只是最近才被探索,現在預測任何重大的量子問題還為時過早,有待解決。一個很酷的探索領域是利用QNN發現新的樂器。簡而言之,這種神經網絡可以產生演奏全新聲音的樂器。例如,這裡有一段他們的量子樂器演奏披頭士臭名昭著的“Hey Jude”的片段.

    QNN的另一個令人興奮的應用是模擬黑洞和人腦。這兩者有一個共同的特點,那就是它們驚人的記憶體儲存容量。理論上,量子計算機相對於傳統計算機的額外容量可能能夠捕捉到這一特征。創建的QNN能夠儲存和檢索大量的樣式。雖然很難得出任何具體的結論,但這些結果鼓勵了量子物理學中的一個未來應用建議。

    此時,QNNs更多的是處於胎兒期而不是青春期。谷歌人工智慧和其他人正在進行的研究有助於為量子移動通信領域的未來工作奠定基礎。量子神經網絡的未來應用是不確定的,可能對大多數人來說太抽象而難以理解。但是可以肯定的是,無處不在的量子機器學習就在地平線上,人們很容易對它的實現感到興奮。

    已同步到看一看
    赞(0)

    分享創造快樂