在我們描述21世紀剛剛過去的第二個十年的技術(shù)版圖中,人工智能(AI),、大數(shù)據(jù)(Big Data),、云計算(Cloud)、物聯(lián)網(wǎng)(IoT)是幾個無論如何也繞不開的術(shù)語,。在闡述科技發(fā)展趨勢的文章里,,如果不把這些術(shù)語作為開篇,簡直都不好展開論述,。 而在下一個十年,,在這一長串的革命性技術(shù)的名單后面,可能還要再加一個量子計算,。正如人工智能,,因為大數(shù)據(jù)的喂養(yǎng)而使得神經(jīng)網(wǎng)絡算法得以成熟,因為云計算的加持才擁有了充沛的算力,,因為和物聯(lián)網(wǎng)的融合而使得萬物產(chǎn)生智能,。 那么,人工智能與量子計算的交往又能產(chǎn)生怎樣的“劇烈反應”呢,? 2017年,,圖靈獎得主姚期智教授在一次演講時說:“如果能夠把量子計算和AI放在一起,我們可能做出連大自然都沒有想到的事情,?!?/p> 這等“敢叫天地換新顏”的技術(shù)前景,對于大多數(shù)普通人而言可能還略顯遙遠,,但量子計算和量子機器學習的技術(shù)研究早已在全球多家科研機構(gòu)和科技巨頭的實驗室中落地開花,,可以向外界和技術(shù)人員提供基礎(chǔ)的算法工具和資源,讓公眾可以一睹量子與智能的神奇力量,。 近日,,百度飛槳官宣發(fā)布了量子機器學習開發(fā)工具Paddle Quantum——量槳,,成為國內(nèi)唯一支持量子機器學習的深度學習平臺。量槳的作用就是提供了一套量子機器學習的工具集,,開放給科研人員,,進行量子神經(jīng)網(wǎng)絡的搭建測試以及量子人工智能的研究。 量槳的出現(xiàn),,到底能為量子機器學習帶來多少顯著進展,尚待時間檢驗,,但一定程度上推動量子機器學習在我國的普及,,為廣大AI和量子計算的研究者提供了一條新的學習途徑。 按捺不住學習熱情的你,,一定想到量子計算和人工智能的技術(shù)交匯處,,一窺量子機器學習的究竟,來衡量下投身入局的可能吧,? 為什么“量子計算”很配“人工智能”,? 進入正題之前,我們不妨先來簡單了解下量子計算的基礎(chǔ)背景,,來降低下代入難度,。 先來看,量子為什么能夠計算,? 二十世紀,,自然界的一個重大物理發(fā)現(xiàn)就是量子力學,而量子力學主要的發(fā)現(xiàn)是基本粒子有兩種狀態(tài)——疊加和糾纏,。通俗來理解,,疊加,就是量子同時既是這樣又是那樣,,一旦被觀察或測量就會變成其中的一個樣子,,這就是著名的“測不準”;糾纏,,就是兩個成對的量子粒子,,即使相隔宇宙兩端,也能發(fā)生暗戳戳的神秘互動,,這就是大名鼎鼎的“量子糾纏”,。 “疊加”決定了量子的并行計算的基礎(chǔ),“糾纏”決定了量子傳輸?shù)幕A(chǔ),。讓量子的這些特性被用于計算時,,就能用來處理非常復雜的數(shù)據(jù)計算。 我們知道,,經(jīng)典計算的基本單位是比特(Bit),,比特只能在0和1兩個狀態(tài)之間切換,。經(jīng)典計算只能在0和1的開合中實現(xiàn)線性計算,只不過現(xiàn)在的計算力非常巨大,,一秒鐘可以進行數(shù)十億甚至更高的計算,。 而量子計算的基本單位的量子比特(Qubit),量子比特因為疊加效應就可以同時具有0和1的特征,。隨著量子比特數(shù)量的增加,,量子比特的計算能力將會以指數(shù)級的方式增加。 也就是,,一個量子比特可以同時處于兩個狀態(tài)(0 和 1),。因此,兩個相互作用的量子比特可以同時存儲全部4個二進制值,。通常,,“n”個量子比特可以同時表示“2的n次方”個經(jīng)典二進制值。 我們用一個“玉米田迷宮”的例子來理解經(jīng)典計算和量子計算的不同:經(jīng)典計算就如同一個人在玉米田里尋找出口,,這個人會先找一條路走下去,,遇到阻礙就返回,再找一條路重新開始,,再遇到阻礙就再返回,,直到找到出口。而量子計算就如同有了多個分身,,可以同時探索玉米迷宮里的每一條路徑,,同時一次就把出口找到。 這樣,,量子計算的疊加態(tài)以及糾纏態(tài)形成的疊加坍縮構(gòu)成的高并行計算能力,,就為人工智能特別是機器學習所需要的數(shù)據(jù)處理和算法訓練提供了一種新的可能。 量子計算和人工智能也在發(fā)生一種相互“糾纏”又密不可分的關(guān)系,,但這并不意味著量子計算加上機器學習,,就可以立刻碰撞出顯著的成果。 量子機器學習仍在“襁褓”之初 量子機器學習(Quantum ML)是一個量子計算和機器學習交叉的的跨學科技術(shù)領(lǐng)域,,二者的結(jié)合可以產(chǎn)生一種互利互惠的結(jié)果,。 一方面,量子計算最主要的目標之一,,就是借助于量子特性開發(fā)高性能的量子機器學習算法,,從而加快或拓寬人工智能的應用場景。另一方面,,量子計算在大規(guī)模應用落地之前還有許多非常棘手的科學與工程技術(shù)難題有待解決,,這需要大量的先進計算工具,特別是AI技術(shù)幫助突破量子計算研發(fā)瓶頸,。 在機器學習和量子計算按照算法和數(shù)據(jù)二維劃分下,,可以得到四種不同分類——C-C,、Q-C、C-Q和Q-Q,。C-C就是傳統(tǒng)的機器學習,;Q-Q屬于量子計算的開放域;而C-Q主要就是通過機器學習算法來解決量子物理的問題,,比如對量子系統(tǒng)的控制對象建模,,對擾動、噪聲等參數(shù)特征的辨識,,推動量子計算發(fā)展,。 而Q-C就是利用量子理論改進機器學習,推動機器學習算法的量子化,。一種方法是通過量子計算把原先經(jīng)典計算中不可計算的問題變?yōu)榭捎嬎愕? 從而大幅降低機器學習算法的計算復雜度;一種方法是通過量子計算并行加速的優(yōu)勢與機器學習的算法深度結(jié)合,,催生出全新的量子機器學習算法模型,。 傳統(tǒng)的神經(jīng)網(wǎng)絡只能使用單個網(wǎng)絡來存儲許多算法模式;而量子神經(jīng)網(wǎng)絡,,因為量子疊加效應帶來的并行性,,可以使用許多網(wǎng)絡來存儲許多算法模式。不過,,量子神經(jīng)網(wǎng)絡的實現(xiàn)并不容易,,因為最終這些算法想要真正發(fā)揮作用則需量子計算機(處理器)的支持。 據(jù)報道,,2018 年,,意大利帕維亞大學的研究團隊在只有4個量子比特的量子計算機上實現(xiàn)了世界上第一個單層神經(jīng)網(wǎng)絡。 (具有 4 個量子比特的人工神經(jīng)元的量子電路) 這一模型能夠準確地模擬單個神經(jīng)元的行為,,像這樣的單層模型能夠識別簡單的模式,。然而,它還沒有擴展到由多層神經(jīng)元組成的深度神經(jīng)網(wǎng)絡,。不過,,這至少是在量子硬件上有效訓練量子神經(jīng)網(wǎng)絡而邁出的第一步。 與傳統(tǒng)神經(jīng)網(wǎng)絡相比,,量子神經(jīng)網(wǎng)絡具有很多優(yōu)勢,,比如,指數(shù)級記憶容量,、更快的學習和處理速度,、更小的規(guī)模以及更高的穩(wěn)定性和可靠性等。 盡管量子硬件的進度稍顯緩慢,,但算法模型理論可以先行,。谷歌的Quantum AI 團隊就在當時已經(jīng)預先構(gòu)建出一個可以在量子計算機上訓練的深度神經(jīng)網(wǎng)絡的理論模型,。 而到了今年3月,谷歌又宣布開源一款用于訓練量子模型的機器學習庫 TensorFlow Quantum(簡稱 TFQ),。TFQ 包含了特定量子計算所需的基本結(jié)構(gòu),,例如量子比特、門,、電路和測量運算符,。用戶指定的量子計算然后可以在模擬或真實硬件上執(zhí)行。 目前,,量子機器學習的發(fā)展仍然處于起步階段,,當前的一些應用上面可以做到使用量子神經(jīng)網(wǎng)絡來生成一些演奏出全新聲音的新樂器等。 未來量子機器學習的應用前景卻更加令人興奮,,比如擁有指數(shù)級存儲和檢索能力的量子神經(jīng)網(wǎng)絡可以模擬人類大腦或者模擬黑洞,,能夠幫助人類真正探索世界最深邃的本質(zhì)。這也許才是量子機器學習和量子計算發(fā)揮終極價值的場域,。 量子機器學習的成長“難關(guān)” 量子計算本身就是一項復雜技術(shù),,而量子機器學習這一交叉技術(shù)的研發(fā)難度自然又進一步提高。量子機器學習算法的成熟自然要得益于軟硬件兩方面的同時提升,,而在這兩方現(xiàn)在都仍然還存在一些難關(guān)要闖過,。 首先,我們要知道,,傳統(tǒng)的機器學習語言并不能直接地移植到量子計算上面,,而是需要先把當前的機器學習代碼轉(zhuǎn)換成使用量子比特的量子態(tài),從而構(gòu)建出量子神經(jīng)網(wǎng)絡,。 這就是所謂的量子機器學習的I/O瓶頸,,所謂I/O瓶頸是指,目前大部分量子機器學習算法或者需要把大規(guī)模數(shù)據(jù)集編碼為量子態(tài),,或者只是把問題的解生成在量子態(tài)中,,因此輸入階段的前處理和信息提取階段的后處理將耗費大量時間,乃至抵消量子算法所節(jié)省的時間,。 (IBM的一個 50 量子比特位計算系統(tǒng)的中心結(jié)構(gòu)) 其次,,則是真正意義上的通用量子計算機尚沒有出現(xiàn),而現(xiàn)在意義上的上千個量子比特的量子計算機在可以良好抗噪聲,、解決退相干問題上還存在著一定的問題,,也就是還不能達到迪文森佐標準的量子計算機。這意味著能夠支撐量子機器學習算法得以實際驗證的硬件手段仍然是缺乏的,,研究者大多只能通過量子模擬器的方式來實現(xiàn)多個量子比特的運算,。 比如說,此次谷歌TFQ為量子機器學習研究提供了一個內(nèi)含大約 50~100 量子比特的噪聲中級量子處理器(NISQ)的工具,從而控制 / 建模自然或人工量子系統(tǒng),?;诖耍F(xiàn)在TFQ的量子機器學習模型可以處理量子數(shù)據(jù)模型和混合量子經(jīng)典模型,,幫助開發(fā)者能夠改進現(xiàn)有的量子算法或發(fā)現(xiàn)一些新的算法,。 基于軟硬件上面的現(xiàn)實困難,量子機器學習算法上面的突破還有很長的時間,。 此外,,在一些計算問題上,量子機器學習的算法和經(jīng)典算法相比是否一定有加速優(yōu)勢,,則仍然存疑,。2018年,年僅18歲的華裔學生Ewin Tang受量子推薦算法的啟發(fā),,設(shè)計出了一個經(jīng)典算法,,它能以和量子算法相近的速度解決推薦問題。這一思路給了研究者以啟示:通過量子算法思維能促進經(jīng)典算法的發(fā)展,,這也是量子計算研究意義的另一種體現(xiàn),。 盡管目前來說,量子機器學習既沒有像去年谷歌所宣稱的“量子霸權(quán)”那樣引人矚目,,也不能像人工智能在現(xiàn)實生活的廣泛應用而成績顯著。但量子機器學習更像是一個面向未來世界的計算產(chǎn)物,。 回到幾十年前,,量子計算的實現(xiàn)和機器學習的神經(jīng)網(wǎng)絡的實現(xiàn),都一度被認為是不可能的事情,。而這二者竟然都能夠?qū)崿F(xiàn),,現(xiàn)在還處在了相互結(jié)合的交匯點上,已然是人類技術(shù)的一次奇遇,。 那么站在當下,,一個普通的技術(shù)愛好者也可以通過像百度、谷歌這樣的量子計算平臺的開放,,就可以親身來進行量子算法的開發(fā)和測試,,更不能不說千載難逢、幸運之至,。 |
|