過(guò)去的新春佳節(jié)讓程序員們迎來(lái)了一個(gè)難得的長(zhǎng)假休息,但人工智能在假期一直在進(jìn)步,,我們看到了Facebook人工智能負(fù)責(zé)人Yann LeCun,、香港科技大學(xué)計(jì)算機(jī)與工程系主任楊強(qiáng)等人工智能大牛對(duì)人工智能熱潮的冷靜思考,也看到谷歌研發(fā)出特定條件下超越人類水平的人工智能游戲系統(tǒng),。下面就來(lái)看看大牛們給我們的人工智能新年啟示,。 Yann LeCun:IBM True North是“草包族科學(xué)” 無(wú)監(jiān)督學(xué)習(xí)是未來(lái) Facebook人工智能負(fù)責(zé)人Yann LeCun與IEEE Spectrum的Lee Gomes日前進(jìn)行了一次關(guān)于深度學(xué)習(xí)的深度對(duì)話,談到了人工智能領(lǐng)域目前存在的一些炒作以及深度學(xué)習(xí)的發(fā)展方向,,他認(rèn)為將深度學(xué)習(xí)與大腦進(jìn)行類比給它賦予了一些神奇的光環(huán)將可能導(dǎo)致人工智能的寒冬,。微信公眾號(hào)“機(jī)器之心”已將該對(duì)話全部譯為中文,現(xiàn)將譯文中Yann LeCun的一些主要觀點(diǎn)摘錄如下: IBM True North是“草包族科學(xué)” Spectrum:你看起來(lái)一直在竭盡全力的將你的工作與神經(jīng)科學(xué)和生物學(xué)拉開(kāi)距離,。例如,,你提到了“卷積網(wǎng)絡(luò)”,而不是“卷積神經(jīng)網(wǎng)絡(luò)”,。你在你的算法里提到了“單位/個(gè)體”(units),,而非“神經(jīng)元”。 LeCun:的確如此。我們模型中的一些部分從神經(jīng)科學(xué)中獲得了靈感,,但還有相當(dāng)多部分與神經(jīng)科學(xué)毫不相干,,相反,它們是來(lái)源于理論,、直覺(jué)和經(jīng)驗(yàn)探索,。 我們的模型不希望變成大腦的模型,我們也沒(méi)有宣稱神經(jīng)科學(xué)方面的相關(guān)性,。但同時(shí),,如果說(shuō)卷積網(wǎng)絡(luò)的靈感來(lái)源于一些關(guān)于視覺(jué)皮質(zhì)的基礎(chǔ)知識(shí),我也可以接受,。 有些人間接從神經(jīng)科學(xué)獲得靈感,,但他卻不肯承認(rèn)這一點(diǎn),我承認(rèn),,這(神經(jīng)科學(xué))很有幫助,。但我會(huì)小心翼翼的不去觸碰那些會(huì)引發(fā)大肆宣傳的詞語(yǔ),因?yàn)檫@個(gè)領(lǐng)域已經(jīng)出現(xiàn)了瘋狂炒作,,這非常危險(xiǎn),。 因?yàn)檫@給基金會(huì)、公眾,、潛在客戶,、創(chuàng)業(yè)公司和投資者帶來(lái)了預(yù)期,他們會(huì)因此相信我們正處在風(fēng)口浪尖——我們正在建造一些像大腦一樣強(qiáng)大的系統(tǒng),,但實(shí)際上我們離這個(gè)目標(biāo)還差的很遠(yuǎn),。這很容易導(dǎo)致另一次的“寒冬周期”。 這里會(huì)出現(xiàn)一些“草包族科學(xué)”(cargo cult science),,在“草包族科學(xué)”下,,你往往是復(fù)制了機(jī)器的表象,卻沒(méi)有深入理解機(jī)器背后的原理,。或者,,在航空領(lǐng)域,,你制造飛機(jī)時(shí)會(huì)完全復(fù)制鳥類的樣子,它的羽毛,、翅膀等等,。19世紀(jì)的人們很喜歡這么做,但取得的成就非常有限,。 在人工智能領(lǐng)域也是如此,, 他們嘗試著對(duì)我們所知曉的神經(jīng)元和神經(jīng)突觸的所有細(xì)節(jié)進(jìn)行復(fù)制,然后在一臺(tái)超級(jí)計(jì)算機(jī)上啟動(dòng)一套龐大的模擬神經(jīng)網(wǎng)絡(luò),,希望從中孕育出人工智能,,這就是“草包族科學(xué)”的人工智能,。 有許多拿到大筆基金支持的嚴(yán)肅的研究者基本上快要相信這些了。 Spectrum:你認(rèn)為IBM的True North項(xiàng)目(譯者注:IBM的類人腦芯片,,集成了 54 億個(gè)硅晶體管,、 4096 個(gè)內(nèi)核、100 萬(wàn)個(gè)“神經(jīng)元”和2.56 億個(gè)“突觸”)屬于“草包族科學(xué)”嗎,? LeCun:這聽(tīng)起來(lái)會(huì)有些刺耳,。但我的確認(rèn)為,IBM團(tuán)隊(duì)所聲稱的東西有點(diǎn)偏差并容易造成誤解,。從表面上看,,他們的公告令人印象深刻,但實(shí)際上沒(méi)有實(shí)現(xiàn)任何有價(jià)值的東西,。在True North之前,,那個(gè)團(tuán)隊(duì)用IBM的超級(jí)計(jì)算機(jī)來(lái)“模擬了一個(gè)老鼠級(jí)別的大腦”,但這只是一個(gè)隨機(jī)的神經(jīng)網(wǎng)絡(luò),,除了消耗CPU運(yùn)算周期以外沒(méi)有發(fā)揮任何作用,。 True North芯片的悲劇在于它本來(lái)可以很有用,如果它當(dāng)初沒(méi)有堅(jiān)持與生物學(xué)走的太近以及沒(méi)有使用"spiking integrate-and-fireneurons"模型的話,。 因此在我看來(lái)——我曾是一個(gè)芯片設(shè)計(jì)者——當(dāng)你在開(kāi)發(fā)一個(gè)芯片之前,,你必須確信無(wú)疑它能做些有用的事情。 如果你打造了一個(gè)卷積網(wǎng)絡(luò)芯片——很清楚如何去做——它能立刻應(yīng)用到計(jì)算設(shè)備中,。IBM創(chuàng)造了錯(cuò)誤的東西,,我們無(wú)法用它去完成任何有用的事情。 Spectrum:還有其他例子嗎,? LeCun:從根本上說(shuō),,歐盟人腦計(jì)劃(Human Brain Project)中的很大部分也是基于這樣一種理念:我們應(yīng)該建造一種模擬神經(jīng)元功能的芯片,越接近越好,,然后將芯片用于建造超級(jí)計(jì)算機(jī),,當(dāng)我們用一些學(xué)習(xí)規(guī)則來(lái)開(kāi)啟它時(shí),人工智能就出現(xiàn)了,。我認(rèn)為這純屬胡說(shuō)八道,。 誠(chéng)然,我剛才指的是歐盟人腦計(jì)劃,,并不是諷刺參與這個(gè)項(xiàng)目的每個(gè)人,。許多人參與該項(xiàng)目的原因僅僅是因?yàn)樗塬@得巨額資助,這是他們所無(wú)法拒絕的,。 無(wú)監(jiān)督學(xué)習(xí)是未來(lái) Spectrum:對(duì)于一般意義上的機(jī)器學(xué)習(xí),,還有多少是有待發(fā)掘的? LeCun:太多了。我們?cè)趯?shí)際的深度學(xué)習(xí)系統(tǒng)中使用的學(xué)習(xí)方式還是存在局限的,。在具體實(shí)踐中發(fā)揮作用的其實(shí)是“有監(jiān)督學(xué)習(xí)”,。你將一張圖片展現(xiàn)給系統(tǒng)并告訴它這是一輛車,它就會(huì)相應(yīng)調(diào)整它的參數(shù)并在下一次說(shuō)出“車”,。然后你再展現(xiàn)給它一把椅子,、一個(gè)人。在幾百個(gè)例子,、耗費(fèi)幾天到幾周的計(jì)算時(shí)間(取決于系統(tǒng)規(guī)模)之后,,它就弄明白了。 但人類和動(dòng)物不是這種學(xué)習(xí)方式,。當(dāng)你還是嬰兒時(shí),,你并沒(méi)有被告知你所看到的所有物體的名字。然而你卻能學(xué)會(huì)這些物體的概念,,你知道世界是三維的,,當(dāng)我把物體放在另一個(gè)的后面,你還是知道它的存在,。這些概念不是與生俱來(lái)的,,是你將它們學(xué)會(huì)了。我們把這種類型的學(xué)習(xí)稱作“無(wú)監(jiān)督”學(xué)習(xí),。 2000s中期,,我們中的許多人參與到了深度學(xué)習(xí)的復(fù)興運(yùn)動(dòng)中,包括Geoff Hinton,、Yoshua Bengio和我自己——這就是所謂的“深度學(xué)習(xí)團(tuán)體”——還有Andrew Ng,,從此使用無(wú)監(jiān)督學(xué)習(xí)而非有監(jiān)督學(xué)習(xí)的理念開(kāi)始興起。無(wú)監(jiān)督學(xué)習(xí)可以幫助特定的深度網(wǎng)絡(luò)進(jìn)行“預(yù)訓(xùn)練”,。我們?cè)谶@方面取得了不少成果,,但最終能夠應(yīng)用于實(shí)踐的還是過(guò)去那些能與卷積網(wǎng)絡(luò)相結(jié)合的出色的有監(jiān)督學(xué)習(xí),我們?cè)?0年前(1980s)所做的事情,。 但 從研究的角度來(lái)看,,我們一直感興趣的是如何恰當(dāng)?shù)刈龊脽o(wú)監(jiān)督學(xué)習(xí)。我們現(xiàn)在已經(jīng)擁有了可以實(shí)用的無(wú)監(jiān)督技術(shù),,但問(wèn)題在于,,我們僅需要收集更多數(shù)據(jù),再配合有監(jiān)督學(xué)習(xí)就能擊敗它,。 這就是為什么在現(xiàn)階段的產(chǎn)業(yè)中,深度學(xué)習(xí)的應(yīng)用基本上都是有監(jiān)督的,。但將來(lái)不會(huì)再是這種方式,。 從本質(zhì)上來(lái)說(shuō),在無(wú)監(jiān)督學(xué)習(xí)方面,大腦遠(yuǎn)好于我們的模型,,這意味著我們的人工智能學(xué)習(xí)系統(tǒng)缺失了許多生物機(jī)理學(xué)習(xí)的基本原則,。 下一個(gè)前沿課題是NLP Spectrum:Facebook最近公布了一個(gè)人臉識(shí)別算法DeepFace,很多報(bào)道稱人臉識(shí)別技術(shù)的準(zhǔn)確性已經(jīng)接近于人,。但那些結(jié)果難道不是在精心策劃的數(shù)據(jù)庫(kù)中跑出來(lái)的么,?如果在互聯(lián)網(wǎng)上遇到隨機(jī)的圖片,這個(gè)系統(tǒng)報(bào)告還能取得同樣的成功么,? LeCun:相比于人類,,系統(tǒng)對(duì)圖片質(zhì)量更為敏感,這是肯定的,。人們能通過(guò)不同的面部胡須等特征識(shí)別出眾多不同構(gòu)造的人臉,,計(jì)算機(jī)系統(tǒng)在這方面鮮有優(yōu)勢(shì)。但是系統(tǒng)可以在非常大的人類集合中識(shí)別出某個(gè)人,,這個(gè)集合會(huì)遠(yuǎn)遠(yuǎn)超出人類的處理能力,。 Spectrum:在圖片識(shí)別之外的領(lǐng)域,深度學(xué)習(xí)表現(xiàn)如何,,尤其是當(dāng)涉及到諸如自然語(yǔ)言等通用智能相關(guān)問(wèn)題的時(shí)候,? LeCun:我們?cè)贔acebook的很大一部分工作都是集中于此。我們?nèi)绾螌⑸疃葘W(xué)習(xí)的優(yōu)勢(shì),,與其通過(guò)學(xué)習(xí)描繪世界的能力,、從短暫的信號(hào)中積累知識(shí)的能力(伴隨著語(yǔ)言出現(xiàn))、推理能力,、與當(dāng)前深度學(xué)習(xí)系統(tǒng)采取不同方式的知識(shí)存儲(chǔ)能力結(jié)合起來(lái),? 在當(dāng)前深度學(xué)習(xí)系統(tǒng)下,就像學(xué)習(xí)一項(xiàng)運(yùn)動(dòng)技能,,我們訓(xùn)練它們的方式類似于我們自學(xué)騎自行車,。你學(xué)到了一項(xiàng)技能,但實(shí)際上卻不涉及大量事實(shí)記憶或知識(shí),。 但你學(xué)的其他一些事情,,就必須要求你記住事實(shí),你必須記住并儲(chǔ)存一些東西,。在Facebook,、Google和其他許多地方, 我們做的大量工作是一邊建立神經(jīng)網(wǎng)絡(luò),,一邊建立一個(gè)獨(dú)立的存儲(chǔ)器模塊,,這能被運(yùn)用于自然語(yǔ)言理解等領(lǐng)域。 我們開(kāi)始看到,, 經(jīng)由存儲(chǔ)器模塊強(qiáng)化的深度學(xué)習(xí)幫助自然語(yǔ)言處理取得了令人印象深刻的結(jié)果,。該系統(tǒng)基于這樣的理念,,即用連續(xù)向量描述詞語(yǔ)和句子,經(jīng)由深層架構(gòu)的多層級(jí)完成對(duì)這些向量的轉(zhuǎn)化,,并將它們存儲(chǔ)在一種聯(lián)合型存儲(chǔ)器里,。這對(duì)問(wèn)答和語(yǔ)言翻譯都非常有效。 這種模式的一個(gè)范例是存儲(chǔ)網(wǎng)絡(luò)(Memory Network),,這個(gè)模型是Facebook科學(xué)家Jason Weston,、Sumit Chopra和 Antoine Bordes最近提出的。Google/Deep Mind的科學(xué)家也提出了一個(gè)相關(guān)概念“神經(jīng)圖靈機(jī)”(Neural Turing Machine),。 Spectrum:所以你不認(rèn)為深度學(xué)習(xí)將會(huì)成為解鎖通用人工智能的那把鑰匙,? LeCun:它將是解決方案中的一部分。在一定程度上,,這一解決方案看上去像一張巨大而復(fù)雜的神經(jīng)網(wǎng)絡(luò),。但這與人們迄今在文獻(xiàn)中看到的有很大不同。我說(shuō)的這些東西,,你已經(jīng)可以開(kāi)始看到一些相關(guān)論文了,。 許多人正在研究所謂的“周期神經(jīng)網(wǎng)絡(luò)”(recurrent neural nets)。在這些神經(jīng)網(wǎng)絡(luò)中,,輸出被反饋到輸入端,,這樣你就能形成一個(gè)推理鏈。你可以借此來(lái)處序列信號(hào),,像語(yǔ)音,、音頻、視頻和語(yǔ)言,,初步結(jié)果相當(dāng)不錯(cuò),。深度學(xué)習(xí)的下一個(gè)前沿課題是自然語(yǔ)言理解。 Spectrum:如果一切順利,,我們可以期待機(jī)器很快能做到哪些它們現(xiàn)在做不到的事情嗎,? LeCun:你或許能看到更好的語(yǔ)音識(shí)別系統(tǒng),但在某種程度上它們是隱藏起來(lái)的,。你的數(shù)字伴侶將會(huì)變得更完善,;將會(huì)有更好的問(wèn)答和對(duì)話系統(tǒng);你可以和你的計(jì)算機(jī)進(jìn)行對(duì)話,;你可以向計(jì)算機(jī)發(fā)問(wèn)而它會(huì)從知識(shí)庫(kù)中為你尋找答案,;機(jī)器翻譯將會(huì)更精準(zhǔn);你還能看到自動(dòng)駕駛汽車和更聰明的機(jī)器人,,自動(dòng)駕駛汽車將會(huì)使用卷積網(wǎng)絡(luò),。 如何讓機(jī)器獲得常識(shí)? Spectrum:改進(jìn)圖靈測(cè)試的Winograd Schemas挑戰(zhàn)不僅僅涉及自然語(yǔ)言和常識(shí),,還包括對(duì)于現(xiàn)代社會(huì)運(yùn)行機(jī)制的理解,。計(jì)算機(jī)可能會(huì)采取何種辦法來(lái)應(yīng)對(duì)這些挑戰(zhàn),? LeCun:這個(gè)問(wèn)題的關(guān)鍵是如何表達(dá)知識(shí)。在“傳統(tǒng)的”人工智能里,,事實(shí)知識(shí)以圖形(是一套符號(hào)或?qū)嶓w及相互關(guān)系)的方式被手工輸入。但我們都知道人工智能系統(tǒng)是可以通過(guò)學(xué)習(xí)自動(dòng)獲取知識(shí)的,。所以問(wèn)題就變成了“機(jī)器如何才能學(xué)會(huì)表達(dá)有關(guān)事實(shí)和關(guān)系的知識(shí),?” 深度學(xué)習(xí)毋庸置疑是解決方案的一部分,但不是全部,。 符號(hào)的問(wèn)題在于它只是一串毫無(wú)意義的比特,,在深度學(xué)習(xí)系統(tǒng)里,代表實(shí)體的是大規(guī)模的向量,,而它們是從數(shù)據(jù)和反應(yīng)這些數(shù)據(jù)的特征中學(xué)習(xí)而來(lái)的,。學(xué)習(xí)推理要?dú)w結(jié)于學(xué)會(huì)對(duì)使這些向量運(yùn)算的函數(shù)。 Facebook的研究人員Jason Weston,、RonanCollobert,、Antonine Bordes和Tomas Mikolov等人已經(jīng)率先開(kāi)始嘗試用向量來(lái)表達(dá)單詞和語(yǔ)言。 Spectrum:人工智能的一個(gè)經(jīng)典問(wèn)題是讓機(jī)器獲得常識(shí),。深度學(xué)習(xí)領(lǐng)域?qū)@個(gè)問(wèn)題有什么見(jiàn)解,? LeCun:我認(rèn)為通過(guò)使用預(yù)測(cè)式無(wú)監(jiān)督學(xué)習(xí)可以獲得某種常識(shí)。例如,,我可以讓機(jī)器觀看大量的關(guān)于物體被拋擲或下落的視頻,。我訓(xùn)練它的方法是給它看一個(gè)視頻,然后問(wèn)它:“接下來(lái)會(huì)發(fā)生什么,?一秒鐘之后畫面將如何,?”以這種方式訓(xùn)練機(jī)器去預(yù)測(cè)一秒鐘后、一分鐘后,、一小時(shí)后或一天后世界將會(huì)如何,,它將獲得很好的對(duì)世界的描述。這會(huì)使得機(jī)器了解物理世界的眾多限制,,如“拋向空中的物體在一段時(shí)間后將下落”,、或者“一個(gè)物體不能同時(shí)在兩個(gè)地方”、或者“物體被擋住后仍然存在”,。了解物理世界的限制將使機(jī)器能夠“填補(bǔ)空白”,,以及在被告知包含一系列事件的故事后對(duì)世界的狀態(tài)進(jìn)行預(yù)測(cè)。 JasonWeston,、Sumit Chopra和Antoine Bordes正在利用我剛才講到的“記憶網(wǎng)絡(luò)”建造這樣一個(gè)系統(tǒng),。 楊強(qiáng):依賴計(jì)算力和大數(shù)據(jù)會(huì)導(dǎo)致人工智能的冬天? 百度首席科學(xué)家吳恩達(dá)教授說(shuō): “結(jié)合大數(shù)據(jù),,新的人工智能的算法越來(lái)越好,, 我們可以第一次在未來(lái)人工智能虛擬圈里完成整個(gè)循環(huán),。”確實(shí),,隨著計(jì)算能力的提升和計(jì)算成本的下降,,大數(shù)據(jù)推動(dòng)了當(dāng)前人工智能的“夏天”,但長(zhǎng)期研究人工智能和大數(shù)據(jù)的香港科技大學(xué)計(jì)算機(jī)與工程系主任楊強(qiáng)卻在2015年的冬季達(dá)沃斯會(huì)議之后反思了人工智能依賴這兩個(gè)條件的另一種隱患:夏天來(lái)了,,冬天還會(huì)遠(yuǎn)嗎,? 楊強(qiáng)教授在人工智能的集體狂歡中冷靜地分析道: 現(xiàn)在人工智能所取得的成就還都集中在人和計(jì)算機(jī)的接口:語(yǔ)音,視覺(jué),,文字,。然而,人類智慧的最高表現(xiàn)卻是抽象的推理和聯(lián)想,,可以讓我們從一個(gè)事件關(guān)聯(lián)到另外一個(gè)事件,,從一種知識(shí)遷移到另外一種知識(shí)。以上的這些所謂的“強(qiáng)人工智能”的能力,,是不是由眾多的單一方向的“弱人工智能”的大量疊加可以得到的呢,?我們尚不得而知。 如今,,計(jì)算機(jī)的這種跨領(lǐng)域的學(xué)習(xí)能力還遠(yuǎn)遠(yuǎn)沒(méi)有得到實(shí)現(xiàn),,甚至連知識(shí)殿堂的入口都不知道在哪里。糾其主因,,是我們至今的計(jì)算能力還不夠強(qiáng)大,,在這些領(lǐng)域還是無(wú)法得到全面反應(yīng)人類思維的大數(shù)據(jù)。我們的學(xué)習(xí)算法還需要無(wú)數(shù)的大數(shù)據(jù)來(lái)提供人工智能機(jī)器運(yùn)轉(zhuǎn)的“燃料,?!?nbsp;而這些大數(shù)據(jù)的準(zhǔn)備工作還是需要昂貴的人工來(lái)提供, 并不能形成滾雪球式的規(guī)模效應(yīng),。這些缺陷很可能阻礙我們得到真正智能的工具,,使得吳恩達(dá)博士所說(shuō)的“虛擬閉環(huán)”有很大的缺口。這些缺口的致命之處很可像我們?cè)?0年前的那個(gè)冬天面對(duì)沒(méi)有汽油的寶馬所帶來(lái)的尷尬:只是今天在我們面前的是一輛漂亮的特斯拉,,但卻怎么也找不到加電站,! 相信IBM的Watson、百度的Minwa計(jì)算平臺(tái)都還有很大的提升空間,,但要支持無(wú)窮無(wú)盡的數(shù)據(jù)計(jì)算恐怕還是容易達(dá)到瓶頸,,更何況要找出全面反應(yīng)人類思維的大數(shù)據(jù)還很困難。 所以,,讓我們?cè)谘芯可疃葘W(xué)習(xí)的應(yīng)用之余,,也要適時(shí)思考楊強(qiáng)教授的問(wèn)題:“我們會(huì)不會(huì)在人工智能的集體狂歡中忽略了最本質(zhì)得東西, 以至于不小心穿越到30多年前的那個(gè)人工智能的冬天,?” Google:DNN+強(qiáng)化學(xué)習(xí)讓AI的復(fù)雜任務(wù)表現(xiàn)逼近人類 Google DeepMind的AI靠自學(xué)(靠著對(duì)游戲視頻的觀察來(lái)尋找出模式,,然后操作控制器,,并獲得得分的反饋結(jié)果,在反饋中不斷調(diào)整自己的控制)玩會(huì)了49種游戲,,甚至在23種游戲中擊敗了人類職業(yè)玩家,。Google DeepMind團(tuán)隊(duì)在《自然》雜志發(fā)表論文,公布玩游戲比人厲害的AI如何實(shí)現(xiàn): DeepMind 的 AI 的設(shè)計(jì)核心是如何讓計(jì)算機(jī)自行發(fā)現(xiàn)數(shù)據(jù)中存在的模式,。其解決方案是深度神經(jīng)網(wǎng)絡(luò)與強(qiáng)化學(xué)習(xí)等方法的的結(jié)合,。AI 并不知道游戲規(guī)則,而是用深度神經(jīng)網(wǎng)絡(luò)來(lái)了解游戲的狀態(tài),,找出哪一種行為能導(dǎo)致得分最高。 這一方面是得益于現(xiàn)在計(jì)算能力的提高使得 AI 可處理規(guī)模要大得多的數(shù)據(jù)集,,要知道,,觀察 Atari 游戲相當(dāng)于每秒處理 200 萬(wàn)像素的數(shù)據(jù)。另一方面則是得益于 DeepMind 結(jié)合了強(qiáng)化學(xué)習(xí)來(lái)訓(xùn)練 AI,,而且是在高維度感覺(jué)輸入中采用的端到端強(qiáng)化學(xué)習(xí),。相對(duì)于以往計(jì)算機(jī)會(huì)玩的游戲,如國(guó)際象棋等,,這次計(jì)算機(jī)玩的游戲更接近現(xiàn)實(shí)世界的混沌狀態(tài),。Google的智能設(shè)計(jì)師Demis Hassabis稱,這是第一種能在一系列復(fù)雜任務(wù)當(dāng)中與人類表現(xiàn)相當(dāng)?shù)乃惴ā? |
|
來(lái)自: codingparty > 《人工智能》