近期受“中興事件”熱度影響,,AI芯片方面的新聞也顯得格外集中,。各方涌入之際,技術(shù)阻隔讓人只聞熱度不解其意,。本文力圖化解專業(yè)名詞障礙,,以2017芯片元年的巨頭戰(zhàn)爭入手,簡略回顧這段AI芯片歷史中有代表性的故事,,以助讀者一窺算法與芯片在人工智能發(fā)展中的身影,。 ———————————————————— 作者:王麗萌 指導(dǎo):譚瑩 . 01 .人工智能的發(fā)展得益于芯片技術(shù)的發(fā)展芯片是未來人工智能發(fā)展的基礎(chǔ)人工智能 (Artificial Intelligence,以下或簡稱AI)是開發(fā)模仿人類使用大腦去做一些事情的軟件的方法和概念的合集,。這個舊領(lǐng)域近年來的快速發(fā)展很大程度上得益于芯片技術(shù)多年的積累,,如果不是芯片技術(shù)已經(jīng)能夠給大規(guī)模機器學習提供足夠的處理能力,我們就無法看到戰(zhàn)勝人類頂尖棋手的AlphaGo,。 芯片技術(shù)的發(fā)展是人工智能發(fā)展的必要條件 ,,芯片代表著算力。人工智能的發(fā)展有幾大重要支柱,,包括數(shù)據(jù)(事實或觀察的結(jié)果),、算法(解決問題的方法,如深度學習算法)和算力(運算能力),。從數(shù)據(jù)方面,,互聯(lián)網(wǎng)時代下大數(shù)據(jù)高速積累,需要運行的數(shù)據(jù)量驟增,,而現(xiàn)有算力難以匹配,;從算法方面,即使存在邏輯上可用的算法,,也需要有足夠算力才能處理數(shù)據(jù)樣本、訓練機器,。由于算力的不可或缺和通信應(yīng)用(智能手機等)增長的放緩,,人工智能的發(fā)展也將成為芯片技術(shù)進步的主要驅(qū)動力。 從2016年開始,,人工智能相關(guān)的芯片越來越熱,。傳統(tǒng)芯片公司都有所布局,很多軟件和互聯(lián)網(wǎng)公司紛紛進入,,初創(chuàng)公司的估值越來越高,。 2017年可謂AI芯片元年,,是過去的2017年人工智能方向最受關(guān)注的行業(yè)熱點。 進入2018年,,AI芯片持續(xù)火熱,,預(yù)計這股熱潮也將長時間影響人工智能領(lǐng)域。 . 02 .AI芯片元年開啟的標志性事件:Google論文公布TPU芯片細節(jié)2017年4月,,Google公布了一篇即將在ISCA2017上發(fā)表的論文:“In-Datacenter Performance Analysis of a Tensor Processing Unit”,,終于公開了做AI芯片的細節(jié),使得這篇學術(shù)論文得到媒體的極大關(guān)注,,也揭開了2017年AI芯片熱點事件的序幕,。回顧Google的這顆AI芯片,,要從三年前開始,。 起因——數(shù)據(jù)中心能耗大,嘗試用機器學習算法來解決實際問題,,實踐驗證可行 在新加坡舉辦的Datacenter Dynamics 2014會議上,,Google介紹了如何利用機器學習和人工智能進一步改進數(shù)據(jù)中心的能效。 公式: 衡量數(shù)據(jù)中心的能效指標PUE=數(shù)據(jù)中心總設(shè)備能耗/IT設(shè)備能耗 背景: 數(shù)據(jù)中心規(guī)模的快速增長使得能源效率優(yōu)化越來越重要,,但使用傳統(tǒng)的工程公式難以準確推導(dǎo)數(shù)據(jù)中心的效率,,在此瓶頸下Google決定利用機器學習神經(jīng)網(wǎng)絡(luò)算法。神經(jīng)網(wǎng)絡(luò)是一類機器學習算法,,它模擬了神經(jīng)元之間相互作用的認知行為,,用計算機的方式去模擬人腦。 結(jié)論: 實踐驗證了機器學習方法可以利用現(xiàn)有的傳感器數(shù)據(jù)來模擬數(shù)據(jù)中心能源效率優(yōu)化,,并能實現(xiàn)10%-15%的節(jié)能,,而且機器學習可以告知如何優(yōu)化數(shù)據(jù)中心的能效,包括模擬數(shù)據(jù)中心的參數(shù)配置評估,、能效評估,,并確定優(yōu)化方案等,是一種非常有效的運營利器,。 算法溯源: 神經(jīng)網(wǎng)絡(luò)算法最初產(chǎn)生的目的是制造能模擬大腦的機器,,人們想嘗試設(shè)計出模仿大腦的算法。這是一種古老的算法,,并且在90年代的后期沉寂了一段時間,,其中一個原因是這種算法的計算量偏大,算力不足,。大概由于近些年計算機的運行速度變快,,才足以真正運行起大規(guī)模的神經(jīng)網(wǎng)絡(luò),對許多應(yīng)用來說是最先進的技術(shù),,能很好地解決不同的機器學習問題,,現(xiàn)在成為許多機器學習問題的首選,。 對于人工智能,從某種意義上來說,,如果我們能找出大腦的學習算法,,然后在計算機上執(zhí)行大腦學習算法或與之相似的算法,也許這將是我們向人工智能邁進做出的最好的嘗試,。 算法需要算力——針對特定算法,,量身打造TPU芯片 從2015年以來,Google的數(shù)據(jù)中心部就署了TPU(Tensor Processing Unit),,將其插放入數(shù)據(jù)中心機柜的硬盤驅(qū)動器插槽中使用,。TPU是一個非常專用的處理器,該芯片針對機器學習專門優(yōu)化,,因此可以使用更為強大的機器學習算法來完成快速計算,。專用處理器的設(shè)計基于對目標應(yīng)用的理解,因為Google更了解數(shù)據(jù)中心的需求,,所以Google的TPU才會引起這么多關(guān)注,。 神經(jīng)網(wǎng)絡(luò)的工作過程主要有兩個階段,分別是訓練和推理,。訓練階段一般使用GPU(目前GPU還是訓練的最好平臺),,而推理階段使用CPU和GPU都不適合,所以Google設(shè)計了TPU,。 TPU是一個定制的ASIC(Application Specific Integrated Circuit,,專用集成電路)架構(gòu)處理器,從硬件層面適配TensorFlow深度學習系統(tǒng),,應(yīng)用于加速神經(jīng)網(wǎng)絡(luò)的推理階段,,可以支持一些常見的神經(jīng)網(wǎng)絡(luò)。 TensorFlow是使用數(shù)據(jù)流和圖來做數(shù)值計算的開源軟件,,用于機器智能,。主要是由Google Brain團隊開發(fā)用于機器學習和深度神經(jīng)網(wǎng)絡(luò)的研究,能夠應(yīng)用于廣泛的領(lǐng)域,。 因為TPU芯片面向的應(yīng)用是特定的算法,,即確定性執(zhí)行模型(deterministic execution model),所以采用了一個專用處理器或者硬件加速器的架構(gòu),,沒有使用傳統(tǒng)CPU和GPU的一些技術(shù),。這樣做比在GPU架構(gòu)上改進要激進得多,與之相應(yīng),,實現(xiàn)的效率也高得多。 2016年3月舉行的舉世矚目人機大戰(zhàn)里,,在最終以4:1擊敗圍棋世界冠軍李世石的AlphaGo身上,,Google使用了TPU芯片,。 2016年6月,Google透露研發(fā)了一款在云端使用的專用AI芯片TPU(即第一代TPU),。 就此,,傳統(tǒng)軟件巨頭Google的這顆AI芯片從幕后走到臺前,AI芯片競爭不限于傳統(tǒng)芯片廠商,,最大的獨立GPU芯片廠商Nvidia上場,。 . 03 .芯片元年之爭:傳統(tǒng)芯片廠商Nvidia步步跟進2017年5月,GTC2017大會,,Nvidia CEO黃仁勛發(fā)布了Volta架構(gòu)GPU,,股票大漲。 在現(xiàn)有的芯片中,,GPU在人工智能應(yīng)用中的其中一部分(深度學習神經(jīng)網(wǎng)絡(luò)的訓練階段)相對更適合,。隨著人工智能發(fā)展驅(qū)動芯片技術(shù)進步,GPU扮演的角色可能是被改進或被其他類型的芯片替代,。 多年來靠GPU一條產(chǎn)品線獨步天下的Nvidia,,在最新的Volta架構(gòu)強調(diào)對深度學習的支持,增加了專門為深度學習設(shè)計的Tensor Core,,軟硬件的關(guān)鍵參數(shù)在數(shù)據(jù)中心的訓練方面很有優(yōu)勢,。相比Google的TPU,這款A(yù)I芯片的設(shè)計中規(guī)中矩,。 除發(fā)布芯片外,,Nvidia也宣布開源DLA(Deep Learning Accelerator,深度學習加速器),。對于整個芯片產(chǎn)業(yè)來說,,開源事件將會產(chǎn)生深遠影響,這意味著更多的初創(chuàng)公司和研究機構(gòu)可以基于此開發(fā)推理加速器,,促進AI的傳播,,從而也進一步促進市場對GPU芯片的需求。 Nvidia決定開源可能有兩個原因:一是決定專注于加速模塊,,不做種類過多的終端芯片(Nvidia曾試水移動設(shè)備芯片推出Tegra系列并失?。欢瞧扔贕oogle TPU芯片在推理方面的優(yōu)勢表現(xiàn),,為應(yīng)對壓力而作出決定(DLA來自Nvidia自動駕駛SoC中的一個模塊,,最初并不是以開源IP為目的而設(shè)計的,且9月開源只公開了部分硬件代碼和相應(yīng)的驗證環(huán)境,,離真正能用有較大差距),。 2017年5月,在Google I/O大會上,Google公布了第二代TPU,,并不對外銷售,,以TPU Cloud的方式供大家使用。 2017年9月,,芯片界的重要會議Hot Chips會議召開,,AI相關(guān)內(nèi)容占了很大比例,微軟的BrainWave,、百度的XPU,、Jeff Dean的Keynote都是媒體的熱點話題。此次會議上,,Google介紹了TPU和TPU2的情況并將其作為新的計算生態(tài)中重要的一環(huán),。 2017年10月,Intel發(fā)布Intel Nervana Neural Network Processor(Intel神經(jīng)網(wǎng)絡(luò)處理器芯片,,以下簡稱NNP),,第一代NNP代號“Lake Crest”,只提供給小部分合作伙伴,,未能出貨,。 回顧2017年的其他芯片巨頭動作,Intel收購了多家AI芯片相關(guān)領(lǐng)域公司 ,,AMD則沒有那么積極,。這一年里,芯片元年的主要戰(zhàn)事發(fā)生在傳統(tǒng)軟件巨頭Google和芯片巨頭Nvidia之間,,發(fā)生在不同類型的公司,、不同架構(gòu)的AI芯片之間,這一跨界競爭或許意味著AI芯片不應(yīng)被看作“算力代表,、算力越大越好”的獨立底層硬件,,而應(yīng)該看作是實現(xiàn)應(yīng)用目標中環(huán)環(huán)相扣的一部分。最終在人工智能的應(yīng)用情況是系統(tǒng)的結(jié)果,,芯片本身只是一小部分,,其優(yōu)劣要考慮整個軟硬件生態(tài)的解決方案效果。因此,,擁有應(yīng)用,、技術(shù)和資源優(yōu)勢的科技巨頭在定制硬件甚至芯片方面或常態(tài)化。 . 04 .2018年的后續(xù):巨頭的角逐繼續(xù)上演2018年3月,,GTC2018大會上,,Nvidia發(fā)布了迄今最大的GPU,暫定自動駕駛暫停研發(fā),,隨后股價下跌3.8%,。 2018年5月,在Google I/O大會上,Google發(fā)布了TPU3,。 同月,,Intel人工智能開發(fā)者大會(AI DevCon 2018)發(fā)布了第二代NNP,代號“Spring Crest”,,將是Intel第一款商業(yè) NNP 芯片,預(yù)計在2019年發(fā)貨,。 主要參考材料:網(wǎng)絡(luò)公開報道,,唐杉博士(公眾號:StarryHeavensAbove),Andrew NG機器學習課程等 文中如有錯誤之處,,敬請指正,,關(guān)于【人工智能】領(lǐng)域交流, 歡迎聯(lián)系本文作者:王麗萌(Wechat:18301232919) 編輯: 陳文洋 【轉(zhuǎn)載須知】 1,、本報告為鯨準(ID:rong36kr)旗下專業(yè)的數(shù)據(jù)研究分析機構(gòu)【鯨準研究院】原創(chuàng)作品,,受《著作權(quán)法》保護,依法享有匯編權(quán)及注釋權(quán),; 2,、轉(zhuǎn)載請聯(lián)系微信:wuyaoguaiguai,取得授權(quán)后方可轉(zhuǎn)載,; 3,、禁止商用轉(zhuǎn)載,禁止二次編輯轉(zhuǎn)載,。 |
|