久久国产成人av_抖音国产毛片_a片网站免费观看_A片无码播放手机在线观看,色五月在线观看,亚洲精品m在线观看,女人自慰的免费网址,悠悠在线观看精品视频,一级日本片免费的,亚洲精品久,国产精品成人久久久久久久

分享

(圖解)神經(jīng)網(wǎng)絡(luò)的復(fù)興:重回風(fēng)口的深度學(xué)習(xí)

 taotao_2016 2017-02-20

2012年,,「GPU 深度學(xué)習(xí)」真正引爆革命火花

由于多層神經(jīng)網(wǎng)絡(luò)的計(jì)算量龐大、訓(xùn)練時間過長,,常常跑一次模型就噴掉數(shù)周,、甚至數(shù)月的時間,2006年該時也僅是讓學(xué)界知道:「深度神經(jīng)網(wǎng)絡(luò)這項(xiàng)技術(shù)是有可能實(shí)現(xiàn)的」而已,,并沒有真正火紅起來,。

真正的轉(zhuǎn)折點(diǎn),還是要到2012——那年10月,,機(jī)器學(xué)習(xí)界發(fā)生了一件大事,。

還記得我們在【(圖解)人工智能的黃金年代:機(jī)器學(xué)習(xí)】一文中提過的ImageNet嗎?美國普林斯頓大學(xué)李飛飛與李凱教授在2007年合作開啟了一個名為「ImageNet」的項(xiàng)目,,他們下載了數(shù)以百萬計(jì)的照片,,供機(jī)器從圖像資料中進(jìn)行學(xué)習(xí)。每年史丹佛大學(xué)都會舉辦ImageNet圖像識別競賽,,讓各家企業(yè)或機(jī)構(gòu)測試系統(tǒng)的效能極限,,堪稱機(jī)器學(xué)習(xí)界一大盛事。

以往無論是淺層,、還是深度學(xué)習(xí)的機(jī)器學(xué)習(xí)模型,,都是采用CPU進(jìn)行運(yùn)算。201210月,,Hinton的兩個學(xué)生使用輝達(dá)(NVIDIA)出產(chǎn)的GPU,、加上深度學(xué)習(xí)模型 (他們采用了專做圖像識別的卷積式神經(jīng)網(wǎng)絡(luò)CNN),一舉拿下ImageNet的冠軍,,正確率更超過第二名將近10%,。有興趣的讀者可以參考由Hinton撰寫的這篇論文《Imagenet classification with deep convolutional neural networks》,內(nèi)文詳細(xì)介紹了相關(guān)模型與比賽結(jié)果,。

看到此情此景,,大家都瘋了,NVIDIA也瘋了,。沒想到采用GPU運(yùn)算的深度學(xué)習(xí)能有如此殺傷力強(qiáng)大的效果,,運(yùn)算速度是CPU70倍以上,終于讓深度學(xué)習(xí)真正火爆起來,。2012年之后的ImageNet競賽,,大家都紛紛采用GPU做運(yùn)算;2015年,,Microsoft更是以3.5%的錯誤率贏得冠軍,,超越人類肉眼5%錯誤率的辨識能力。

為什么GPU運(yùn)算會比CPU更強(qiáng)呢,?GPU不是用來處理圖形運(yùn)算的嗎,?由于圖形運(yùn)算需要大量的矢量和矩陣運(yùn)算,這正是平行架構(gòu)的GPU最擅長的事情,,而深度學(xué)習(xí)正是使用大量的矢量和矩陣進(jìn)行運(yùn)算,;CPU執(zhí)行矩陣運(yùn)算的速度則遠(yuǎn)遠(yuǎn)不及GPU

事實(shí)上,,CPU是用來進(jìn)行更通用的運(yùn)算,,需要協(xié)調(diào)硬軟件資源;而GPU計(jì)算是用于增大計(jì)算的吞吐量,。CPU需要很快的將資料一個個的依次處理完畢,,降低延遲時間;而GPU到存儲器的抓資料回來運(yùn)算的速度比CPU慢很多,,所以GPU計(jì)算都是希望一下子有很多數(shù)據(jù)可以計(jì)算,,然后一口氣將這些數(shù)據(jù)計(jì)算光。

深度學(xué)習(xí)矩陣運(yùn)算+大數(shù)據(jù)平行運(yùn)算=首選GPU

注:流言終結(jié)者(Mythbuster)的兩位主持人Adam SavageJamie Hynema曾以特效裝置示范CPUGPU平行運(yùn)算的效能差異(還被NVIDIA官方頻道貼出來lol),,推薦讀者可以看一看,,好笑又好懂。

風(fēng)口上的NVIDIA公司:從游戲,、VR到深度學(xué)習(xí)

NVIDIA一直想從設(shè)計(jì)圖形處理器的傳統(tǒng)硬件公司轉(zhuǎn)型,、成為大規(guī)模運(yùn)算服務(wù)器和整合軟件公司,;因而在深度學(xué)習(xí)爆紅之前,早已推出了GPGPU(通用圖形處理器),。

我們之所以能用CPU做運(yùn)算,,是因?yàn)?/span>CPU有編譯器(Compiler)這樣的設(shè)計(jì),能讓工程師寫完程序后,、經(jīng)過編譯器的轉(zhuǎn)譯,、成為CPU看得懂的機(jī)械碼。然而一般GPU并沒有類似的設(shè)計(jì),,因此工程師難以直接寫程序讓GPU來運(yùn)算

CUDA——NVIDIA成為深度學(xué)習(xí)運(yùn)算必用硬件的關(guān)鍵,。

20062007年間,NVIDIA發(fā)表了一項(xiàng)全新的運(yùn)算架構(gòu),,稱為CUDA,;這也是NVIDIA正式給GPGPU的名稱。使用者可以撰寫C語言,、再透過CUDA底層架構(gòu)轉(zhuǎn)譯成GPU看得懂的語言,。這也是自GPU可以拿來做大規(guī)模運(yùn)算的概念推出之后,首次可以讓人使用C語言來運(yùn)用GPU蘊(yùn)藏已久的強(qiáng)大運(yùn)算能力,,故NVIDIAGeForce 8系列之后的顯示卡全開始支援CUDA技術(shù),。

GPGPU的興起,大概就是CUDA帶起來的,;而CUDA的成功,,更直接導(dǎo)致了深度學(xué)習(xí)的運(yùn)算全部都使用NVIDIA家的GPU。這種驚人的影響力,,不論是深度學(xué)習(xí),、機(jī)器學(xué)習(xí)、自動車,、虛擬實(shí)境(VR),、電競游戲,每一項(xiàng)都跟NVIDIA習(xí)習(xí)相關(guān),。Tesla創(chuàng)辦人Elon Musk更是親自寫Email,,向NVIDIA執(zhí)行長黃仁勛表達(dá)希望成為第一個拿到最新AI GPU的人。

去年,,NVIDIA在其每年舉辦的GTC大會上(GPU Technology Conference,,俗稱老黃的傳教大會),執(zhí)行長黃仁勛強(qiáng)調(diào)NVIDIA在人工智能領(lǐng)域上的深耕,、能提供最完整的軟硬件解決方案,。整場大會以深度學(xué)習(xí)為重要主角,同時宣布推出全世界第一個專門用來運(yùn)算深度學(xué)習(xí)的超級計(jì)算機(jī)——DGX-1服務(wù)器,售價129,000美金,。

搭上人工智慧熱潮,,NVIDIA12月開始連續(xù)9個交易日創(chuàng)歷史收盤新高、今年迄今漲幅高達(dá)255.95%,。MarketWatch報(bào)導(dǎo),,NVIDIA是今年迄今標(biāo)準(zhǔn)普爾500指數(shù)表現(xiàn)最好的成分股。

 

顛覆性的第四次工業(yè)革命:深度學(xué)習(xí)

如今深度學(xué)習(xí)技術(shù)對各大產(chǎn)業(yè)領(lǐng)域都將產(chǎn)生深遠(yuǎn)的影響,,堪稱第四次工業(yè)革命。從天氣預(yù)測,、醫(yī)療影像辨識,、金融股市預(yù)測、電信商客戶流失率預(yù)測,、網(wǎng)絡(luò)異常入侵偵測,、智慧交通無不采用深度學(xué)習(xí)技術(shù)。

基于深度學(xué)習(xí)方法,,FacebookDeepFace項(xiàng)目的人臉識別技術(shù)的識別率已經(jīng)達(dá)到了97.25%,,接近人類的97.5%的識別率,幾乎可媲美人類,。

Google現(xiàn)在則有超過1000個深度學(xué)習(xí)產(chǎn)品,,包括地圖、GMAIL,、自動翻譯,、自動車、Android等,。20137月,,Google收購了DNNresearch公司,其背后創(chuàng)辦人正是大名鼎鼎的深度學(xué)習(xí)之父Hinton教授,;20141月,,Google以逾6億美元價碼收購英國人工智慧公司DeepMind

去年(2016)三月,,由DeepMind團(tuán)隊(duì)所打造的AlphaGo圍棋系統(tǒng)在擊敗的南韓圍棋好手李世石之后聲名大噪,;隨后Google也利用DeepMind的深度學(xué)習(xí)技術(shù),把各資料中心的用電效率提高15%,、成功讓其龐大的資料中心冷卻用電量減少了40%,。

深度學(xué)習(xí)能推廣應(yīng)用的產(chǎn)業(yè)范疇非常的多,各家科技公司更是摩拳霍霍,、無不想搶進(jìn)最新發(fā)展,。在人工智能領(lǐng)域中,目前領(lǐng)先的四大巨頭分別為GoogleMicrosoft,、Facebook與百度(Baidu),;尤其在語音識別和圖像辨識上,每個月都可以看到這四家公司公布新的技術(shù)發(fā)展,。每分每秒,,AI巨頭們都在使用深度學(xué)習(xí)改變你我的生活。

當(dāng)然你可能會想:說了這么多,、什么機(jī)器學(xué)習(xí),、深度學(xué)習(xí),還不是只有大公司玩得起,。

2015年,,約每22天就有一個深度學(xué)習(xí)的工具集(toolkit)被發(fā)布出來。深度學(xué)習(xí)正從高冷的數(shù)學(xué)模型,、逐漸邁向黑盒子的過程,。這是什么意思呢?

 

以網(wǎng)頁開發(fā)來比喻——20年前架網(wǎng)站,,工程師得用Perl,、C CGI、了解TCP/IP標(biāo)準(zhǔn),、Solaris服務(wù)器,、Oracle數(shù)據(jù)庫;簡單來說,,寫網(wǎng)頁是一個具備高度Domain-knowhow的活兒,。然而現(xiàn)在不需要了解底層架構(gòu),用Ruby on Rails,、Bootstrap等框架,,輕輕松松就能兜一個網(wǎng)頁出來。市面上隨意可見「1天教你學(xué)會架站」之類的書籍,。

同樣地,,機(jī)器學(xué)習(xí)和深度學(xué)習(xí)模型在目前已經(jīng)是一個封裝地很好的黑盒子;使用者只要下載Package,、透過Tensorflow,、Caffe等開源平臺Toolkit、調(diào)一下 API,,把資料丟進(jìn)去,,就能神奇地完成某個任務(wù)。即使不了解背后的數(shù)學(xué)模型,,仍然可以很輕松地使用深度學(xué)習(xí)做數(shù)據(jù)分析,。

最近在日本就有個有趣的案例——小池誠原本在車廠當(dāng)工程師,,一年前辭去工作回到老家?guī)透改附?jīng)營小黃瓜農(nóng)場。農(nóng)場并不大,,然而小黃瓜分類的工作卻讓他吃了不少苦頭,。

小池誠不懂深度學(xué)習(xí)的數(shù)學(xué)模型,但透過TensorFlow平臺,、他成功利用深度學(xué)習(xí)來為自家的小黃瓜進(jìn)行圖像辨識和自動化分類,。

你能想象在你家的農(nóng)場使用深度學(xué)習(xí)技術(shù)嗎?或許就像使用Excel做數(shù)據(jù)分析一般,,在未來,,人人都能輕易地使用深度學(xué)習(xí)模型來跑海量數(shù)據(jù)。

人工智能有可能取代人類嗎,?

在本篇系列的最后,,讓我們來討論一下這個恒久不變的問題。

問題1. 人工智能有可能毀滅人類,?

在許多科幻小說中,屢見不鮮人工智能程序透過自我學(xué)習(xí),,最終逐漸統(tǒng)治世界的故事,。既然機(jī)器學(xué)習(xí)能自行從歷史資料中學(xué)會技能,目前人工智能的技術(shù)發(fā)展有可能導(dǎo)致這種情況發(fā)生嗎,?會導(dǎo)致強(qiáng)人工智慧(Strong A.I.)的出現(xiàn)嗎,?

機(jī)器學(xué)習(xí)算是弱人工智能

目前人工智能的自我學(xué)習(xí)還是限定在人們指定的方式、只能學(xué)習(xí)解決特定的問題,,比如說AlphaGo不能直接去下象棋,,仍然不是通用的智慧、或能理解「下棋」的意義,,對于AlphaGo來說只是跑完一個運(yùn)算模型,。

資料清整仍是機(jī)器學(xué)習(xí)的關(guān)鍵環(huán)節(jié)

還記得我們提過,機(jī)器要能從海量資料中挖掘出規(guī)律,,必須經(jīng)過資料清整 (Data Cleaning)的過程嗎,?資料科學(xué)家得為系統(tǒng)輸入規(guī)整化的訓(xùn)練資料,格式要求相當(dāng)嚴(yán)格,。這也意味著即使把人工智能程序連到網(wǎng)上,,它也不能直接對于網(wǎng)絡(luò)上格式不一的「骯臟」資料進(jìn)行學(xué)習(xí)。

問題2. 機(jī)器學(xué)習(xí)和深度學(xué)習(xí)是不是沒有達(dá)不到的事,?

這個問法或許可以改成:什么是機(jī)器學(xué)習(xí)能解的問題,、什么是機(jī)器學(xué)習(xí)不能解的問題?

機(jī)器學(xué)習(xí)重預(yù)測,、較缺乏解釋現(xiàn)象的能力

機(jī)器學(xué)習(xí)是一門結(jié)合了機(jī)率學(xué)與統(tǒng)計(jì)學(xué)的學(xué)科,,早期做機(jī)器學(xué)習(xí)的學(xué)者幾乎都是統(tǒng)計(jì)學(xué)家,直到后來有計(jì)算機(jī)科學(xué)背景的研究人員進(jìn)來、結(jié)合統(tǒng)計(jì)和資工兩方的Domain-Knowledge,,成為一個叫機(jī)器學(xué)習(xí)的新門派,。因此無論是線性回歸、Sigmoid函數(shù)邏輯回歸,、SVM,、RBM…等模型,事實(shí)上都是統(tǒng)計(jì)學(xué)模型,。

既然如此,,統(tǒng)計(jì)和機(jī)器學(xué)習(xí)有什么差別呢?他們想要解決的問題是不一樣的——傳統(tǒng)統(tǒng)計(jì)更在乎解釋能力(explanation power),,機(jī)器學(xué)習(xí)則在乎預(yù)測能力(prediction power),。目標(biāo)不一樣,發(fā)展出的建模方法就不一樣,。

機(jī)器學(xué)習(xí)就像一個黑盒子,,可能跑出了非常精準(zhǔn)的預(yù)測結(jié)果、卻不明白機(jī)器是透過什么樣的過程,、用什么方法預(yù)測出這個答案的,。

對于統(tǒng)計(jì)學(xué)家而言,關(guān)心的問題則是:我的模型到底能不能解釋整個母體的現(xiàn)象,;如果預(yù)測錯誤率更低,、但沒辦法解釋原因,就會放棄該模型,。若目標(biāo)在于解釋的話,,不用做出一個「預(yù)測準(zhǔn)到不行」的模型,但估計(jì)式要穩(wěn)健(robust),。

你可能會想:預(yù)測準(zhǔn)確不是比較重要嗎,?為什么要在乎解釋能力呢?在發(fā)展科學(xué)理論的時候,,若不解釋,、就算預(yù)測的再準(zhǔn),我們還是不能理解一個現(xiàn)象為什么會發(fā)生,。比如說,,我們可以透過機(jī)器學(xué)習(xí)模型很準(zhǔn)確地預(yù)測點(diǎn)擊率,但我們?nèi)圆恢朗鞘裁匆蛩赜绊?/span>CTR,,如此一來就很難去改良產(chǎn)品設(shè)計(jì),,就算將點(diǎn)擊率預(yù)測地很準(zhǔn)也沒用。

因此在許多深度學(xué)習(xí)研究論文中,,可以發(fā)現(xiàn)其理論都不太「漂亮」——理論不甚完備,、但實(shí)務(wù)上的預(yù)測結(jié)果跑的不錯,。

機(jī)器學(xué)習(xí)需要大量的歷史資料

既然說機(jī)器學(xué)習(xí)需要過去的資料來學(xué)會技能、并透過新進(jìn)資料逐步優(yōu)化,,因而對于深度學(xué)習(xí)模型來說,,十萬筆資料都是小數(shù)字。但若是沒有歷史資料呢….?

比如我們可以從一個消費(fèi)者過去的購買資料中,,精準(zhǔn)預(yù)測到他會買產(chǎn)品A,,然而在公司想販?zhǔn)垡豢钚庐a(chǎn)品B時,由于無法解釋他為什么會買產(chǎn)品A,,也沒有產(chǎn)品B的歷史資料,、因此無法預(yù)測該消費(fèi)者會不會買這款新產(chǎn)品。

況且對一般人而言,,很難輕易達(dá)到數(shù)十萬筆以上的資料量,,如此使用Excel進(jìn)行一般統(tǒng)計(jì)運(yùn)算即可。進(jìn)一步說,,多數(shù)臺灣企業(yè)的數(shù)據(jù)庫老舊,、許久沒有維護(hù)更新,說要能拿出夠「干凈」的海量數(shù)據(jù)來進(jìn)行分析,,也是頗為困難的事情,。

針對上述問題,有時候用統(tǒng)計(jì),、另一種時候用機(jī)器學(xué)習(xí)模型。實(shí)務(wù)上,,資料科學(xué)家會依據(jù)問題的類型和自身經(jīng)驗(yàn),、考量后選擇適當(dāng)?shù)墓ぞ摺?/span>

大家對于人工智能、機(jī)器學(xué)習(xí)和深度學(xué)習(xí)有了更進(jìn)一步的認(rèn)識了嗎,?從人工智能,、機(jī)器學(xué)習(xí)到深度學(xué)習(xí),人工智能領(lǐng)域的發(fā)展日新月異,;深度學(xué)習(xí)的浪潮方引爆,,未來世界的運(yùn)作方式將會如何受變化呢?就讓我們拭目以待吧,。

感謝您收看本利列的數(shù)據(jù)分析專題,,我們下次再見!

回顧前期: 

1.(圖解)人工智能的黃金年代:機(jī)器學(xué)習(xí)

2.(圖解)機(jī)器學(xué)習(xí)的衰頹興盛:從類神經(jīng)網(wǎng)絡(luò)到淺層學(xué)習(xí)

3.(圖解)類神經(jīng)網(wǎng)絡(luò)的復(fù)興:深度學(xué)習(xí)簡史


文章來源:股感知識庫   |   圖片來源:Joseph Wang

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,,所有內(nèi)容均由用戶發(fā)布,,不代表本站觀點(diǎn)。請注意甄別內(nèi)容中的聯(lián)系方式,、誘導(dǎo)購買等信息,,謹(jǐn)防詐騙,。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點(diǎn)擊一鍵舉報(bào),。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多