來(lái)源:非正式組織 概要:在Yann LeCun、Yoshua Bengio和Geoffrey Hinton三巨頭nature深度學(xué)習(xí)綜述《deep learning》文章中提到,,這段期間神經(jīng)網(wǎng)絡(luò)模型被主流的計(jì)算機(jī)視覺(jué)和學(xué)術(shù)界所拋棄,。 一,、前言 深度學(xué)習(xí)的發(fā)展大致分為這么幾個(gè)學(xué)期:
萌芽期 在Yann LeCun,、Yoshua Bengio和Geoffrey Hinton三巨頭nature深度學(xué)習(xí)綜述《deep learning》文章中提到,這段期間神經(jīng)網(wǎng)絡(luò)模型被主流的計(jì)算機(jī)視覺(jué)和學(xué)術(shù)界所拋棄,。 這期間,學(xué)者們?cè)噲D用有監(jiān)督學(xué)習(xí)的方式訓(xùn)練深度神經(jīng)網(wǎng)絡(luò),然而方法不是十分奏效,陷入了困境,在Andrew的教程中可以找到大概這幾點(diǎn)原因:數(shù)據(jù)獲取
因?yàn)橐恢睕](méi)有找到有效的解決這些問(wèn)題的方法,這期間,,深度神經(jīng)網(wǎng)絡(luò)的發(fā)展一直不溫不火,。或者說(shuō)在2001年Hochreiter的Gradient flow in recurrent nets: the difficulty of learning long-term dependencies(好像是這篇)提出了神經(jīng)網(wǎng)絡(luò)存在的幾個(gè)問(wèn)題后,,在接下來(lái)的幾年內(nèi)神經(jīng)網(wǎng)絡(luò)的發(fā)展陷入了低谷,。而那幾年流行的機(jī)器學(xué)習(xí)算法是SVM和集成模型(隨機(jī)森林、adaboost等),。 迅速發(fā)展期 2006年hinton在nature上發(fā)表了一篇文章Reducing the dimensionality of data with neural networks,,針對(duì)上面提到的三個(gè)深度學(xué)習(xí)的問(wèn)題,提出了棧式自編碼器+BP微調(diào)的解決方案,。在一定程度上解決了上面的三個(gè)問(wèn)題,。
從此,,深度學(xué)習(xí)開(kāi)啟嶄新的浪潮。 爆發(fā)期 在12年的ILSVRC競(jìng)賽中,,Hinton團(tuán)隊(duì)的Alexnet模型Imagenet classification with deep convolutional neural networks將1000類(lèi)分類(lèi)的top-5誤差率降低到了15.3%,,碾壓了第二名使用SVM算法的26.2%,開(kāi)啟了深度學(xué)習(xí)的革命,,從此之后,,深度學(xué)習(xí)走上了指數(shù)式的發(fā)展道路。 回到Hilton團(tuán)隊(duì)的Alexnet模型上,,僅僅使用了有監(jiān)督的訓(xùn)練,,貌似沒(méi)涉及無(wú)監(jiān)督的預(yù)訓(xùn)練。不是在之前說(shuō)有監(jiān)督的深度學(xué)習(xí)訓(xùn)練存在很多問(wèn)題嗎,,大概是因?yàn)檫@幾條原因,,導(dǎo)致了有監(jiān)督訓(xùn)練的可行:
總結(jié) 對(duì)于06-12年期間的深度神經(jīng)網(wǎng)絡(luò)主要以無(wú)監(jiān)督預(yù)訓(xùn)練為主流,,從12年以后,,這時(shí)數(shù)據(jù)庫(kù)足夠大(上萬(wàn)級(jí)別),,模型足夠先進(jìn)(ReLU激活函數(shù),dropout等等),,同時(shí)計(jì)算速度足夠快(GPU)加速,,使得無(wú)監(jiān)督預(yù)訓(xùn)練(自編碼神經(jīng)網(wǎng)絡(luò))在很多應(yīng)用場(chǎng)景中失去了存在的價(jià)值,有監(jiān)督訓(xùn)練已經(jīng)足夠完成任務(wù),。 一句話總結(jié),,06年的無(wú)監(jiān)督預(yù)訓(xùn)練開(kāi)啟了深度學(xué)習(xí)的紀(jì)元,在之后深度學(xué)習(xí)快速發(fā)展的過(guò)程中,,大數(shù)據(jù)的獲取,、計(jì)算機(jī)硬件的發(fā)展以及深度模型的升級(jí)使得有監(jiān)督訓(xùn)練重新走上舞臺(tái),無(wú)監(jiān)督訓(xùn)練也算是完成了歷史使命,。 那么預(yù)訓(xùn)練還有用嗎,?答案是肯定的,比如我們有一個(gè)分類(lèi)任務(wù),,數(shù)據(jù)庫(kù)很小,,這時(shí)還是需要通過(guò)預(yù)訓(xùn)練來(lái)避免過(guò)擬合的問(wèn)題,只不過(guò)預(yù)訓(xùn)練是通過(guò)在一個(gè)大的數(shù)據(jù)庫(kù)上,,通過(guò)有監(jiān)督來(lái)完成的,,這種有監(jiān)督預(yù)訓(xùn)加小的數(shù)據(jù)庫(kù)上的微調(diào)的模型稱為T(mén)ransfer learning。 未來(lái)智能實(shí)驗(yàn)室致力于研究互聯(lián)網(wǎng)與人工智能未來(lái)發(fā)展趨勢(shì),,觀察評(píng)估人工智能發(fā)展水平,,由互聯(lián)網(wǎng)進(jìn)化論作者,計(jì)算機(jī)博士劉鋒與中國(guó)科學(xué)院虛擬經(jīng)濟(jì)與數(shù)據(jù)科學(xué)研究中心石勇,、劉穎教授創(chuàng)建,。 未來(lái)智能實(shí)驗(yàn)室的主要工作包括:建立AI智能系統(tǒng)智商評(píng)測(cè)體系,開(kāi)展世界人工智能智商評(píng)測(cè),;開(kāi)展互聯(lián)網(wǎng)(城市)云腦研究計(jì)劃,,構(gòu)建互聯(lián)網(wǎng)(城市)云腦技術(shù)和企業(yè)圖譜,為提升企業(yè),,行業(yè)與城市的智能水平服務(wù),。 |
|
來(lái)自: 快讀書(shū)館 > 《信息技術(shù)》