1. 簡述神經(jīng)網(wǎng)絡的基本特征和基本功能 答:基本特征:(A)非線性,,人工神經(jīng)網(wǎng)絡處于激活狀態(tài)或者抑制狀態(tài),,變現(xiàn)出非線性的特征,可以提高容錯性和存儲容量(B)非局限性,,一個神經(jīng)網(wǎng)絡可以由多個神經(jīng)網(wǎng)絡構成,,一個系統(tǒng)不僅取決于單個神經(jīng)網(wǎng)絡特點,還取決于單元之間的相互作用,。(C)非常定性,,神經(jīng)網(wǎng)絡可以自適應,自組織,,自學習,,處理信息的有各種變化的同時,系統(tǒng)自身也在變化,。(D)非凸性,,一個系統(tǒng)的演化方向,在一定條件下取決于摸個特定的額轉(zhuǎn)臺函數(shù),。非凸性是指這種函數(shù)有多個機智,,故系統(tǒng)具有多個穩(wěn)定的平衡狀態(tài),導致演化的多樣性,。 基本功能:(1)聯(lián)想記憶(2)非線性映射(3)分類和識別(4)知識處理(5)優(yōu)化計算(6)優(yōu)化處理(7)模式識別(8)數(shù)據(jù)壓縮 2. 神經(jīng)網(wǎng)絡的模型分為哪幾類,,試述神經(jīng)網(wǎng)絡的典型結構?
3. 感知器神經(jīng)網(wǎng)絡存在的主要缺陷是什么,? 答: (1)由于感知器的激活函數(shù)采用的是閥值函數(shù),,輸出矢量只能取0或1,所以只能用它來解決簡單的分類問題,; (2)感知器僅能夠線性地將輸入矢量進行分類,。理論上已經(jīng)證明,只要輸人矢量是線性可分的,,感知器在有限的時間內(nèi)總能達到目標矢量,; (3)感知器還有另外一個問題,當輸入矢量中有一個數(shù)比其他數(shù)都大或小得很多時,,可能導致較慢的收斂速度,。 4.比較前饋型神經(jīng)網(wǎng)絡與反饋型神經(jīng)網(wǎng)絡的異同點。 答:前饋型神經(jīng)網(wǎng)絡只表達輸入輸出之間的映射關系,,實現(xiàn)非線性映射,;反饋型神經(jīng)網(wǎng)絡考慮輸入輸出之間在時間上的延遲,,需要用動態(tài)方程來描述,反饋型神經(jīng)網(wǎng)絡是一個非線性動力學系統(tǒng),。 (1)前饋型神經(jīng)網(wǎng)絡的學習訓練主要采用BP算法,,計算過程和收斂速度比較慢;反饋型神經(jīng)網(wǎng)絡的學習主要采用Hebb規(guī)則,,一般情況下計算的收斂速度很快,,并且它與電子電路有明顯的對應關系,使得網(wǎng)絡易于用硬件實現(xiàn),。 (2)前饋型神經(jīng)網(wǎng)絡學習訓練的目的是快速收斂,,一般用誤差函數(shù)來判定其收斂程度;反饋型神經(jīng)網(wǎng)絡的學習目的是快速尋找到穩(wěn)定點,,一般用能量函數(shù)來判別是否趨于穩(wěn)定點,。 (3)兩者都有局部極小問題。 (4)隱節(jié)點的選取缺乏理論支持,; (5)訓練時學習新樣本有遺忘舊樣本趨勢,。 5.BP算法的基本思想是什么,它存在的不足之處,? 答:BP算法(即反向傳播法)的基本思想是:學習過程由信號的正向傳播與誤差的反向傳播兩個過程組成,。 不足之處:局部極小化問題、收斂速度慢,、結構選擇不一,、預測能力和訓練能力存在矛盾、樣本存在依賴性,。 6. 人腦神經(jīng)元的基本結構與功能,。 答:人腦神經(jīng)元的基本結構包括細胞體和突起兩部分.神經(jīng)元的突起一般包括一條長而分支少的軸突和數(shù)條短而呈樹枝狀分支的樹突,軸突以及套在外面的髓鞘叫神經(jīng)纖維,,神經(jīng)纖維末端的細小分支叫神經(jīng)末梢,,神經(jīng)末梢分布在全身各處。 人腦神經(jīng)元的功能:信息整合功能,、接受刺激,、信息儲存功能、傳遞信息,。 7.BP算法的缺陷及改進方案? 答:BP算法的缺陷:(1)易形成局部極?。▽儇澙匪惴?,局部最優(yōu))而得不到全局最優(yōu);(2)BP算法可以使網(wǎng)絡權值收斂到一個解,,但它并不能保證所求為誤差超平面的全局最小解,,很可能是一個局部極小解,;(3)訓練次數(shù)多使得學習效率低下,收斂速度慢(需做大量運算),。 改進方案:對于一些復雜的問題,,BP算法可能要進行幾小時甚至更長的時間的訓練。這主要是由于學習速率太小所造成的,??刹捎米兓膶W習速率或自適應的學習速率來加以改進。 8.什么稱為神經(jīng)網(wǎng)絡過學習,? 答:當已知訓練樣本的數(shù)據(jù)加到網(wǎng)絡輸入端時,,網(wǎng)絡的學習機制一遍又一遍地調(diào)整各神經(jīng)元的權值,使其輸出端超過預定的目標,,這一過程稱為神經(jīng)網(wǎng)絡過學習,。 9. 什么稱為有監(jiān)督學習? 答:在監(jiān)督學習中,,我們獲得了一個數(shù)據(jù)集,,并且已經(jīng)知道我們正確的輸出應該是什么樣子的,這意味著輸入和輸出之間有一個關系,。即監(jiān)督學習其實是我們對輸入樣本經(jīng)過模型訓練后有明確的預期輸出,。 10. 簡述Hebb學習規(guī)則。 答:如果兩個神經(jīng)元同時興奮(即同時被激活),,則它們之間的突觸連接加強,。如果用、表示神經(jīng)元i和j的激活值(輸出),,表示兩個神經(jīng)元之間的連接權,,則Hebb學習規(guī)則可以表示為: ,這里表示學習速率,。Hebb學習規(guī)則是人工神經(jīng)網(wǎng)絡學習的基本規(guī)則,,幾乎所有神經(jīng)網(wǎng)絡的學習規(guī)則都可以看作Hebb學習規(guī)則的變形。 11. 簡述自學習,、自組織與自適應,。 答:神經(jīng)網(wǎng)絡結構上的特征是處理單元的高度并行性與分布性,這種特征使神經(jīng)網(wǎng)絡在信息處理方面具有信息的分布存儲與并行計算而且存儲與處理一體化的特點,。而這些特點必然給神經(jīng)網(wǎng)絡帶來較快的處理速度和較強的容錯能力,。能力方面的特征是神經(jīng)網(wǎng)絡的自學習、自組織與自性適應性,。自適應性是指一個系統(tǒng)能改變自身的性能以適應環(huán)境變化的能力,,它包含自學習與自組織兩層含義。自學習是指當外界環(huán)境發(fā)生變化時,,經(jīng)過一段時間的訓練或感知,,神經(jīng)網(wǎng)絡能通過自動調(diào)整網(wǎng)絡結構參數(shù),,使得對于給定輸入能產(chǎn)生期望的輸出。自組織是指神經(jīng)系統(tǒng)能在外部刺激下按一定規(guī)則調(diào)整神經(jīng)元之間的突觸連接,,逐漸構建起神經(jīng)網(wǎng)絡,。也就是說自組織神經(jīng)元的學習過程,完全是一種自我學習的過程,,不存在外部教師的示教,。 12.簡述卷積神經(jīng)網(wǎng)絡工作原理? 答:常用的CNN神經(jīng)網(wǎng)絡大致由:卷積層,,激活函數(shù)池化層和全連接層組成,。這里以圖像處理為例。第一層卷積層的作用:通過卷積濾波器(filters)對輸入的信息做卷積,,比如輸入的是圖像信息,,采集圖像的特征信息。第二層,,激活函數(shù),,讓卷積層提取的圖像特征信息更加明顯。第三次,,池化層:當經(jīng)過卷積層之后的數(shù)據(jù)的處理量是相當巨大的,,因此很容易產(chǎn)生過擬合,因此要降低網(wǎng)絡的訓練參數(shù)和模型的擬合度,,因此對處理后的數(shù)據(jù)進行池化處理,,常用的池化方法,max-pooling和mean-pooling,。最后一層全連接層,,對前面采集的特征信息做分類處理。 13.人工神經(jīng)網(wǎng)絡是模擬生物神經(jīng)網(wǎng)絡的產(chǎn)物,,除相同點外,,它們還存在哪些主要區(qū)別? 答:1.單元上的差別 對于生物神經(jīng)元而言,,影響突觸傳遞信息強度的因素很多,、很復雜。如突觸前微細胞的大小與多少,、神經(jīng)傳遞化學物質(zhì)含量的多少,、神經(jīng)傳遞化學物質(zhì)釋放的速度、突觸間隙的變化,、樹突的位置與大小等諸多因素都會對突觸電位產(chǎn)生影響,,從而影響神經(jīng)元的輸出脈沖響應。而人工神經(jīng)元則忽略了這些影響,輸入,、輸出關系十分簡單。 2.信息上的差別 生物神經(jīng)元傳遞的信息是脈沖,,而人工神經(jīng)元傳遞的信息是模擬電壓,。 3.規(guī)模與智能上的差別 目前,人工神經(jīng)網(wǎng)絡的規(guī)模還遠小于生物神經(jīng)網(wǎng)絡,,網(wǎng)絡中神經(jīng)元的數(shù)量一般在104個以下,,顯然,其智能也無法與生物神經(jīng)網(wǎng)絡相比,。 14.BP和Hopfield有何區(qū)別,? 答:BP網(wǎng)絡是誤差反向傳播網(wǎng)絡,屬于多層感知器網(wǎng)絡,,輸入和輸出節(jié)點數(shù)根據(jù)需要設置,,可用于模式識別,分類,,預測等,,hopfield神經(jīng)網(wǎng)絡屬于無監(jiān)督學習神經(jīng)元網(wǎng)絡,網(wǎng)絡是單層反饋網(wǎng)絡,,有連續(xù)性和離散型之分,。
|
|
來自: wangprince2017 > 《AI ML DL》