久久国产成人av_抖音国产毛片_a片网站免费观看_A片无码播放手机在线观看,色五月在线观看,亚洲精品m在线观看,女人自慰的免费网址,悠悠在线观看精品视频,一级日本片免费的,亚洲精品久,国产精品成人久久久久久久

分享

深度學(xué)習(xí)反向傳Backpropagation

 山峰云繞 2023-04-03 發(fā)布于貴州

https://m.toutiao.com/is/AmVmvCA/ 


反向傳播算法(Backpropagation)

文章目錄

反向傳播算法(Backpropagation)

一.簡介

二.反向傳播原理

2.1 導(dǎo)數(shù)的鏈?zhǔn)椒▌t

2.2 正向傳播與反向傳播

三.總結(jié)

一.簡介

無論是機(jī)器學(xué)習(xí),,還是深度學(xué)習(xí),。都繞不開一個梯度下降。在進(jìn)行深度學(xué)習(xí)簡介的時候,,我們有介紹過深度學(xué)習(xí)的大致步驟,,分別為:

  • 構(gòu)建神經(jīng)網(wǎng)絡(luò)
  • 數(shù)據(jù)擬合
  • 選出最佳模型

其中,,選出最佳模型的方式,其實就是利用梯度下降算法,,選出損失函數(shù)最小的那個,。在傳統(tǒng)的機(jī)器學(xué)習(xí)當(dāng)中,這個比較容易,,直接算就行了,。但是在深度學(xué)習(xí)當(dāng)中,由于存在輸入層,,隱藏層,,輸出層,且隱藏層到底有多深,,這些都是未知數(shù),,因此計算也會更加繁雜。

如果,,在輸出層輸出的數(shù)據(jù)和我們設(shè)定的目標(biāo)以及標(biāo)準(zhǔn)相差比較大,,這個時候,,就需要反向傳播。利用反向傳播,,逐層求出目標(biāo)函數(shù)對各神經(jīng)元權(quán)值的偏導(dǎo)數(shù),,構(gòu)成目標(biāo)函數(shù)對權(quán)值向量的梯度,之所以算這個,,是為了對權(quán)值的優(yōu)化提供依據(jù),,等權(quán)值優(yōu)化了之后,再轉(zhuǎn)為正向傳播……當(dāng)輸出的結(jié)果達(dá)到設(shè)定的標(biāo)準(zhǔn)時,,算法結(jié)束,。

二.反向傳播原理

2.1 導(dǎo)數(shù)的鏈?zhǔn)椒▌t

反向傳播的基本原理其實不難,基本理論就是大學(xué)高等數(shù)學(xué)當(dāng)中的導(dǎo)數(shù)計算,。我們需要了解的就是鏈?zhǔn)椒▌t:

2.2 正向傳播與反向傳播

我們還是用邏輯回歸的神經(jīng)元為例:


很顯然,,在這神經(jīng)元當(dāng)中z = w1x1+w2x2 + b。最后,,這個線性方程z會被代入到Sigmoid函數(shù)當(dāng)中,也就是說:


我們知道,,無論是機(jī)器學(xué)習(xí),,還是深度學(xué)習(xí),計算之后都會產(chǎn)生一定的損失值,,我們把這個損失函數(shù)記為l,。
在一部分當(dāng)中,我們有說過,,反向傳播的最終目的是修正權(quán)值w,,那么我們讓l對w求偏導(dǎo),根據(jù)鏈?zhǔn)綔?zhǔn)則:

其中,,z對w求偏導(dǎo)這一步其實不難,,不就是z對w求導(dǎo)嘛,我們很容易就能算出

而x1,x2其實就是最開始的輸入值,,因此可以當(dāng)做是已知的,。上面這個計算過程,就是正向傳播

而l對z求導(dǎo),,這個部分其實很復(fù)雜,。這一部分的求解過程,就是反向傳播,。那么這個部分該怎么求呢,?如下所示:

如果這個神經(jīng)網(wǎng)絡(luò)稍微復(fù)雜一點呢?比如說,,像下面這樣:

那么,,我們根據(jù)鏈?zhǔn)椒▌t,就可以得到:

上面這個式子與公式1結(jié)合,就是:

參考下面這個圖看一看

如此一來,,反向傳播的這一部分,,我們也知道了求解原理。

對于公式2的方式,,人們梳理了一下這個過程像極了如下所示的這個流程,。即:先求l對z’的導(dǎo),以及l(fā)對z’'的導(dǎo),,然后分別乘以w3和w4,,在結(jié)合sigma’(z),于是有人就根據(jù)這個計算流程,,畫出來了下面這個圖:

這其實不就是我們所舉的這個神經(jīng)網(wǎng)絡(luò),,把箭頭全都倒過來嘛。因此,,便有了“反向傳播”的說法,。

這當(dāng)中,我們注意紅色標(biāo)注的sigma’(z),,這個是Simoid函數(shù)對z進(jìn)行求導(dǎo)的結(jié)果,。由于在正向傳播的時候,z是什么其實已經(jīng)知道了,,sigomid函數(shù)我們也是知道的,,因此sigma’(z)我們也是已知的。

不過,,又產(chǎn)生新的問題了,。dl/dz的求解,明顯依賴于dl/dz’,,以及dl/dz’’,。那么這兩項又是如何求的呢?答案是:根據(jù)輸出值去求,。任何一組數(shù)據(jù),,在經(jīng)過神經(jīng)網(wǎng)絡(luò)運算之后,都會產(chǎn)生一個輸出值,,我們記為y,。如下所示:

這個時候,我們就要分情況討論了,。

  • 第一種情況:y1與y2在都在輸出層
    這個時候,,比較簡單,根據(jù)下面這個公式,,直接套用即可:
  • 第二種情況:y1,y2存在不在輸出層的情況
    這個時候,,那就一直算到輸出層,,然后再從輸出層往回傳播即可。

三.總結(jié)

正向傳播與反向傳播其實是同時使用的,。

首先,,你需要正向傳播,來計算z對w的偏導(dǎo),,進(jìn)而求出sigmoid’(z)是多少,。然后,根據(jù)輸出層輸出的數(shù)據(jù)進(jìn)行反向傳播,,計算出l對z的偏導(dǎo)是多少,,最后,代入到公式0當(dāng)中,,即可求出l對w的偏導(dǎo)是多少,。注意,這個偏導(dǎo),,其實反應(yīng)的就是梯度,。然后我們利用梯度下降等方法,對這個w不斷進(jìn)行迭代(也就是權(quán)值優(yōu)化的過程),,使得損失函數(shù)越來越小,,整體模型也越來越接近于真實值。

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點,。請注意甄別內(nèi)容中的聯(lián)系方式,、誘導(dǎo)購買等信息,謹(jǐn)防詐騙,。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多