用一階方法訓練的神經(jīng)網(wǎng)絡已經(jīng)對很多應用產(chǎn)生了顯著影響,但其理論特性卻依然成謎,。一個經(jīng)驗觀察是,,即使優(yōu)化目標函數(shù)是非凸和非平滑的,隨機初始化的一階方法(如隨機梯度下降)仍然可以找到全局最小值(訓練損失接近為零),。令人驚訝的是,,這個特性與標簽無關。在 Zhang 等人的論文 [2016] 中,,作者用隨機生成的標簽取代了真正的標簽,,但仍發(fā)現(xiàn)隨機初始化的一階方法總能達到零訓練損失。 關于神經(jīng)網(wǎng)絡為什么能適應所有訓練標簽,,人們普遍認為是因為神經(jīng)網(wǎng)絡過參數(shù)化了,。例如,Wide ResNet [Zagoruyko and Komodakis] 使用的參數(shù)數(shù)量是訓練數(shù)據(jù)的 100 倍,,因此必須存在一個這種架構的神經(jīng)網(wǎng)絡,,能夠適應所有訓練數(shù)據(jù)。然而,,這并不能說明為什么由隨機初始化的一階方法找到的神經(jīng)網(wǎng)絡能夠適應所有數(shù)據(jù),。目標函數(shù)是非凸和非平滑的,這使得傳統(tǒng)的凸優(yōu)化分析技術在這種情況下沒有用,。據(jù)我們所知,,理論只能保證現(xiàn)有的方法收斂到一個駐點 [Davis et al., 2018]。 在本文中,,作者將解釋這一令人驚訝的現(xiàn)象,,即帶有修正線性單元(ReLU)激活函數(shù)的兩層神經(jīng)網(wǎng)絡能收斂到全局最優(yōu)解。形式化的,,我們可以考慮有以下形式的神經(jīng)網(wǎng)絡: 其中 x ∈ R^d 為 d 維實數(shù)向量輸入,,w_r ∈ R^d 為第一層的權重向量,a_r ∈ R 為輸出權重,。此外,,σ (·) 表示 ReLU 激活函數(shù):σ (z) = z if z ≥ 0、 σ (z) = 0 if z <> 隨后我們可以根據(jù)二次損失函數(shù)(歐式距離)定義經(jīng)驗風險最小化問題,,若給定 n 筆數(shù)據(jù)的訓練集 {(x_1, y_1), ..., (x_i, y_i), ..., (x_n, y_n) },,我們希望最小化: 為了實現(xiàn)經(jīng)驗風險最小化,我們需要修正第二層并針對第一層的權重矩陣應用梯度下降(GD): 其中η > 0 為學習率(在本論文中為步長),,因此每一個權重向量的梯度計算式可以表示為: 盡管這只是一個淺層全連接網(wǎng)絡,,但由于使用了 ReLU 激活函數(shù),,目標函數(shù)仍然是非凸和不平滑的,。不過即使針對這樣簡單的目標函數(shù),,為什么隨機初始化的一階梯度方法能實現(xiàn)零的訓練誤差仍然不太清楚。實際上,,許多先前的研究工作都在嘗試回答這個問題,。他們嘗試的方法包括損失函數(shù)面貌分析、偏微分方程,、算法動力學分析或最優(yōu)傳輸理論等,。這些方法或研究結果通常都依賴于標簽和輸入分布的強假設,或者并沒有明示為什么隨機初始化的一階方法能實現(xiàn)零的訓練損失,。 在這一篇論文中,,作者們嚴格證明了只要 m 足夠大,且數(shù)據(jù)是非退化的,,那么使用適當隨機初始化的 a 和 W(0),,梯度下降能收斂到全局最優(yōu)解,且收斂速度對于二次損失函數(shù)是線性的,。線性速率也就是說模型能在 K = O(log (1/ε)) 次迭代內搜索到最優(yōu)解 W(k),,它能令 L(W(K)) ≤ ε。因此,,作者理論結果并不僅僅展示了全局收斂性,,同時還為達到期望的準確率提供了量化的收斂率。 分析技術概覽:
最后作者根據(jù)這三個觀察結果與方法嚴格證明了他們的論點,,此外他們還表示整個證明僅使用了線性代數(shù)與標準概率邊界,因此能推廣到其它深度神經(jīng)網(wǎng)絡,。以下我們展示了他們證明出的兩個定理(Theorem 3.1 和 Theorem 4.1),,證明過程請查閱原論文。 論文:Gradient Descent Provably Optimizes Over-parameterized Neural Networks 論文鏈接:https:///abs/1810.02054 摘要:神經(jīng)網(wǎng)絡一個最神秘的地方是梯度下降等隨機初始化的一階優(yōu)化方法能實現(xiàn)零的訓練損失,,即使目標函數(shù)是非凸和不平滑的,。本論文揭秘了這一現(xiàn)象,,即帶有 ReLU 激活函數(shù)的兩層全連接網(wǎng)絡為什么能實現(xiàn)零的訓練損失。對于有 m 個隱藏神經(jīng)元的淺層神經(jīng)網(wǎng)絡(ReLU 激活函數(shù))和 n 項訓練數(shù)據(jù),,我們的實驗表示只要 m 足夠大,,且數(shù)據(jù)是非退化的,那么隨機初始化的梯度下降能收斂到全局最優(yōu)解,,且收斂速度對于二次損失函數(shù)是線性的,。 我們的分析基于以下觀察:過參數(shù)化和隨機初始化聯(lián)合限制了每一個權重向量在所有迭代中都接近于它的初始值,這令我們可以利用比較強的類凸屬性,,并展示梯度下降能以全局線性的速率收斂到全局最優(yōu)解,。我們相信這些觀點同樣能用于分析深度模型和其它一階梯度優(yōu)化方法。 3 連續(xù)型時間分析 本章展示了分析梯度流(gradient flow)的結果,,即將步長設置為無窮小量的梯度下降,。在后一部分的離散型時間分析中,我們將進一步修正這一部分的證明,,并為帶正下降步長的梯度下降設定一個定量邊界,。 形式化而言,我們考慮常微分方程,,公式如下所示: 其中 r 屬于 1 到 m,。我們將 u_i(t) = f(W(t), a, x_i) 指定為輸入 x_i 在時間 t 上的預測,u(t) = (u_1(t), . . . , u_n(t)) ∈ R^n 指定為時間 t 上的預測向量,。本章的主要結果見以下定理: 4 離散型時間分析 本章展示了具有正常數(shù)項步長的隨機初始化梯度下降以線性速率收斂到全局最小值,。我們首先介紹主要定理: 定理 4.1 表明,即使目標函數(shù)是非平滑和非凸的,,具有正常數(shù)步長的梯度下降仍然具有線性收斂速度,。我們對最小特征值和隱藏節(jié)點數(shù)的假設與梯度流定理完全相同。值得注意的是,,與之前的研究 [Li and Liang, 2018] 相比,,我們對步長的選擇與隱藏節(jié)點 m 的數(shù)量無關。 |
|
來自: taotao_2016 > 《計算機》