人工神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖
?? AI 模型訓(xùn)練是指通過數(shù)據(jù)驅(qū)動(dòng)的方式,,讓人工智能(AI)系統(tǒng)從經(jīng)驗(yàn)中學(xué)習(xí),以便在給定的任務(wù)上進(jìn)行預(yù)測,、分類或生成等操作,。這個(gè)過程通過優(yōu)化模型的參數(shù)(如神經(jīng)網(wǎng)絡(luò)的權(quán)重和偏置)來最小化預(yù)測誤差或損失,從而使模型能夠在新數(shù)據(jù)上做出準(zhǔn)確的判斷,,本文將介紹AI模型中神經(jīng)網(wǎng)絡(luò)和神經(jīng)元的構(gòu)造,,以及AI訓(xùn)練的原理,。 ?? 生物神經(jīng)網(wǎng)絡(luò) 一個(gè)生物神經(jīng)網(wǎng)絡(luò)是由一組化學(xué)上相連或功能上相關(guān)的神經(jīng)元組成,。一個(gè)神經(jīng)元可能與許多其他神經(jīng)元相連,,網(wǎng)絡(luò)中的神經(jīng)元和連接的總數(shù)可能很多。神經(jīng)元之間的連接稱為突觸,,通常是從軸突到樹突形成的,,盡管樹突和其他連接是可能的。除了電信號外,,還有其他形式的信號,,這些信號來自于神經(jīng)遞質(zhì)的擴(kuò)散,。整體工作流程如下: 1,、外部刺激通過神經(jīng)末梢,轉(zhuǎn)化為電信號,,轉(zhuǎn)導(dǎo)到神經(jīng)細(xì)胞(又叫神經(jīng)元),。 2、無數(shù)神經(jīng)元構(gòu)成神經(jīng)中樞,。 3,、神經(jīng)中樞綜合各種信號,做出判斷,。 4,、人體根據(jù)神經(jīng)中樞的指令,對外部刺激做出反應(yīng),。 大腦神經(jīng)元的數(shù)量,、神經(jīng)元之間的連接方式等會影響生物個(gè)體智力,例如人類成人的大腦大約包含 860 億到 1000 億 個(gè)神經(jīng)元,,豬的大腦大約包含 20 億到 30 億 個(gè)神經(jīng)元,,金魚的大腦神經(jīng)元數(shù)量較少,大約在 100 萬到 300 萬之間,。 人工神經(jīng)網(wǎng)絡(luò) 人工神經(jīng)網(wǎng)絡(luò)是一種模擬人類大腦神經(jīng)元連接方式的計(jì)算模型,,主要用于處理和學(xué)習(xí)大量的數(shù)據(jù),尤其是在模式識別,、預(yù)測分析和分類任務(wù)中表現(xiàn)突出,。它由大量互相連接的“神經(jīng)元”(也稱為節(jié)點(diǎn))組成,每個(gè)神經(jīng)元與其他神經(jīng)元相連,,形成一個(gè)復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu),。神經(jīng)網(wǎng)絡(luò)的核心思想是通過調(diào)整連接之間的“權(quán)重”來學(xué)習(xí)和優(yōu)化模型,使其能根據(jù)輸入數(shù)據(jù)產(chǎn)生正確的輸出,。 人工神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖 神經(jīng)元 神經(jīng)元節(jié)點(diǎn)內(nèi)部主要做了什么,? 特征與權(quán)重 上圖的紅框就代表一個(gè)神經(jīng)元,。它接受多個(gè)輸入(a1,a2,,a3...),,產(chǎn)生一個(gè)輸出(a),好比神經(jīng)末梢感受各種外部環(huán)境的變化,,最后產(chǎn)生電信號,。其中最開始輸入的 a1,a2,,a3..就是特征,,w1,w2,,w3..就是權(quán)重,,為什么要這么設(shè)計(jì)呢?假如如果評估一個(gè)人是否是美女,,那么我們通常會怎么做,? 1、通常需要確定多個(gè)審視條件,。比如,,頭發(fā)長度,是否黑直長,,單雙眼皮,,身材比例等等。這每一個(gè)條件,,都會或多或少影響到真實(shí)的審美結(jié)果,。對于這每一個(gè)條件,我們稱其為“特征”(feature),。 2,、僅有特征,是明顯不夠的,,因?yàn)槲覀儗τ诿恳粋€(gè)特征來說,,都有著不同的喜惡。比如你可能會覺得眼睛是你最為看重的一點(diǎn),,對于小眼睛女生會直接 PASS,。又或者你可能會認(rèn)為鼻梁挺不挺是次要的,如果是可愛的娃娃臉,,塌鼻梁也可以接受,,有的可能喜歡大長腿等等。對于這每一個(gè)喜惡的程度,,我們可以稱其為權(quán)重(weight),。 假如我們對一個(gè)需要評估的人提取了 6 個(gè)特征,,分別是“眼睛,牙齒,,體型,,皮膚,頸部,,額頭,,眉毛,笑容”,。而現(xiàn)在我們也拍腦袋給了每一個(gè)特征對應(yīng)的權(quán)重(比例) ,,并且給定一個(gè)評分機(jī)制,從 0 分到 10 分進(jìn)行打分,,當(dāng)然這個(gè)機(jī)制是完全客觀的,,上圖針對劉亦菲匯總得出 7.4 分,針對鳳姐可能就是其他得分了,。通過上述機(jī)制就可以實(shí)現(xiàn)輸入一個(gè)人給出對應(yīng)的評分結(jié)果,。 在實(shí)際 AI 場景中,,特征就是輸入對象的向量(向量其實(shí)就是對象在多個(gè)維度上的表示,,例如眼睛,牙齒,,體型,,皮膚,頸部,,額頭,,眉毛,笑容等),;權(quán)重就是對應(yīng)該維度在目標(biāo)任務(wù)中的重要程度,;最終評分和計(jì)算方法,就是神經(jīng)元內(nèi)計(jì)算輸入得出輸出的算法(根據(jù)任務(wù)不同有不同的算法) 神經(jīng)元節(jié)點(diǎn)具體的工作機(jī)制: 接收輸入(輸入信號) 神經(jīng)元節(jié)點(diǎn)首先接收來自前一層神經(jīng)元的輸入信號(或者原始數(shù)據(jù)),。這些輸入可以是來自數(shù)據(jù)集的特征(例如圖像的像素值,、文本的詞向量等),也可以是前一層神經(jīng)元的輸出,。每個(gè)輸入信號都帶有一個(gè)“權(quán)重”(weight),,權(quán)重是神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中調(diào)整的參數(shù)。 加權(quán)求和 每個(gè)神經(jīng)元對收到的輸入信號進(jìn)行加權(quán)求和,。簡單來說,,神經(jīng)元對每個(gè)輸入值乘以相應(yīng)的權(quán)重,然后將結(jié)果加在一起,。例如,,對于神經(jīng)元的輸入向量 x1,x2,…,xn 和權(quán)重向量 w1,w2,…,wn,,神經(jīng)元的加權(quán)輸入 z 為:z=w1?x1+w2?x2+?+wn?xn+b 其中,b 是偏置項(xiàng)(bias),,它幫助模型調(diào)整輸出的閾值,。 激活函數(shù)(非線性變換) 加權(quán)求和的結(jié)果 z通常會被送入一個(gè)“激活函數(shù)”,以引入非線性,。激活函數(shù)的作用是增加神經(jīng)網(wǎng)絡(luò)的表達(dá)能力,,使其能夠?qū)W習(xí)和處理復(fù)雜的模式,而不僅僅是線性關(guān)系,。常見的激活函數(shù)有:
輸出 神經(jīng)元的輸出是激活函數(shù)計(jì)算后的結(jié)果。這個(gè)輸出將作為下一層神經(jīng)元的輸入,,或作為最終輸出(在網(wǎng)絡(luò)的最頂層),。神經(jīng)元的輸出可以通過網(wǎng)絡(luò)的層層傳遞,逐漸變得更加抽象和有用,。 ?? 通過上面內(nèi)容可以知道,在 AI 模型中在網(wǎng)絡(luò)結(jié)構(gòu)固定的情況下,,權(quán)重和偏置決定了神經(jīng)網(wǎng)絡(luò)的輸出結(jié)果,。訓(xùn)練過程的目標(biāo)就是通過調(diào)整這些參數(shù),使模型的預(yù)測更加準(zhǔn)確,。下面簡要說明權(quán)重和偏置的修改過程,,以及它們在訓(xùn)練中的作用。 1,、前向傳播(Forward Propagation)輸入數(shù)據(jù)通過神經(jīng)網(wǎng)絡(luò)進(jìn)行前向傳播,,經(jīng)過每一層的計(jì)算后,最終得出預(yù)測輸出,。對應(yīng)上圖則是輸入一張圖片,,最后輸出識別結(jié)果。 2,、計(jì)算損失(Loss Function)前向傳播之后,,網(wǎng)絡(luò)會根據(jù)模型的輸出 a 和真實(shí)標(biāo)簽 y 計(jì)算損失(誤差),,對應(yīng)上圖是輸出的識別結(jié)果與真實(shí)值之間比較,例如是三個(gè)字都錯(cuò)了,,還是只錯(cuò)了 1 個(gè) 3,、反向傳播(Backpropagation)需要將誤差反向傳遞到網(wǎng)絡(luò)的每一層,需要計(jì)算每一層網(wǎng)絡(luò)的誤差,,這個(gè)過程是通過鏈?zhǔn)椒▌t(Chain Rule)實(shí)現(xiàn)的,。神經(jīng)網(wǎng)絡(luò)通常包含多層,每一層的輸出都依賴于前一層的輸出,,因此在反向傳播時(shí),,我們需要逐層計(jì)算每一層的誤差 4、更新權(quán)重和偏置(Gradient Descent)一旦計(jì)算出了每個(gè)參數(shù)的梯度,,就可以通過梯度下降算法來更新權(quán)重和偏置,。梯度下降的基本思想是:如果損失函數(shù)的梯度(即誤差)指向某個(gè)方向,我們就應(yīng)該沿著相反的方向調(diào)整參數(shù),,以減小損失,。 5、訓(xùn)練迭代(Epochs)訓(xùn)練過程中,,神經(jīng)網(wǎng)絡(luò)會多次進(jìn)行前向傳播,、計(jì)算損失、反向傳播誤差并更新權(quán)重和偏置,。每一次完整的前向傳播和反向傳播過程叫做一個(gè)“epoch”,。通常,,訓(xùn)練過程會經(jīng)歷多個(gè) epoch,,直到模型收斂到較低的損失值,或者達(dá)到預(yù)設(shè)的最大迭代次數(shù),,這也是為什么訓(xùn)練過程比較長,。 總結(jié)起來,AI模型訓(xùn)練就是經(jīng)過多輪訓(xùn)練,,不斷的調(diào)整權(quán)重和偏置,,讓誤差變小趨近于0,就像我們在電視上看到的綜藝節(jié)目經(jīng)常玩的一個(gè)小游戲,,主持人拿出一款商品,,讓幾位玩家去猜測這個(gè)物品的標(biāo)簽價(jià)會是多少。A:“1000” 主持人:“低了” B:“2000” 主持人:“高了” 經(jīng)歷過很多次的猜測以后,,最終 A 猜出了 1688 的價(jià)格,,抱著吸塵器回家了 訓(xùn)練結(jié)束以后會生成權(quán)重文件,權(quán)重文件是存儲神經(jīng)網(wǎng)絡(luò)中所有權(quán)重和偏置值的文件,。訓(xùn)練過程中的權(quán)重文件記錄了模型通過學(xué)習(xí)所獲得的參數(shù),,這些權(quán)重和偏置決定了模型如何將輸入數(shù)據(jù)映射到輸出結(jié)果,。具體作用:
模型訓(xùn)練以后就要進(jìn)入推理環(huán)節(jié),這部分后續(xù)在更新說明,。 |
|