久久国产成人av_抖音国产毛片_a片网站免费观看_A片无码播放手机在线观看,色五月在线观看,亚洲精品m在线观看,女人自慰的免费网址,悠悠在线观看精品视频,一级日本片免费的,亚洲精品久,国产精品成人久久久久久久

分享

AI模型訓(xùn)練到底在訓(xùn)練什么?

 Kwshan 2025-01-31

??

   

一,、前言

AI 模型訓(xùn)練是指通過數(shù)據(jù)驅(qū)動(dòng)的方式,,讓人工智能(AI)系統(tǒng)從經(jīng)驗(yàn)中學(xué)習(xí),以便在給定的任務(wù)上進(jìn)行預(yù)測,、分類或生成等操作,。這個(gè)過程通過優(yōu)化模型的參數(shù)(如神經(jīng)網(wǎng)絡(luò)的權(quán)重和偏置)來最小化預(yù)測誤差或損失,從而使模型能夠在新數(shù)據(jù)上做出準(zhǔn)確的判斷,,本文將介紹AI模型中神經(jīng)網(wǎng)絡(luò)和神經(jīng)元的構(gòu)造,,以及AI訓(xùn)練的原理,。

??

   

二、AI 中的幾個(gè)關(guān)鍵概念

生物神經(jīng)網(wǎng)絡(luò)

圖片

一個(gè)生物神經(jīng)網(wǎng)絡(luò)是由一組化學(xué)上相連或功能上相關(guān)的神經(jīng)元組成,。一個(gè)神經(jīng)元可能與許多其他神經(jīng)元相連,,網(wǎng)絡(luò)中的神經(jīng)元和連接的總數(shù)可能很多。神經(jīng)元之間的連接稱為突觸,,通常是從軸突到樹突形成的,,盡管樹突和其他連接是可能的。除了電信號外,,還有其他形式的信號,,這些信號來自于神經(jīng)遞質(zhì)的擴(kuò)散,。整體工作流程如下:

1,、外部刺激通過神經(jīng)末梢,轉(zhuǎn)化為電信號,,轉(zhuǎn)導(dǎo)到神經(jīng)細(xì)胞(又叫神經(jīng)元),。

2、無數(shù)神經(jīng)元構(gòu)成神經(jīng)中樞,。

3,、神經(jīng)中樞綜合各種信號,做出判斷,。

4,、人體根據(jù)神經(jīng)中樞的指令,對外部刺激做出反應(yīng),。

大腦神經(jīng)元的數(shù)量,、神經(jīng)元之間的連接方式等會影響生物個(gè)體智力,例如人類成人的大腦大約包含 860 億到 1000 億 個(gè)神經(jīng)元,,豬的大腦大約包含 20 億到 30 億 個(gè)神經(jīng)元,,金魚的大腦神經(jīng)元數(shù)量較少,大約在 100 萬到 300 萬之間,。

人工神經(jīng)網(wǎng)絡(luò)

人工神經(jīng)網(wǎng)絡(luò)是一種模擬人類大腦神經(jīng)元連接方式的計(jì)算模型,,主要用于處理和學(xué)習(xí)大量的數(shù)據(jù),尤其是在模式識別,、預(yù)測分析和分類任務(wù)中表現(xiàn)突出,。它由大量互相連接的“神經(jīng)元”(也稱為節(jié)點(diǎn))組成,每個(gè)神經(jīng)元與其他神經(jīng)元相連,,形成一個(gè)復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu),。神經(jīng)網(wǎng)絡(luò)的核心思想是通過調(diào)整連接之間的“權(quán)重”來學(xué)習(xí)和優(yōu)化模型,使其能根據(jù)輸入數(shù)據(jù)產(chǎn)生正確的輸出,。

圖片
圖片

                               人工神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖

圖片
                          人工神經(jīng)網(wǎng)絡(luò)工作流程圖

神經(jīng)元

神經(jīng)元節(jié)點(diǎn)內(nèi)部主要做了什么,?

圖片

特征與權(quán)重

上圖的紅框就代表一個(gè)神經(jīng)元,。它接受多個(gè)輸入(a1,a2,,a3...),,產(chǎn)生一個(gè)輸出(a),好比神經(jīng)末梢感受各種外部環(huán)境的變化,,最后產(chǎn)生電信號,。其中最開始輸入的 a1,a2,,a3..就是特征,,w1,w2,,w3..就是權(quán)重,,為什么要這么設(shè)計(jì)呢?假如如果評估一個(gè)人是否是美女,,那么我們通常會怎么做,?

圖片

1、通常需要確定多個(gè)審視條件,。比如,,頭發(fā)長度,是否黑直長,,單雙眼皮,,身材比例等等。這每一個(gè)條件,,都會或多或少影響到真實(shí)的審美結(jié)果,。對于這每一個(gè)條件,我們稱其為“特征”(feature),。

2,、僅有特征,是明顯不夠的,,因?yàn)槲覀儗τ诿恳粋€(gè)特征來說,,都有著不同的喜惡。比如你可能會覺得眼睛是你最為看重的一點(diǎn),,對于小眼睛女生會直接 PASS,。又或者你可能會認(rèn)為鼻梁挺不挺是次要的,如果是可愛的娃娃臉,,塌鼻梁也可以接受,,有的可能喜歡大長腿等等。對于這每一個(gè)喜惡的程度,,我們可以稱其為權(quán)重(weight),。

圖片

假如我們對一個(gè)需要評估的人提取了 6 個(gè)特征,,分別是“眼睛,牙齒,,體型,,皮膚,頸部,,額頭,,眉毛,笑容”,。而現(xiàn)在我們也拍腦袋給了每一個(gè)特征對應(yīng)的權(quán)重(比例) ,,并且給定一個(gè)評分機(jī)制,從 0 分到 10 分進(jìn)行打分,,當(dāng)然這個(gè)機(jī)制是完全客觀的,,上圖針對劉亦菲匯總得出 7.4 分,針對鳳姐可能就是其他得分了,。通過上述機(jī)制就可以實(shí)現(xiàn)輸入一個(gè)人給出對應(yīng)的評分結(jié)果,。

在實(shí)際 AI 場景中,,特征就是輸入對象的向量(向量其實(shí)就是對象在多個(gè)維度上的表示,,例如眼睛,牙齒,,體型,,皮膚,頸部,,額頭,,眉毛,笑容等),;權(quán)重就是對應(yīng)該維度在目標(biāo)任務(wù)中的重要程度,;最終評分和計(jì)算方法,就是神經(jīng)元內(nèi)計(jì)算輸入得出輸出的算法(根據(jù)任務(wù)不同有不同的算法)

神經(jīng)元節(jié)點(diǎn)具體的工作機(jī)制:

接收輸入(輸入信號)

神經(jīng)元節(jié)點(diǎn)首先接收來自前一層神經(jīng)元的輸入信號(或者原始數(shù)據(jù)),。這些輸入可以是來自數(shù)據(jù)集的特征(例如圖像的像素值,、文本的詞向量等),也可以是前一層神經(jīng)元的輸出,。每個(gè)輸入信號都帶有一個(gè)“權(quán)重”(weight),,權(quán)重是神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中調(diào)整的參數(shù)。

加權(quán)求和

每個(gè)神經(jīng)元對收到的輸入信號進(jìn)行加權(quán)求和,。簡單來說,,神經(jīng)元對每個(gè)輸入值乘以相應(yīng)的權(quán)重,然后將結(jié)果加在一起,。例如,,對于神經(jīng)元的輸入向量 x1,x2,…,xn 和權(quán)重向量 w1,w2,…,wn,,神經(jīng)元的加權(quán)輸入 z 為:z=w1?x1+w2?x2+?+wn?xn+b 

其中,b 是偏置項(xiàng)(bias),,它幫助模型調(diào)整輸出的閾值,。

激活函數(shù)(非線性變換)

加權(quán)求和的結(jié)果 z通常會被送入一個(gè)“激活函數(shù)”,以引入非線性,。激活函數(shù)的作用是增加神經(jīng)網(wǎng)絡(luò)的表達(dá)能力,,使其能夠?qū)W習(xí)和處理復(fù)雜的模式,而不僅僅是線性關(guān)系,。常見的激活函數(shù)有:

  • Sigmoid:將輸出限制在 0 到 1 之間,。

  • ReLU(Rectified Linear Unit):如果輸入大于 0,則輸出為輸入值,;否則,,輸出為 0。

  • Tanh:輸出范圍為 -1 到 1,。

  • Softmax:常用于分類任務(wù)的輸出層,,將多維輸入轉(zhuǎn)換為概率分布。激活函數(shù)的應(yīng)用可以幫助神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)復(fù)雜的非線性模式,,增強(qiáng)其表達(dá)能力,。

輸出

神經(jīng)元的輸出是激活函數(shù)計(jì)算后的結(jié)果。這個(gè)輸出將作為下一層神經(jīng)元的輸入,,或作為最終輸出(在網(wǎng)絡(luò)的最頂層),。神經(jīng)元的輸出可以通過網(wǎng)絡(luò)的層層傳遞,逐漸變得更加抽象和有用,。

??

   

三,、AI 模型訓(xùn)練的本質(zhì)

圖片

通過上面內(nèi)容可以知道,在 AI 模型中在網(wǎng)絡(luò)結(jié)構(gòu)固定的情況下,,權(quán)重和偏置決定了神經(jīng)網(wǎng)絡(luò)的輸出結(jié)果,。訓(xùn)練過程的目標(biāo)就是通過調(diào)整這些參數(shù),使模型的預(yù)測更加準(zhǔn)確,。下面簡要說明權(quán)重和偏置的修改過程,,以及它們在訓(xùn)練中的作用。

1,、前向傳播(Forward Propagation)輸入數(shù)據(jù)通過神經(jīng)網(wǎng)絡(luò)進(jìn)行前向傳播,,經(jīng)過每一層的計(jì)算后,最終得出預(yù)測輸出,。對應(yīng)上圖則是輸入一張圖片,,最后輸出識別結(jié)果。

2,、計(jì)算損失(Loss Function)前向傳播之后,,網(wǎng)絡(luò)會根據(jù)模型的輸出 a 和真實(shí)標(biāo)簽 y 計(jì)算損失(誤差),,對應(yīng)上圖是輸出的識別結(jié)果與真實(shí)值之間比較,例如是三個(gè)字都錯(cuò)了,,還是只錯(cuò)了 1 個(gè) 

3,、反向傳播(Backpropagation)需要將誤差反向傳遞到網(wǎng)絡(luò)的每一層,需要計(jì)算每一層網(wǎng)絡(luò)的誤差,,這個(gè)過程是通過鏈?zhǔn)椒▌t(Chain Rule)實(shí)現(xiàn)的,。神經(jīng)網(wǎng)絡(luò)通常包含多層,每一層的輸出都依賴于前一層的輸出,,因此在反向傳播時(shí),,我們需要逐層計(jì)算每一層的誤差 

4、更新權(quán)重和偏置(Gradient Descent)一旦計(jì)算出了每個(gè)參數(shù)的梯度,,就可以通過梯度下降算法來更新權(quán)重和偏置,。梯度下降的基本思想是:如果損失函數(shù)的梯度(即誤差)指向某個(gè)方向,我們就應(yīng)該沿著相反的方向調(diào)整參數(shù),,以減小損失,。

5、訓(xùn)練迭代(Epochs)訓(xùn)練過程中,,神經(jīng)網(wǎng)絡(luò)會多次進(jìn)行前向傳播,、計(jì)算損失、反向傳播誤差并更新權(quán)重和偏置,。每一次完整的前向傳播和反向傳播過程叫做一個(gè)“epoch”,。通常,,訓(xùn)練過程會經(jīng)歷多個(gè) epoch,,直到模型收斂到較低的損失值,或者達(dá)到預(yù)設(shè)的最大迭代次數(shù),,這也是為什么訓(xùn)練過程比較長,。

總結(jié)起來,AI模型訓(xùn)練就是經(jīng)過多輪訓(xùn)練,,不斷的調(diào)整權(quán)重和偏置,,讓誤差變小趨近于0,就像我們在電視上看到的綜藝節(jié)目經(jīng)常玩的一個(gè)小游戲,,主持人拿出一款商品,,讓幾位玩家去猜測這個(gè)物品的標(biāo)簽價(jià)會是多少。A:“1000”

主持人:“低了”

B:“2000”

主持人:“高了”

經(jīng)歷過很多次的猜測以后,,最終 A 猜出了 1688 的價(jià)格,,抱著吸塵器回家了

圖片

訓(xùn)練結(jié)束以后會生成權(quán)重文件,權(quán)重文件是存儲神經(jīng)網(wǎng)絡(luò)中所有權(quán)重和偏置值的文件,。訓(xùn)練過程中的權(quán)重文件記錄了模型通過學(xué)習(xí)所獲得的參數(shù),,這些權(quán)重和偏置決定了模型如何將輸入數(shù)據(jù)映射到輸出結(jié)果,。具體作用:

  • 保存訓(xùn)練好的模型:訓(xùn)練結(jié)束后,所有的權(quán)重和偏置都已經(jīng)更新并最優(yōu)化,。權(quán)重文件保存了這些參數(shù),,這樣在后續(xù)使用模型時(shí),我們可以加載這些權(quán)重文件,,避免每次都重新訓(xùn)練模型,。

  • 遷移學(xué)習(xí):通過加載預(yù)訓(xùn)練模型的權(quán)重文件,我們可以在新的任務(wù)上繼續(xù)訓(xùn)練(微調(diào)),。這樣,,預(yù)訓(xùn)練的模型就能利用已學(xué)到的特征,從而加快新任務(wù)的學(xué)習(xí)過程,,尤其在數(shù)據(jù)較少時(shí)非常有效,。

  • 模型部署:在實(shí)際應(yīng)用中,模型通常需要部署到生產(chǎn)環(huán)境中,。此時(shí),,權(quán)重文件被用于加載訓(xùn)練好的模型,并執(zhí)行推理(Inference),,進(jìn)行預(yù)測任務(wù),。

模型訓(xùn)練以后就要進(jìn)入推理環(huán)節(jié),這部分后續(xù)在更新說明,。

    本站是提供個(gè)人知識管理的網(wǎng)絡(luò)存儲空間,,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn),。請注意甄別內(nèi)容中的聯(lián)系方式,、誘導(dǎo)購買等信息,謹(jǐn)防詐騙,。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,,請點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多