久久国产成人av_抖音国产毛片_a片网站免费观看_A片无码播放手机在线观看,色五月在线观看,亚洲精品m在线观看,女人自慰的免费网址,悠悠在线观看精品视频,一级日本片免费的,亚洲精品久,国产精品成人久久久久久久

分享

支持向量機(svm)新手入門篇

 ddguo2001 2017-04-25

SVM叫做支持向量機( Support Vector Machines)是由Vanpik領導的AT&TBell實驗室研究小組 在1963年提出的一種新的非常有潛力的分類技術, SVM是一種基于統(tǒng)計學習理論的模式識別方法,主要應用于模式識別領域.由于當時這些研究尚不十分完善,在解決模式識別問題中往往趨于保守,且數(shù)學上比較艱澀,因此這些研究一直沒有得到充的重視.直到90年代,一個較完善的理論體系—統(tǒng)計學習理論 ( StatisticalLearningTheory,簡稱SLT) 的實現(xiàn)和由于神經(jīng)網(wǎng)絡等較新興的機器學習方法的研究遇到一些重要的困難,比如如何確定網(wǎng)絡結構的問題,、過學習與欠學習問題,、局部極小點問題等,使得SVM迅速發(fā)展和完善,在解決小樣本 、非線性及高維模式識別問題中表現(xiàn)出許多特有的優(yōu)勢,并能夠推廣應用到函數(shù)擬合等其他機器學習問題中.從此迅速的發(fā)展起來,,現(xiàn)在已經(jīng)在許多領域(生物信息學,,文本和手寫識別等)都取得了成功的應用。

1.        準備工作

1)       確立分類器個數(shù)

一般都事先確定分類器的個數(shù),當然,,如有必要,,可在訓練過程中增加分類器的個數(shù)。分類器指的是將樣本中分幾個類型,,比如我們從樣本中需要識別出:車輛,、行人、非車并非人,,則分類器的個數(shù)是3,。

分類器的個數(shù)用k

2)       圖像庫建立

SVM方法需要建立一個比較大的樣本集,也就是圖像庫,,這個樣本集不僅僅包括正樣本,,還需要有一定數(shù)量的負樣本。通常樣本越多越好,,但不是絕對的,。

設樣本數(shù)為S

3)       ROI提取

對所有樣本中的可能包含目標的區(qū)域(比如車輛區(qū)域)手動或自動提取出來,此時包括正樣本中的目標區(qū)域,,也包括負樣本中類似車輛特征的區(qū)域或者說干擾區(qū)域,。

4)       ROI預處理

包括背景去除,圖像濾波,,或者是邊緣增強,,二值化等預處理。預處理的方法視特征的選取而定,。

5)       特征向量確定

描述一個目標,,打算用什么特征,用幾個特征,,給出每個特征的標示方法以及總的特征數(shù),,也就是常說的特征向量的維數(shù)。

對于車輛識別,,可用的特征如:車輛區(qū)域的灰度均值,、灰度方差、對稱性,、信息熵,、傅里葉描述子等等。

設特征向量的維數(shù)是L,。

6)       特征提取

確定采取的特征向量之后,,對樣本集中所有經(jīng)過預處理之后的ROI區(qū)域進行特征提取,也就是說計算每個ROI區(qū)域的所有特征值,,并將其保存,。

7)       特征向量的歸一化

常用的歸一化方法是:先對相同的特征(每個特征向量分別歸一化)進行排序,,然后根據(jù)特征的最大值和最小值重新計算特征值。

8)       核的選定

SVM的構造主要依賴于核函數(shù)的選擇,,由于不適當?shù)暮撕瘮?shù)可能會導致很差的分類結果,,并且目前尚沒有有效的學習使用何種核函數(shù)比較好,只能通過實驗結果確定采用哪種核函數(shù)比較好,。訓練的目標不同,,核函數(shù)也會不同。

核函數(shù)其實就是采用什么樣的模型描述樣本中目標特征向量之間的關系,。如常用的核函數(shù):Gauss函數(shù)

              

對樣本的訓練就是計算p矩陣,,然后得出描述目標的模板和代表元。

2.        訓練

訓練就是根據(jù)選定的核函數(shù)對樣本集的所有特征向量進行計算,,構造一個使樣本可分的特征空間,。

其訓練步驟如下:

1)       用分類器將所有樣本集的特征分類

2)       根據(jù)選定的核函數(shù)分別計算每個分類器中每個特征向量的有關值

3)       根據(jù)這些特征相關值計算協(xié)方差矩陣空間

4)       對這個協(xié)方差矩陣空間進行Householder變換,也就是說將一個向量變換為由一個超平面反射的鏡像,,是一種線性變換,。超平面的法向量被稱作Householder向量。因為SVM就是在特征空間中構造最優(yōu)超平面,。

具體變換方法可參照相關文章,。里面涉及大量的矩陣運算。

5)       計算特征系數(shù)

得到協(xié)方差矩陣以及其對應的超平面矩陣,,根據(jù)這兩個矩陣分別計算每個特征的特征系數(shù),,并將特征系數(shù)對協(xié)方差矩陣進行縮放。

6)       獲得模型參數(shù)paramInvSigma,,paramLogSigma

對縮放后的協(xié)方差矩陣paramSigma求逆后,,計算模型參數(shù)。其計算方法參照程序:

for (i=0; i<numClass; i++)

       {

              for(j=0; j<size; j++)

              {

                     sigma.pdata[j]= this->paramSigma[i*size+j];

              }

              sigma.inv(invSigma);

              for(j=0; j<size; j++)

              {

                     this->paramInvSigma[i*size+j]= invSigma.pdata[j];

              }

              this-> paramLogSigma[i] = log(sigma.det())-2*log(((DOUBLE)classSample[i])/((DOUBLE)totalSample));

       }

3.        比較測試

    比較測試是SVM方法的最后一步,,也就是說通過訓練得到訓練模型參數(shù)之后,,就可根據(jù)模型參數(shù)對一個ROI區(qū)域進行計算,,判斷其歸類,。

   比較測試首先是對測試圖像進行預處理,然后提取特征,,將這些特征參數(shù)與訓練結果的模型參數(shù)進行比對,,比對方法可參照文獻中介紹的:

        

得到對應的類別標志:

          

4.        總結

SVM方法最主要的工作是樣本訓練,獲得訓練模型參數(shù),。

由于時間關系,,暫時只對SVM有這些了解,只能算對SVM有一個初步的認識,。并且上述總結都是在閱讀文獻之后的認識,,難免有不少錯誤和不足,所以本文只能作為一個小參考。在對SVM有個初步的認識之后,,需要仔細閱讀其原理,,分析其中的矩陣運算及思想。SVM中涉及大量的矩陣運算和推導,,需要弄清楚,,這樣才能明白模型參數(shù)的含義,以便于判斷當前選定的核函數(shù)是否合適,。

    本站是提供個人知識管理的網(wǎng)絡存儲空間,,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點,。請注意甄別內(nèi)容中的聯(lián)系方式,、誘導購買等信息,謹防詐騙,。如發(fā)現(xiàn)有害或侵權內(nèi)容,,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多