HMMHidden Markov Models:隱馬爾可夫模型,。 也可以從概率圖(簡(jiǎn)單緊湊的概率圖模型)角度理解依賴關(guān)系: 本文結(jié)合概率基礎(chǔ),主要從概率圖角度理解HMM,。 如圖即為一個(gè)簡(jiǎn)單的貝葉斯網(wǎng)絡(luò),,O表示觀察值,Q表示隱變量,,經(jīng)常使用的符號(hào)還有O-S,、X-Y等。 HMM主要包含以下幾點(diǎn):
Jurafsky & Martin 《Speech and Language Processing》
Jurafsky & Martin 《Speech and Language Processing》
如果遍歷Q,計(jì)算復(fù)雜度將是O(N^T),,N表示Q的空間大小,,T表示序列長度;如果采用前向算法,,則時(shí)間復(fù)雜度降到O(N^2 * T),。
幾個(gè)重要的概率公式d-分離對(duì)于HMM來說,,關(guān)鍵點(diǎn)是X1->X2-> ··· ->Xn,,只要中間有一處阻塞,X1影響不到Xn,。 前向算法The Forward Algorithm,,應(yīng)用于評(píng)估問題,求解p(O|λ),。 關(guān)于α的定義及遞歸關(guān)系,,在概率圖上,一目了然,。 Jurafsky & Martin 《Speech and Language Processing》 算法流程: Jurafsky & Martin 《Speech and Language Processing》 維特比算法The Viterbi Algorithm,,應(yīng)用于解碼問題,給定模型λ=(A,,B)及觀察值O=o1o2···ot,,求解最優(yōu)序列q1q2···qt。 與前向算法形式一致,,替換求和(Σ)為最大(max)即可,。 Jurafsky & Martin 《Speech and Language Processing》 算法流程: Jurafsky & Martin 《Speech and Language Processing》 EM算法一種最優(yōu)化方法:
Daniel Ramage CS229 Hidden Markov Models Fundamentals 后向算法the backward probability,,前向后向算法的一部分,,輔助解決學(xué)習(xí)問題。 算法流程: Jurafsky & Martin 《Speech and Language Processing》 前向后向算法the Baum-Welch algorithm,,解決模型學(xué)習(xí)問題,,給定觀察值序列O及隱狀態(tài)集合,學(xué)習(xí)矩陣A和B。 采用EM算法,,CS229 Daniel Ramage 給出了嚴(yán)謹(jǐn)?shù)淖C明,,假定隱變量期望給定,采用拉格朗日乘子法最優(yōu)化最大似然,,然后根據(jù)求解結(jié)果,,確定實(shí)際需要求解的隱變量期望。 Daniel Ramage CS229 Hidden Markov Models Fundamentals 期望示意圖: Jurafsky & Martin 《Speech and Language Processing》 監(jiān)督學(xué)習(xí) vs 非監(jiān)督學(xué)習(xí)對(duì)HMM模型來說:
應(yīng)用案例詞性標(biāo)注: Jurafsky & Martin 《Speech and Language Processing》 GMM-HMM: A Learning-Based Approach for Lane Departure Warning Systems With a Personalized Driver Model DNN-HMM: 總結(jié)HMM是一個(gè)有向概率圖/貝葉斯網(wǎng)絡(luò)模型,能夠通過序列觀察值,,推測(cè)更能表達(dá)事物本質(zhì)的隱狀態(tài),。 |
|