久久国产成人av_抖音国产毛片_a片网站免费观看_A片无码播放手机在线观看,色五月在线观看,亚洲精品m在线观看,女人自慰的免费网址,悠悠在线观看精品视频,一级日本片免费的,亚洲精品久,国产精品成人久久久久久久

分享

機(jī)器學(xué)習(xí)工程師必知的十大算法

 黑馬_御風(fēng) 2017-04-17

英文原文:http://www./2016/08/10-algorithms-machine-learning-engineers.html/2


毫無(wú)疑問(wèn),,機(jī)器學(xué)習(xí)/人工智能的子領(lǐng)域在過(guò)去幾年越來(lái)越受歡迎,。目前大數(shù)據(jù)在科技行業(yè)已經(jīng)炙手可熱,而基于大量數(shù)據(jù)來(lái)進(jìn)行預(yù)測(cè)或者得出建議的機(jī)器學(xué)習(xí)無(wú)疑是非常強(qiáng)大的,。一些最常見(jiàn)的機(jī)器學(xué)習(xí)例子,,比如Netflix的算法可以根據(jù)你以前看過(guò)的電影來(lái)進(jìn)行電影推薦,而Amazon的算法則可以根據(jù)你以前買(mǎi)過(guò)的書(shū)來(lái)推薦書(shū)籍,。

所以如果你想了解更多有關(guān)機(jī)器學(xué)習(xí)的內(nèi)容,,那么你該如何入門(mén)?對(duì)于我來(lái)說(shuō),,我的入門(mén)課程是我在哥本哈根出國(guó)留學(xué)時(shí)參加的人工智能課,。當(dāng)時(shí)我的講師是丹麥技術(shù)大學(xué)(Technical University of Denmark)的應(yīng)用數(shù)學(xué)和計(jì)算機(jī)科學(xué)的全職教授,他的研究方向是邏輯與人工智能,側(cè)重于使用邏輯學(xué)來(lái)對(duì)人性化的規(guī)劃,、推理和解決問(wèn)題進(jìn)行建模,。這個(gè)課程包括對(duì)理論/核心概念的討論和自己動(dòng)手解決問(wèn)題。我們使用的教材是AI經(jīng)典之一:Peter Norvig的Artificial Intelligence—A Modern Approach(中文譯本:《人工智能:一種現(xiàn)代的方法》),,這本書(shū)主要講了智能體,、搜索解決問(wèn)題、對(duì)抗搜索,、概率論,、多智能體系統(tǒng)、社會(huì)AI和AI的哲學(xué)/倫理/未來(lái)等等,。在課程結(jié)束時(shí),,我們?nèi)齻€(gè)人的團(tuán)隊(duì)實(shí)現(xiàn)了一個(gè)簡(jiǎn)單的編程項(xiàng)目,也就是基于搜索的智能體解決虛擬環(huán)境中的運(yùn)輸任務(wù)問(wèn)題,。

在那門(mén)課程上我已經(jīng)學(xué)到了很多知識(shí),,并決定繼續(xù)學(xué)習(xí)相關(guān)的課題。在過(guò)去的幾個(gè)星期里,,我在舊金山參加了多次相關(guān)的技術(shù)講座,,涉及到深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)和數(shù)據(jù)結(jié)構(gòu),,并且參加了一個(gè)有很多該領(lǐng)域的知名專(zhuān)家學(xué)者參加的機(jī)器學(xué)習(xí)會(huì)議,。最重要的是,我在6月初參加了Udacity上的Intro to Machine Learning(機(jī)器學(xué)習(xí)入門(mén))在線(xiàn)課程,,前幾天才完成,。在這篇文章中,我想分享一下我從課程中學(xué)到的一些最常用的機(jī)器學(xué)習(xí)算法,。

機(jī)器學(xué)習(xí)算法可以分為三大類(lèi):監(jiān)督學(xué)習(xí),、無(wú)監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)。監(jiān)督學(xué)習(xí)可用于一個(gè)特定的數(shù)據(jù)集(訓(xùn)練集)具有某一屬性(標(biāo)簽),,但是其他數(shù)據(jù)沒(méi)有標(biāo)簽或者需要預(yù)測(cè)標(biāo)簽的情況,。無(wú)監(jiān)督學(xué)習(xí)可用于給定的沒(méi)有標(biāo)簽的數(shù)據(jù)集(數(shù)據(jù)不是預(yù)分配好的),目的就是要找出數(shù)據(jù)間的潛在關(guān)系,。強(qiáng)化學(xué)習(xí)位于這兩者之間,,每次預(yù)測(cè)都有一定形式的反饋,但是沒(méi)有精確的標(biāo)簽或者錯(cuò)誤信息,。因?yàn)檫@是一個(gè)介紹課程,,我沒(méi)有學(xué)習(xí)過(guò)強(qiáng)化學(xué)習(xí)的相關(guān)內(nèi)容,但是我希望以下10個(gè)關(guān)于監(jiān)督學(xué)習(xí)和無(wú)監(jiān)督學(xué)習(xí)的算法足以讓你感興趣,。

監(jiān)督學(xué)習(xí)

1.決策樹(shù)(Decision Trees)

決策樹(shù)是一個(gè)決策支持工具,,它使用樹(shù)形圖或者決策模型以及可能性序列,,包括偶然事件的結(jié)果、資源成本和效用,。下圖是其基本原理:

從業(yè)務(wù)決策的角度來(lái)看,決策樹(shù)是人們必須了解的最少的是/否問(wèn)題,,這樣才能評(píng)估大多數(shù)時(shí)候做出正確決策的概率,。作為一種方法,它允許你以結(jié)構(gòu)化和系統(tǒng)化的方式來(lái)解決問(wèn)題,,從而得出合乎邏輯的結(jié)論,。

2.樸素貝葉斯分類(lèi)(Naive Bayesian classification)

樸素貝葉斯分類(lèi)器是一類(lèi)簡(jiǎn)單的概率分類(lèi)器,它基于貝葉斯定理和特征間的強(qiáng)大的(樸素的)獨(dú)立假設(shè),。圖中是貝葉斯公式,,其中P(A|B)是后驗(yàn)概率,P(B|A)是似然,,P(A)是類(lèi)先驗(yàn)概率,,P(B)是預(yù)測(cè)先驗(yàn)概率。

一些應(yīng)用例子:

  • 判斷垃圾郵件

  • 對(duì)新聞的類(lèi)別進(jìn)行分類(lèi),,比如科技,、政治、運(yùn)動(dòng)

  • 判斷文本表達(dá)的感情是積極的還是消極的

  • 人臉識(shí)別

3.最小二乘法(Ordinary Least Squares Regression)

如果你懂統(tǒng)計(jì)學(xué)的話(huà),,你可能以前聽(tīng)說(shuō)過(guò)線(xiàn)性回歸,。最小二乘法是一種計(jì)算線(xiàn)性回歸的方法。你可以將線(xiàn)性回歸看做通過(guò)一組點(diǎn)來(lái)擬合一條直線(xiàn),。實(shí)現(xiàn)這個(gè)有很多種方法,,“最小二乘法”就像這樣:你可以畫(huà)一條直線(xiàn),然后對(duì)于每一個(gè)數(shù)據(jù)點(diǎn),,計(jì)算每個(gè)點(diǎn)到直線(xiàn)的垂直距離,,然后把它們加起來(lái),那么最后得到的擬合直線(xiàn)就是距離和盡可能小的直線(xiàn),。

線(xiàn)性指的是你用來(lái)擬合數(shù)據(jù)的模型,,而最小二乘法指的是你最小化的誤差度量。

4.邏輯回歸(Logistic Regression)

邏輯回歸是一個(gè)強(qiáng)大的統(tǒng)計(jì)學(xué)方法,,它可以用一個(gè)或多個(gè)解釋變量來(lái)表示一個(gè)二項(xiàng)式結(jié)果,。它通過(guò)使用邏輯函數(shù)來(lái)估計(jì)概率,從而衡量類(lèi)別依賴(lài)變量和一個(gè)或多個(gè)獨(dú)立變量之間的關(guān)系,,后者服從累計(jì)邏輯分布,。

總的來(lái)說(shuō),邏輯回歸可以用于以下幾個(gè)真實(shí)應(yīng)用場(chǎng)景:

  • 信用評(píng)分

  • 計(jì)算營(yíng)銷(xiāo)活動(dòng)的成功率

  • 預(yù)測(cè)某個(gè)產(chǎn)品的收入

  • 特定的某一天是否會(huì)發(fā)生地震

5.支持向量機(jī)(Support Vector Machine,,SVM)

SVM是二進(jìn)制分類(lèi)算法,。給定N維坐標(biāo)下兩種類(lèi)型的點(diǎn),,SVM生成(N-1)維的超平面來(lái)將這些點(diǎn)分成兩組。假設(shè)你在平面上有兩種類(lèi)型的可以線(xiàn)性分離的點(diǎn),,SVM將找到一條直線(xiàn),,將這些點(diǎn)分成兩種類(lèi)型,并且這條直線(xiàn)盡可能遠(yuǎn)離所有這些點(diǎn),。

從規(guī)模上看,,使用SVM(經(jīng)過(guò)適當(dāng)?shù)男薷模┙鉀Q的一些最大的問(wèn)題包括顯示廣告、人類(lèi)剪切位點(diǎn)識(shí)別(human splice site recognition),、基于圖像的性別檢測(cè),,大規(guī)模圖像分類(lèi)……

6.集成方法(Ensemble methods)

集成方法是學(xué)習(xí)算法,它通過(guò)構(gòu)建一組分類(lèi)器,,然后通過(guò)它們的預(yù)測(cè)結(jié)果進(jìn)行加權(quán)投票來(lái)對(duì)新的數(shù)據(jù)點(diǎn)進(jìn)行分類(lèi),。原始的集成方法是貝葉斯平均,但是最近的算法包括糾錯(cuò)輸出編碼,、Bagging和Boosting,。

那么集成方法如何工作?并且為什么它們要優(yōu)于單個(gè)模型,?

  • 它們平均了單個(gè)模型的偏差:如果你將民主黨的民意調(diào)查和共和黨的民意調(diào)查在一起平均化,,那么你將得到一個(gè)均衡的結(jié)果,不偏向任何一方,。

  • 它們減少了方差:一組模型的總體意見(jiàn)比其中任何一個(gè)模型的單一意見(jiàn)更加統(tǒng)一,。在金融領(lǐng)域,這就是所謂的多元化,,有許多股票的組合比一個(gè)單獨(dú)的股票的不確定性更少,,這也為什么你的模型在數(shù)據(jù)多的情況下會(huì)更好的原因。

  • 它們不太可能過(guò)擬合:如果你有單個(gè)的模型沒(méi)有過(guò)擬合,,那么把這些模型的預(yù)測(cè)簡(jiǎn)單結(jié)合起來(lái)(平均,、加權(quán)平均、邏輯回歸),,那么最后得到的模型也不會(huì)過(guò)擬合,。

無(wú)監(jiān)督學(xué)習(xí)

7.聚類(lèi)算法(Clustering Algorithms)

聚類(lèi)是將一系列對(duì)象分組的任務(wù),目標(biāo)是使相同組(集群)中的對(duì)象之間比其他組的對(duì)象更相似,。

每一種聚類(lèi)算法都不相同,,下面是一些例子:

  • 基于質(zhì)心的算法

  • 基于連接的算法

  • 基于密度的算法

  • 概率

  • 降維

  • 神經(jīng)網(wǎng)絡(luò)/深度學(xué)習(xí)

8.主成分分析(Principal Component Analysis,PCA)

PCA是一個(gè)統(tǒng)計(jì)學(xué)過(guò)程,,它通過(guò)使用正交變換將一組可能存在相關(guān)性的變量的觀測(cè)值轉(zhuǎn)換為一組線(xiàn)性不相關(guān)的變量的值,,轉(zhuǎn)換后的變量就是所謂的主分量。

PCA的一些應(yīng)用包括壓縮,、簡(jiǎn)化數(shù)據(jù)便于學(xué)習(xí),、可視化等,。請(qǐng)注意,領(lǐng)域知識(shí)在選擇是否繼續(xù)使用PCA時(shí)非常重要,。 數(shù)據(jù)嘈雜的情況(PCA的所有成分具有很高的方差)并不適用,。

9.奇異值分解(Singular Value Decomposition,SVD)

在線(xiàn)性代數(shù)中,,SVD是復(fù)雜矩陣的因式分解,。對(duì)于給定的m * n矩陣M,存在分解使得M=UΣV,,其中U和V是酉矩陣,Σ是對(duì)角矩陣,。

實(shí)際上,,PCA是SVD的一個(gè)簡(jiǎn)單應(yīng)用。在計(jì)算機(jī)視覺(jué)中,,第一個(gè)人臉識(shí)別算法使用PCA和SVD來(lái)將面部表示為“特征面”的線(xiàn)性組合,,進(jìn)行降維,然后通過(guò)簡(jiǎn)單的方法將面部匹配到身份,,雖然現(xiàn)代方法更復(fù)雜,,但很多方面仍然依賴(lài)于類(lèi)似的技術(shù)。

10.獨(dú)立成分分析(Independent Component Analysis,,ICA)

ICA是一種統(tǒng)計(jì)技術(shù),,主要用于揭示隨機(jī)變量、測(cè)量值或信號(hào)集中的隱藏因素,。ICA對(duì)觀測(cè)到的多變量數(shù)據(jù)定義了一個(gè)生成模型,,這通常是作為樣本的一個(gè)大的數(shù)據(jù)庫(kù)。在模型中,,假設(shè)數(shù)據(jù)變量由一些未知的潛在變量線(xiàn)性混合,,混合方式也是未知的。潛在變量被假定為非高斯分布并且相互獨(dú)立,,它們被稱(chēng)為觀測(cè)數(shù)據(jù)的獨(dú)立分量,。

ICA與PCA有關(guān),但是當(dāng)這些經(jīng)典方法完全失效時(shí),,它是一種更強(qiáng)大的技術(shù),,能夠找出源的潛在因素。 其應(yīng)用包括數(shù)字圖像,、文檔數(shù)據(jù)庫(kù),、經(jīng)濟(jì)指標(biāo)和心理測(cè)量。

現(xiàn)在運(yùn)用你對(duì)這些算法的理解去創(chuàng)造機(jī)器學(xué)習(xí)應(yīng)用,,為世界各地的人們帶來(lái)更好的體驗(yàn)吧,。


    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,,所有內(nèi)容均由用戶(hù)發(fā)布,不代表本站觀點(diǎn),。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式,、誘導(dǎo)購(gòu)買(mǎi)等信息,謹(jǐn)防詐騙,。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶(hù) 評(píng)論公約

    類(lèi)似文章 更多