久久国产成人av_抖音国产毛片_a片网站免费观看_A片无码播放手机在线观看,色五月在线观看,亚洲精品m在线观看,女人自慰的免费网址,悠悠在线观看精品视频,一级日本片免费的,亚洲精品久,国产精品成人久久久久久久

分享

資本布局的人工智能其實(shí)是人工智障,?3分鐘看懂啥叫機(jī)器學(xué)習(xí)

 黑馬_御風(fēng) 2017-02-22

來源:視知資本論

腳本:宅殆

插畫:耿罡

本文長(zhǎng)度為2300字,,建議閱讀3分鐘

好奇寶寶想知道人工智能的機(jī)器學(xué)習(xí)究竟是怎么學(xué)習(xí)的?本文用漫畫讓你看懂人工智能內(nèi)部的工作原理,。


最近,,富士康放出話來,它的工廠夜間已經(jīng)不需要開燈了——因?yàn)橐粋€(gè)工人都不需要,,干活的全是人工智能機(jī)器,。


幾乎所有大佬都在談?wù)撊斯ぶ悄堋?/p>



似乎這個(gè)世界再也不需要人類了。



你可能聽了一百遍人工智能,,不過到底人工智能是個(gè)什么鬼,,所謂人工智能的機(jī)器學(xué)習(xí)究竟是怎么學(xué)習(xí)的?它和你之前玩過的小霸王游戲機(jī)究竟有什么區(qū)別?


今天,,我們用漫畫

來直接讓你看懂

人工智能內(nèi)部的工作原理



我們所舉的例子是機(jī)器學(xué)習(xí)中的有監(jiān)督學(xué)習(xí),。


人工智能機(jī)器學(xué)習(xí)分為有監(jiān)督學(xué)習(xí),無監(jiān)督學(xué)習(xí),,強(qiáng)化學(xué)習(xí)和蒙特卡洛樹等,。這一句你看不懂完全可以忽略,因?yàn)椴挥绊懴旅娴慕忉尅?/p>


我就是傳說中的大boss,,人工智能,!怕了吧!



其實(shí),,人工智能基本等于人工智障,!人類一目了然的事情,它得算半天,,而且未必能搞定,。



首先,我們來說說,,人工智能和傳統(tǒng)計(jì)算機(jī)原理之間的關(guān)系,。

最傳統(tǒng)的計(jì)算機(jī),就是這玩意——

它的工作原理就是有一個(gè)確定的輸入,,就有一個(gè)確定的輸出,。


對(duì)于機(jī)器,原理也一樣,。比如這個(gè)

但人類,,被輸入一個(gè)刺激后,其實(shí)是往往這樣的

在現(xiàn)實(shí)世界中,,我們看到女朋友的臉,,無論她化了什么樣的妝,你一眼就能認(rèn)出來,。


但傳統(tǒng)計(jì)算機(jī)的單一輸入值,,單一確定輸出的模式,就傻眼了,。

但怎么讓機(jī)器模仿出人的輸入輸出能力,有類似人類的智能,。這就是人工智能問題的核心,。


其實(shí),要做的就是對(duì)復(fù)雜的輸入信號(hào)進(jìn)行分解計(jì)算,,對(duì)計(jì)算中的不同因子進(jìn)行不同的處理,,無論輸入的有怎樣變化,都能做出大致合理的輸出。


用專業(yè)的說法,,就是在輸入輸出之間的隱藏層進(jìn)行一系列權(quán)重調(diào)整,,建立一個(gè)模型。


這樣無論人臉加上什么偽裝,,只要落在一個(gè)范圍內(nèi),,機(jī)器都能認(rèn)出這張臉。

這時(shí)候,,機(jī)器就變得像人一樣能認(rèn)人了,,就成了人工智能。



看到這兒,,其實(shí)你就比百分九十以上的人更了解人工智能了,。但人工智能怎么具體調(diào)整權(quán)重,我們可以講個(gè)機(jī)器人按臉殺人的故事,。


第一步先要讓機(jī)器可以認(rèn)出人臉,。


所以我們要拿很多包含人臉的圖片喂給它:



臉上不同的部位分別被抽象為一組數(shù)字,比如鼻子可以極度簡(jiǎn)化為為長(zhǎng)度和寬度兩個(gè)數(shù)據(jù)

然后發(fā)送給程序去處理——人工神經(jīng)網(wǎng)絡(luò)現(xiàn)在特別流行,,我們就用它好了,。這些數(shù)字的流動(dòng),的確有點(diǎn)像人類腦神經(jīng)的工作方式:


這個(gè)圖看起來不知所謂,,其實(shí)特別簡(jiǎn)單,,就是挨個(gè)把輸入的數(shù)字乘以那些系數(shù),最后加起來,。


對(duì),,這些系數(shù)就是所謂的“權(quán)重”。


輸出層輸出的就是一個(gè)普通的數(shù)字,。我們給他設(shè)定一個(gè)閾值,,比如20;把牙齒,,鼻子和眼睛都算出來,,等于28,大于20,,就判定輸入的是人臉,。



這差不多是一種很原始的人工神經(jīng)網(wǎng)絡(luò),叫做感知機(jī),。


不過現(xiàn)在的神經(jīng)網(wǎng)絡(luò)會(huì)引入一種叫做激活函數(shù)的東西,,把這種一刀切的智障變成一個(gè)稍稍聰明一點(diǎn)的樣子:

這個(gè)圖像有什么意義呢?


就是把一個(gè)簡(jiǎn)單到弱智的“是不是”的問題,,轉(zhuǎn)化為有“百分之多少”的概率問題,??瓷先ナ遣皇侵悄芰瞬簧伲?/p>



同時(shí),,聰明的你一定發(fā)現(xiàn)了,,決定成效的關(guān)鍵其實(shí)就是那些“權(quán)重”。


怎么獲得恰當(dāng)?shù)臋?quán)重組合,?


這就是機(jī)器學(xué)習(xí)的意義:讓機(jī)器自己根據(jù)每一次考試的結(jié)果去修正自己的權(quán)重,。


慢著,它自己怎么知道對(duì)錯(cuò),?



這還是要人類事先給這些照片進(jìn)行分類:哪些是人,,哪些是狗,哪些是ET……


這就好像人類在給他出有標(biāo)準(zhǔn)答案的考試,,所以叫做“有監(jiān)督學(xué)習(xí)”,。



然后我們只要不斷重復(fù)這個(gè)過程,權(quán)重就會(huì)逐漸調(diào)整到更恰當(dāng)?shù)慕M合,,輸出結(jié)果就會(huì)越來好,,判斷越來越準(zhǔn)。


如此不斷重復(fù)同一過程,,達(dá)到改進(jìn)的方式,,就叫做“迭代”



只要我們的神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)的沒問題,,最終,,就可以準(zhǔn)確識(shí)別出人類。


現(xiàn)在最先進(jìn)的算法,,已經(jīng)可以達(dá)到各種狀況下98%以上的正確率了,!


這整個(gè)過程就叫做“訓(xùn)練”。


我們用來訓(xùn)練它的圖片和每張圖片對(duì)應(yīng)的標(biāo)簽,,就叫做“訓(xùn)練集”,。



一般介紹人工智能文章到這里就不會(huì)再往深里說了,如果繼續(xù)往下看,,你對(duì)人工智能的了解就會(huì)遠(yuǎn)遠(yuǎn)99.99%的人類,。


所以,你做好準(zhǔn)備成為磚家了嗎,?


首先,,大家最好奇的應(yīng)該是:程序到底怎么調(diào)整權(quán)重的?


這個(gè)被稱作“反向傳播”的過程是這樣的:在每一次訓(xùn)練中,,我們都要確定程序給出的結(jié)論錯(cuò)的有多遠(yuǎn),。


我們已經(jīng)說過,程序的猜測(cè)和答案都可以轉(zhuǎn)化為數(shù)值

把所有的錯(cuò)的平方都加起來,,再平均一下,,就得到一個(gè)“損失函數(shù)”。


損失函數(shù)當(dāng)然越小越好,,這代表我們的神經(jīng)網(wǎng)絡(luò)更厲害,。


我們一開始可能在山頂,這意味著“損失”特別大,,所以我們要盡快下山止損,。

怎么做呢?一種最常用的也很有效的辦法就是,,永遠(yuǎn)選擇最陡的路線,,這樣很容易就會(huì)到達(dá)某個(gè)山谷。 

當(dāng)損失函數(shù)達(dá)到某個(gè)最小值,,不怎么變化了,,就說明訓(xùn)練差不多了。這種方法就被叫做“梯度下降”,。


具體而言,,其實(shí)就是求導(dǎo)數(shù):

看到這個(gè)公式有沒有一點(diǎn)想崩潰的感覺?

如果還沒有徹底崩潰,,就稍微解釋一下吧:


這個(gè)式子的意思就是,,把某個(gè)權(quán)重減少這么多,損失函數(shù)對(duì)相應(yīng)權(quán)重的偏導(dǎo)數(shù)乘以α,。


至于怎么求這個(gè)偏導(dǎo)數(shù)的數(shù)值……你確定你真的想知道,?

而這個(gè)α呢,也很重要,,叫做“學(xué)習(xí)速率”,。


它的意思是:發(fā)現(xiàn)錯(cuò)誤之后,改變的幅度太大或太小都不好,。比如學(xué)開車,,轉(zhuǎn)彎

至于改的幅度(系數(shù))多大最好,這就要靠悟了,。


好吧,,說了這么難的東西,再來點(diǎn)八卦吧,。


為啥要讓人工智能殺那么多猩猩,、海豚、蜥蜴,?

因?yàn)槿绻麤]有這些負(fù)樣本,,人工智能隨手一抓都是對(duì)的。

這樣,,就不存在學(xué)習(xí)和積累經(jīng)驗(yàn)(調(diào)整權(quán)重)的過程,,也不會(huì)有在現(xiàn)實(shí)世界中真正找到人臉的能力,。


不要被那些所謂人工智能專家神神鬼鬼的術(shù)語所迷惑,其實(shí)人工神經(jīng)網(wǎng)絡(luò)的有監(jiān)督學(xué)習(xí)的整個(gè)過程,,無非就是在做自動(dòng)化的回歸分析罷了,。

從最簡(jiǎn)單的一元線性回歸到多元非線性回歸,就是越來越看起來越來越智能的過程,。人工智能的專家也是這么循序漸進(jìn)掌握機(jī)器學(xué)習(xí)的,。



最后,如果你能堅(jiān)持到這里...


恭喜,,你已經(jīng)成為半個(gè)機(jī)器學(xué)習(xí)的專家了,!


如果大家喜歡,我們下次再來講講其他人工智能的技術(shù),,比如無監(jiān)督學(xué)習(xí),、強(qiáng)化學(xué)習(xí)!


參考資料:

· 斯坦福大學(xué)公開課:《機(jī)器學(xué)習(xí)》

· FaceNet: A Unified Embedding for Face Recognition and Clustering, Florian Schroff,Dmitry Kalenichenko,James Philbin,Google Inc.

· Efficient BackProp, Yann LeCun,Leo Bottou

· 《人工智能時(shí)代》,,杰瑞·卡普蘭

· 《心靈,、語言和社會(huì)》,約翰·塞爾


公眾號(hào)底部菜單有驚喜哦,!

加入組織請(qǐng)查看“聯(lián)合會(huì)”

    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn),。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式,、誘導(dǎo)購買等信息,謹(jǐn)防詐騙,。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶 評(píng)論公約

    類似文章 更多