來源:視知資本論 腳本:宅殆 插畫:耿罡 本文長(zhǎng)度為2300字,,建議閱讀3分鐘 好奇寶寶想知道人工智能的機(jī)器學(xué)習(xí)究竟是怎么學(xué)習(xí)的?本文用漫畫讓你看懂人工智能內(nèi)部的工作原理,。 最近,,富士康放出話來,它的工廠夜間已經(jīng)不需要開燈了——因?yàn)橐粋€(gè)工人都不需要,,干活的全是人工智能機(jī)器,。 幾乎所有大佬都在談?wù)撊斯ぶ悄堋?/p> 似乎這個(gè)世界再也不需要人類了。 你可能聽了一百遍人工智能,,不過到底人工智能是個(gè)什么鬼,,所謂人工智能的機(jī)器學(xué)習(xí)究竟是怎么學(xué)習(xí)的?它和你之前玩過的小霸王游戲機(jī)究竟有什么區(qū)別? 今天,,我們用漫畫 來直接讓你看懂 人工智能內(nèi)部的工作原理 ▼ 我們所舉的例子是機(jī)器學(xué)習(xí)中的有監(jiān)督學(xué)習(xí),。 人工智能機(jī)器學(xué)習(xí)分為有監(jiān)督學(xué)習(xí),無監(jiān)督學(xué)習(xí),,強(qiáng)化學(xué)習(xí)和蒙特卡洛樹等,。這一句你看不懂完全可以忽略,因?yàn)椴挥绊懴旅娴慕忉尅?/p> 我就是傳說中的大boss,,人工智能,!怕了吧! 其實(shí),,人工智能基本等于人工智障,!人類一目了然的事情,它得算半天,,而且未必能搞定,。 首先,我們來說說,,人工智能和傳統(tǒng)計(jì)算機(jī)原理之間的關(guān)系,。 最傳統(tǒng)的計(jì)算機(jī),就是這玩意—— 它的工作原理就是有一個(gè)確定的輸入,,就有一個(gè)確定的輸出,。 對(duì)于機(jī)器,原理也一樣,。比如這個(gè) 但人類,,被輸入一個(gè)刺激后,其實(shí)是往往這樣的 在現(xiàn)實(shí)世界中,,我們看到女朋友的臉,,無論她化了什么樣的妝,你一眼就能認(rèn)出來,。 但傳統(tǒng)計(jì)算機(jī)的單一輸入值,,單一確定輸出的模式,就傻眼了,。 但怎么讓機(jī)器模仿出人的輸入輸出能力,有類似人類的智能,。這就是人工智能問題的核心,。 其實(shí),要做的就是對(duì)復(fù)雜的輸入信號(hào)進(jìn)行分解計(jì)算,,對(duì)計(jì)算中的不同因子進(jìn)行不同的處理,,無論輸入的有怎樣變化,都能做出大致合理的輸出。 用專業(yè)的說法,,就是在輸入輸出之間的隱藏層進(jìn)行一系列權(quán)重調(diào)整,,建立一個(gè)模型。 這樣無論人臉加上什么偽裝,,只要落在一個(gè)范圍內(nèi),,機(jī)器都能認(rèn)出這張臉。 這時(shí)候,,機(jī)器就變得像人一樣能認(rèn)人了,,就成了人工智能。 ▼ 看到這兒,,其實(shí)你就比百分九十以上的人更了解人工智能了,。但人工智能怎么具體調(diào)整權(quán)重,我們可以講個(gè)機(jī)器人按臉殺人的故事,。 第一步先要讓機(jī)器可以認(rèn)出人臉,。 所以我們要拿很多包含人臉的圖片喂給它: 臉上不同的部位分別被抽象為一組數(shù)字,比如鼻子可以極度簡(jiǎn)化為為長(zhǎng)度和寬度兩個(gè)數(shù)據(jù) 然后發(fā)送給程序去處理——人工神經(jīng)網(wǎng)絡(luò)現(xiàn)在特別流行,,我們就用它好了,。這些數(shù)字的流動(dòng),的確有點(diǎn)像人類腦神經(jīng)的工作方式: 這個(gè)圖看起來不知所謂,,其實(shí)特別簡(jiǎn)單,,就是挨個(gè)把輸入的數(shù)字乘以那些系數(shù),最后加起來,。 對(duì),,這些系數(shù)就是所謂的“權(quán)重”。 輸出層輸出的就是一個(gè)普通的數(shù)字,。我們給他設(shè)定一個(gè)閾值,,比如20;把牙齒,,鼻子和眼睛都算出來,,等于28,大于20,,就判定輸入的是人臉,。 這差不多是一種很原始的人工神經(jīng)網(wǎng)絡(luò),叫做感知機(jī),。 不過現(xiàn)在的神經(jīng)網(wǎng)絡(luò)會(huì)引入一種叫做激活函數(shù)的東西,,把這種一刀切的智障變成一個(gè)稍稍聰明一點(diǎn)的樣子: 這個(gè)圖像有什么意義呢? 就是把一個(gè)簡(jiǎn)單到弱智的“是不是”的問題,,轉(zhuǎn)化為有“百分之多少”的概率問題,??瓷先ナ遣皇侵悄芰瞬簧伲?/p> 同時(shí),,聰明的你一定發(fā)現(xiàn)了,,決定成效的關(guān)鍵其實(shí)就是那些“權(quán)重”。 怎么獲得恰當(dāng)?shù)臋?quán)重組合,? 這就是機(jī)器學(xué)習(xí)的意義:讓機(jī)器自己根據(jù)每一次考試的結(jié)果去修正自己的權(quán)重,。 慢著,它自己怎么知道對(duì)錯(cuò),? 這還是要人類事先給這些照片進(jìn)行分類:哪些是人,,哪些是狗,哪些是ET…… 這就好像人類在給他出有標(biāo)準(zhǔn)答案的考試,,所以叫做“有監(jiān)督學(xué)習(xí)”,。 然后我們只要不斷重復(fù)這個(gè)過程,權(quán)重就會(huì)逐漸調(diào)整到更恰當(dāng)?shù)慕M合,,輸出結(jié)果就會(huì)越來好,,判斷越來越準(zhǔn)。 如此不斷重復(fù)同一過程,,達(dá)到改進(jìn)的方式,,就叫做“迭代”。 只要我們的神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)的沒問題,,最終,,就可以準(zhǔn)確識(shí)別出人類。 現(xiàn)在最先進(jìn)的算法,,已經(jīng)可以達(dá)到各種狀況下98%以上的正確率了,! 這整個(gè)過程就叫做“訓(xùn)練”。 我們用來訓(xùn)練它的圖片和每張圖片對(duì)應(yīng)的標(biāo)簽,,就叫做“訓(xùn)練集”,。 ▼ 一般介紹人工智能文章到這里就不會(huì)再往深里說了,如果繼續(xù)往下看,,你對(duì)人工智能的了解就會(huì)遠(yuǎn)遠(yuǎn)99.99%的人類,。 所以,你做好準(zhǔn)備成為磚家了嗎,? 首先,,大家最好奇的應(yīng)該是:程序到底怎么調(diào)整權(quán)重的? 這個(gè)被稱作“反向傳播”的過程是這樣的:在每一次訓(xùn)練中,,我們都要確定程序給出的結(jié)論錯(cuò)的有多遠(yuǎn),。 我們已經(jīng)說過,程序的猜測(cè)和答案都可以轉(zhuǎn)化為數(shù)值 把所有的錯(cuò)的平方都加起來,,再平均一下,,就得到一個(gè)“損失函數(shù)”。 損失函數(shù)當(dāng)然越小越好,,這代表我們的神經(jīng)網(wǎng)絡(luò)更厲害,。 我們一開始可能在山頂,這意味著“損失”特別大,,所以我們要盡快下山止損,。 怎么做呢?一種最常用的也很有效的辦法就是,,永遠(yuǎn)選擇最陡的路線,,這樣很容易就會(huì)到達(dá)某個(gè)山谷。 當(dāng)損失函數(shù)達(dá)到某個(gè)最小值,,不怎么變化了,,就說明訓(xùn)練差不多了。這種方法就被叫做“梯度下降”,。 具體而言,,其實(shí)就是求導(dǎo)數(shù): 看到這個(gè)公式有沒有一點(diǎn)想崩潰的感覺? 如果還沒有徹底崩潰,,就稍微解釋一下吧: 這個(gè)式子的意思就是,,把某個(gè)權(quán)重減少這么多,損失函數(shù)對(duì)相應(yīng)權(quán)重的偏導(dǎo)數(shù)乘以α,。 至于怎么求這個(gè)偏導(dǎo)數(shù)的數(shù)值……你確定你真的想知道,? 而這個(gè)α呢,也很重要,,叫做“學(xué)習(xí)速率”,。 它的意思是:發(fā)現(xiàn)錯(cuò)誤之后,改變的幅度太大或太小都不好,。比如學(xué)開車,,轉(zhuǎn)彎 至于改的幅度(系數(shù))多大最好,這就要靠悟了,。 ▼ 好吧,,說了這么難的東西,再來點(diǎn)八卦吧,。 為啥要讓人工智能殺那么多猩猩,、海豚、蜥蜴,? 因?yàn)槿绻麤]有這些負(fù)樣本,,人工智能隨手一抓都是對(duì)的。 這樣,,就不存在學(xué)習(xí)和積累經(jīng)驗(yàn)(調(diào)整權(quán)重)的過程,,也不會(huì)有在現(xiàn)實(shí)世界中真正找到人臉的能力,。 不要被那些所謂人工智能專家神神鬼鬼的術(shù)語所迷惑,其實(shí)人工神經(jīng)網(wǎng)絡(luò)的有監(jiān)督學(xué)習(xí)的整個(gè)過程,,無非就是在做自動(dòng)化的回歸分析罷了,。 從最簡(jiǎn)單的一元線性回歸到多元非線性回歸,就是越來越看起來越來越智能的過程,。人工智能的專家也是這么循序漸進(jìn)掌握機(jī)器學(xué)習(xí)的,。 ▼ 最后,如果你能堅(jiān)持到這里... 恭喜,,你已經(jīng)成為半個(gè)機(jī)器學(xué)習(xí)的專家了,! 如果大家喜歡,我們下次再來講講其他人工智能的技術(shù),,比如無監(jiān)督學(xué)習(xí),、強(qiáng)化學(xué)習(xí)! 參考資料: · 斯坦福大學(xué)公開課:《機(jī)器學(xué)習(xí)》 · FaceNet: A Unified Embedding for Face Recognition and Clustering, Florian Schroff,Dmitry Kalenichenko,James Philbin,Google Inc. · Efficient BackProp, Yann LeCun,Leo Bottou · 《人工智能時(shí)代》,,杰瑞·卡普蘭 · 《心靈,、語言和社會(huì)》,約翰·塞爾 公眾號(hào)底部菜單有驚喜哦,! 加入組織請(qǐng)查看“聯(lián)合會(huì)” |
|