機器能像人一樣擁有學習能力嗎? “人工智能”這個概念是1956年達特茅斯會議上提出的,,它是一個很寬泛的概念,,初衷就是讓機器像人類一樣思考,可以勝任一些需要人類智能才能完成的復雜工作,。如果把人類的智能比作一枚皇冠的話,,那么皇冠上的明珠就是人的學習能力。正是因為我們人類擁有學習的能力,,讓我們可以從呱呱墜地,,到咿呀學語,到長大成人,,不斷成長和進化,,去適應這個社會??梢哉f這個學習的過程,,就是我們人類的智能形成和發(fā)展的一個過程,那么問題就來了,,機器可以擁有像我們人類一樣的學習能力嗎,? 于是,人工智能的一個分支學科“機器學習”就誕生了,。正如AI先驅Arthur Samuel所述,,機器學習是“讓計算機有能力在不需要明確編程的情況下自己學習”的研究領域。也就是說,,讓機器自主或半自主地學習優(yōu)化處理數(shù)據(jù)的過程,。常用的機器學習算法有:決策樹、隨機森林,、邏輯回歸,、樸素貝葉斯分類、馬爾可夫,、支持向量機等,。 機器學習的常用算法有很多,具體要用哪種,,很大程度上取決于現(xiàn)有數(shù)據(jù)集及其特征,、具體的應用場景和特定的任務。其中有一種方法叫“深度學習”,是當下最受熱棒的,。所以說,,“人工智能”,、“機器學習”,、“深度學習”這三者之間是相互包含的同心圓關系。 深度學習是如何工作的,? 深度學習這個“當紅辣子雞”為什么會迅速躥紅呢,?下面我們得好好扒一扒了。 在深度學習算法沒出來之前,,我們要實現(xiàn)圖像識別,、語音識別、自然語言理解,、天氣預測,、內容推薦等任務,是通過這樣的流程來執(zhí)行的:先通過傳感器獲得數(shù)據(jù),,然后進行數(shù)據(jù)的特征提取和特征表達,,最后把表達出來的特征放到學習算法中進行推理、預測或者識別,。以圖像識別為例,,比如我們現(xiàn)在輸入一個摩托車的圖像,我們先通過特征提取器分離它的特征,,比如它有輪子,、車座、手把,、腳蹬,、排氣筒等,然后把這些特征放到分類器中進行分類的學習,,讓機器識別它是不是一輛摩托車,。 這種方法有什么問題呢?人工設計提取的特征沒有辦法保證在任何情況下都能準確識別,,比如摩托車的形狀,、大小、顏色,、造型各不相同,,觀察的角度、背景,、光線等也會影響它呈現(xiàn)的樣子,,這樣我們很難寫出一套“放之四海皆準”的規(guī)則來告訴機器具備什么樣的特征就一定是摩托車。更何況即使我們寫出了這樣的規(guī)則,也只是針對摩托車這一個品類,,世間萬事萬物,,難道我們能針對每一類對象都提煉一種規(guī)則嗎? 于是就引出了深度學習,,它的靈感最初是來自于仿生學,。小時候我們開始認識這個世界,父母告訴我們“這是人”,、“這是車”,,在并沒有掌握詳盡特征規(guī)則的情況下,我們通過訓練和反饋來學習,。于是科學家們就模擬人腦構建出了軟件的“神經元”,,然后把若干層“神經元”相互連接形成了“神經網絡”,“深度”學習就是這么來的,。以識別人臉為例,,當神經網絡接收到數(shù)據(jù)輸入時,它首先感知到的是像素,,然后連接成邊緣,,再之后形成人臉的局部——鼻子、眼睛等,,最后抽象出整張人臉,,這和人腦的神經生物學過程如出一轍,即通過抽象和迭代完成視覺功能,。 如果說機器學習是把數(shù)據(jù)優(yōu)化的任務交給機器來完成,,那么深度學習就是把特征提取的任務也交給了機器,而且機器完成得比人更好,。深度學習的訓練是一個“端到端”的過程,,給神經網絡輸入大量有標注的數(shù)據(jù),對神經元之間的連接進行調整,,使輸出的結果不斷接近標注的正確值,。 深度學習的應用為什么會在現(xiàn)在爆發(fā)呢?有三方面原因: 數(shù)據(jù) 深度學習的訓練離不開大規(guī)模數(shù)據(jù)集,,無處不在的智能手機和傳感器使數(shù)據(jù)的產生呈爆炸式增長,,給深度學習提供了“燃料”。 算力 GPU的并行計算能力非常適合加速深度學習,,大幅減少神經網絡的訓練時間,,成為深度學習的“發(fā)動機”。 算法 深度學習的神經網絡結構不斷演進迭代,,CNN(卷積神經網絡),、RNN(遞歸神經網絡),、LSTM(長短期記憶模型)的應用帶來了越來越好的算法結果。 有了深度學習以后,,圖像和語音識別的錯誤率大幅下降,,機器的識別能力接近并超過了人類的水平。于是學術界的熱情被點燃了,,工業(yè)界沸騰了,,最瘋狂的還是投資人,捧著大把資金蜂擁而至,,深度學習的應用有如摧枯拉朽一般在各個行業(yè)中蔓延開來,。 深度學習包打天下,?先看看它的局限性再說 深度學習大熱以后,,有人把人工智能等同于深度學習,認為它可以解決一切問題,。其實深度學習雖然神通廣大,,但是也不能包打天下,我們必須要正視它的局限性,。 “黑箱”問題 傳統(tǒng)的機器學習算法基于邏輯或概率,,可以給出清晰的決策依據(jù),而深度學習的內部網絡卻是“黑箱”,,不具備可解釋性,。如果出現(xiàn)誤判,無法找到問題根源進行調整,,在一些對安全性要求較高的應用場景中(如駕駛,、醫(yī)療等),這是很難被接受的,。 “長尾”問題 深度學習網絡之所以智能是因為它見過的數(shù)據(jù)可以覆蓋90%以上的情況,,但是針對某些極端特殊情況它就處理不了了,特斯拉自動駕駛出事故就是因為數(shù)據(jù)集中沒有出現(xiàn)過橫著的大貨車,,“天才”與“弱智”之間往往只有一線之隔,。 沒有常識 人的智能除了體現(xiàn)在根據(jù)當下的狀態(tài)做出決策外,還可以結合背景知識做常識判斷,。但是機器沒有先驗知識,,沒有能力基于常識做推斷和聯(lián)系,目前人們正在嘗試把深度學習和知識圖譜相結合去解決這個問題,。 數(shù)據(jù)的約束 訓練深度學習需要大規(guī)模,、有標注的數(shù)據(jù)。現(xiàn)實應用中當特征比較多的時候,,即便我們看來很大量的數(shù)據(jù),,也會變成非常稀疏的“小數(shù)據(jù)”,無法“喂飽”深度學習,得不到好的算法結果,。另外,,很多專業(yè)領域的數(shù)據(jù)需要交給行業(yè)專家來標注,這樣的數(shù)據(jù)更是少之又少,,對很多創(chuàng)業(yè)公司來說是無法逾越的障礙,。 計算能力的約束 神經網絡的訓練需要大規(guī)模并行計算,一個創(chuàng)業(yè)公司訓練深度學習的時間成本取決于它可以構建和調用的GPU資源,。即使訓練好的模型,,在實際布署中,也需要根據(jù)終端的計算承載能力去壓縮和適配,,遠遠不是只把demo跑好那么簡單,。 事實上,深度學習這一波的“大火”只是在涉及到計算機視覺,、語音識別和一部分自然語言處理相關的任務中表現(xiàn)出優(yōu)勢,。真正的智能涉及到很多方面,感知,、認知,、推理、知識,、規(guī)劃,、溝通等等,深度學習在感知方面取得了突飛猛進的進展,,但對其他問題還不能很好地解決,,需要越來越多地和其他算法相結合。 深度學習的未來 近幾年人們也在探索各種各樣的新的學習方法,,讓深度學習更加智能,。 監(jiān)督學習 Supervised Learning 監(jiān)督學習就是告訴機器特定輸入的正確答案,讓機器去學習,。這是目前被廣泛采用的方法,,但是需要大量有標注的數(shù)據(jù),因此具有一定的局限性,。 無監(jiān)督學習 Unsupervised Learning 無監(jiān)督學習就是在沒有外界指導的前提下,,通過自身的觀察和體驗了解世界的運作規(guī)律,這是人類和其他動物具備的一種比較高級的智能,。對機器來說,,就是在不給出輸入輸出之間映射關系的 情況下,讓機器去尋找數(shù)據(jù)本身的規(guī)律,。無監(jiān)督學習目前尚處在研究早期階段,,這是當前制約人工智能發(fā)展的主要瓶頸之一,。 半監(jiān)督學習 Semi-supervised Learning 半監(jiān)督學習本質上是監(jiān)督學習和無監(jiān)督學習的結合,利用監(jiān)督學習的標記信息,,利用未標記數(shù)據(jù)的內在特征,,在數(shù)據(jù)缺乏標注的情況下具有很大的應用價值。 強化學習 Reinforcement Learning 強化學習是一種基于與環(huán)境互動的目標導向的學習,。機器做出一個動作或一系列動作后,,從外界環(huán)境中獲得反饋,如果行動正確,,則有相應的獎勵機制強化行動選擇,。 第一代AlphaGo主要通過圍棋高手的對弈棋譜來學習,那時它的棋風和人類還比較相似,。而第二代AlphaGo則更多地采用自己和自己對弈互搏,,通過決策結果的反饋不斷強化自己的智能,所以柯潔才會覺得它越來越像圍棋上帝,。 遷移學習 Transfer Learning 遷移學習就是把一種任務或場景中學習到的能力遷移到另一種相似或相關的任務或場景中去,,也就是讓機器像人類一樣擁有舉一反三,、融會貫通的能力,,難怪吳恩達把遷移學習比作推動人工智能進步的下一波驅動力。 這些有益的探索越來越多地向我們展現(xiàn)了人工智能應用的可能性,。目前的人工智能仍然是專用于解決特定問題的弱人工智能,,通用的強人工智能離我們還很遙遠。機器智能與人類智能最大的差別在于是否具有自我意識,?!段磥砗喪贰返淖髡哂韧郀枴ず绽f,人類社會發(fā)展了上萬年,,一直是智能和意識共同進化,,現(xiàn)在是人類歷史上第一次面臨大規(guī)模的智能、意識的分離,,這才是我們面臨的最大挑戰(zhàn),。 |
|