久久国产成人av_抖音国产毛片_a片网站免费观看_A片无码播放手机在线观看,色五月在线观看,亚洲精品m在线观看,女人自慰的免费网址,悠悠在线观看精品视频,一级日本片免费的,亚洲精品久,国产精品成人久久久久久久

分享

IEEE Fellow李世鵬 :人工智能與機器人前沿研究之思考

 馬斯特ston 2022-01-07

圖片

來源:AI科技評論
作者:維克多
編輯:青暮
2021年12月9日,,由粵港澳大灣區(qū)人工智能與機器人聯(lián)合會、雷峰網(wǎng)合辦的第六屆全球人工智能與機器人大會(GAIR 2021)在深圳正式啟幕,,140余位產(chǎn)學(xué)領(lǐng)袖,、30位Fellow聚首,從AI技術(shù),、產(chǎn)品,、行業(yè)、人文,、組織等維度切入,,以理性分析與感性洞察為軸,共同攀登人工智能與數(shù)字化的浪潮之巔,。
大會次日,,思爾實驗室主任、前深圳市人工智能與機器人研究院執(zhí)行院長,、國際歐亞科學(xué)院院士,、IEEE Fellow李世鵬在GAIR大會上做了《人工智能與機器人前沿研究之思考》的演講。
圖片
李世鵬博士,,IEEE Fellow,,國際歐亞科學(xué)院院士。歷任深圳市人工智能與機器人研究院首席科學(xué)家和執(zhí)行院長,、科大訊飛集團(tuán)副總裁及訊飛研究院聯(lián)席院長,、微軟亞洲研究院創(chuàng)始成員與副院長。李院士在多媒體,、IoT及AI等領(lǐng)域頗具影響力,。他擁有203項美國專利并發(fā)表了330多篇被引用了的論文(H指數(shù):82)。被Guide2Research列為世界頂尖1000名計算機科學(xué)家之一,。培養(yǎng)出四位MIT TR35創(chuàng)新獎的獲得者,。是(科技部)新一代人工智能產(chǎn)業(yè)技術(shù)創(chuàng)新戰(zhàn)略聯(lián)盟發(fā)起人之一及聯(lián)合秘書長。
在演講中,,李世鵬介紹并展望了人工智能與機器人前沿研究方向,,他指出:未來機器學(xué)習(xí)突破深度學(xué)習(xí)的數(shù)據(jù)瓶頸或許可以借助認(rèn)知科學(xué)的方法得到突破,,學(xué)習(xí)范式可從依靠“大數(shù)據(jù)”轉(zhuǎn)變成依靠“大規(guī)則”;人機協(xié)作也要進(jìn)化為人機“諧”作,,只有將耦合,、交互、增強,、互補等目標(biāo)納入研究方向,,才能實現(xiàn)人機的無縫連接。
以下是演講全文,,AI科技評論做了不改變原意的整理:
圖片
今天的演講題目是《人工智能與機器人前沿研究之思考》,,分為三個部分,先談人工智能機器人研究全景,,然后聚焦研究方向,,包括機器學(xué)習(xí)、運動智能,、人機諧作,、群體協(xié)作;最后進(jìn)行總結(jié),。
圖片
人工智能相關(guān)研究的關(guān)鍵元素有三個:人,、機器人/物聯(lián)網(wǎng)以及AI。之所以將機器人和物聯(lián)網(wǎng)歸為一類,,是因為這兩者是物理世界和虛擬世界的接口,。如果三個元素兩兩之間發(fā)生聯(lián)系就會形成一個新的學(xué)科,例如機器人和AI相結(jié)合會產(chǎn)生智能體,,AI和人類相結(jié)合會產(chǎn)生人機耦合以及增強智能,,而機器人和人類相融合會形成增強機體。隨著人工智能與機器人領(lǐng)域的發(fā)展,,研究對象不再局限在單個智能體,,而是越來越多地對多個智能體的協(xié)作進(jìn)行研究,例如人類社會群體如何更好地相融合,?如何設(shè)計出能夠精妙協(xié)作的機器群體,?
圖片
總體而言,我認(rèn)為重要的基本研究方向是:機器學(xué)習(xí),、運動智能,、人機諧作、群體協(xié)作,。
1
聚焦方向之機器學(xué)習(xí)
機器學(xué)習(xí)的發(fā)展離不開深度學(xué)習(xí)加持,,它給行業(yè)帶來許多研究成果,并賦能了語音識別,、人臉識別,、物體識別,、自動駕駛等方面,推動人工智能產(chǎn)業(yè)高速發(fā)展,。
圖片
雖然成果頗豐,,但成也蕭何敗也蕭何。深度學(xué)習(xí)依賴于大數(shù)據(jù),,其瓶頸也在于大數(shù)據(jù),。例如國內(nèi)的智能語音技術(shù)盡管處于行業(yè)領(lǐng)先,但仍依賴技術(shù)積累和數(shù)據(jù)積累?,F(xiàn)在想要讓深度學(xué)習(xí)發(fā)揮巨大威力,仍然需要大量數(shù)據(jù)的加持,,如果想讓深度學(xué)習(xí)從一個領(lǐng)域擴展到另一個領(lǐng)域,,也少不了數(shù)據(jù)支撐。
如何突破,?研究者已經(jīng)探索了多條路徑,,其中一個解決方案是:擴展深度學(xué)習(xí)框架。例如優(yōu)化深度學(xué)習(xí)算法,、知識圖譜+深度學(xué)習(xí),、專家系統(tǒng)+深度學(xué)習(xí)等等。另一條路徑是因果推理,,其目標(biāo)是借助人類舉一反三的能力,,期望超越數(shù)據(jù)之間的相關(guān)性,進(jìn)而探索數(shù)據(jù)之間的因果性,,從而得到數(shù)據(jù)之間的邏輯推理,。
第三條路徑是類腦計算,從生物學(xué)角度,,探索人腦認(rèn)知元素和機制,,以仿真方法再現(xiàn)人類大腦。
個人認(rèn)為認(rèn)知科學(xué)是突破深度學(xué)習(xí)框架的著力點,。理由是人類認(rèn)知過程有兩點需要我們?nèi)ミM(jìn)一步借鑒:生而知之,、學(xué)而知之。
生而知之是指部分認(rèn)知能力與生俱來,,新生兒的腦神經(jīng)有很多先天的連接,。它給我們的啟示是:現(xiàn)在的大多深度學(xué)習(xí)算法,大部分都是從零開始訓(xùn)練,,而沒有充分或者高效利用先驗知識或者已有模型,。如何利用“現(xiàn)有知識”是深度學(xué)習(xí)的下一個熱門方向。
學(xué)而知之是指大部分認(rèn)知能力是后天學(xué)習(xí)到的,,尤其是早期學(xué)習(xí),。通過學(xué)習(xí)腦神經(jīng)建立了更多的連接,。孩子很多能力,包括感知,、應(yīng)對,、語言、讀寫和理解,,甚至分析問題和解決問題的思路和能力在很小時候已經(jīng)基本定型,;以后基本都是知識的積累。這意味著腦神經(jīng)元很早的時候就連接定型成一個元模型,,剩下的是只是利用這個元模型去解決具體領(lǐng)域的問題,。這個與當(dāng)前的大規(guī)模預(yù)訓(xùn)練模型有著驚人的相似之處。
學(xué)而知之的另一層次是:人類學(xué)習(xí)過程依靠多源的,、多傳感的,、多模態(tài)的、多角度的數(shù)據(jù),,例如視覺,、聽覺、嗅覺,、觸覺和語境等聯(lián)合信息,,而今天的深度學(xué)習(xí)依靠大都是一段語音、一張照片,,因此,,未來AI模型的輸入數(shù)據(jù)可能不僅是單一的數(shù)據(jù),而是多個信號源的融合,。如何模仿人類學(xué)習(xí)的過程,,這是認(rèn)知科學(xué)對深度學(xué)習(xí)的另一個啟示。
再者,,人類學(xué)習(xí)過程是一個從樣本示例到原理歸納的過程,,而不是僅停留在樣本示例層面;目前深度學(xué)習(xí)卻都是停留在樣本層面,。那么,,未來是否能夠構(gòu)造類人的機器學(xué)習(xí)框架,無論輸入什么樣的數(shù)據(jù),,只要邏輯相通,,都會收斂到一致的模型?
突破深度學(xué)習(xí)的數(shù)據(jù)瓶頸,,可以嘗試構(gòu)建規(guī)則的眾包系統(tǒng),,讓人類教機器學(xué)習(xí)過程,其目的不是輸入數(shù)據(jù),,而是讓機器學(xué)習(xí)規(guī)則,。由于我們試圖從日常的活動中學(xué)習(xí)規(guī)則,,這種規(guī)則普通人都可以標(biāo)注示教,這就打破了以前專家系統(tǒng)地需要“專家”的局限,。這種從“大數(shù)據(jù)”過渡到“大規(guī)則”模型構(gòu)建方式顯然也更符合人類的認(rèn)知,。
2
聚焦方向之運動智能
圖片
眾所周知,在機器人領(lǐng)域,,波士頓動力公司的產(chǎn)品最“像人”,,如上動圖,機器人跳舞絲毫看不出生硬的感覺,。但受計算資源,、能量、運動控制的限制,,它只能運行幾十分鐘,。其實,波士頓動力機器人的運行方式是基于電機驅(qū)動,,存在很多缺點,例如剛性運動,、自重比較大,、反應(yīng)速度和靈活性的矛盾以及耗能大。
對比人類和其他動物的運行方式,,肌肉,、骨骼、傳感和神經(jīng)的結(jié)合可以在低能耗情況下,,實現(xiàn)靈活運行,。這給研究者的啟示是,機器人的運行系統(tǒng)應(yīng)該像人一樣滿足:高效,、靈活,、精確、魯棒,、剛?cè)岵?jì),、輕量、自適應(yīng)等指標(biāo),。當(dāng)前的運動智能可能在某一個維度表現(xiàn)優(yōu)秀,,但綜合考量仍然有很多缺點。
圖片
因此,,運動智能的一個重要研究方向是:仿生,。仿照動物的運動智能,例如運動控制采用逼近反饋式,,運動過程視變化隨時靈活調(diào)整,。
圖片
如果說機器人是靠“內(nèi)力”驅(qū)動,,而醫(yī)療微納米機器人是“外力”研究方向的代表。例如依靠磁力,,小機器人精確地將藥物從一個管道運送到另一個管道,。
3
聚焦方向之人機諧作
在人機諧作層面,區(qū)別于協(xié)作,,“諧作”代表人機協(xié)作中的耦合,、交互、增強,、互補,、協(xié)作、和諧等意思,。人機諧作的目標(biāo)是:不需要告訴機器人類的意圖,,機器就能領(lǐng)會,從而達(dá)到人機的無縫連接,。
在達(dá)成人機諧作的過程中,,重點研究人機自然交互、感知及增強,。具體可能包括:生物特征檢測和識別,、人機接口、腦機接口,、語音識別,、動作識別、表情識別,、語言理解,、意圖理解、體態(tài)感知,、無隙增強,,以及在擴展現(xiàn)實與遠(yuǎn)程現(xiàn)實的延伸等等。
人機增強智能方面,,今天的機器學(xué)習(xí)框架大都是基于大數(shù)據(jù)的深度學(xué)習(xí)框架,,肯定會遇到機器智能處理不了的情景。這對于某些高風(fēng)險領(lǐng)域,,例如自動駕駛,、金融等來說是致命的。
針對這一問題,,當(dāng)前的解決方案是“人類接管”,。這會涉及三個核心問題:
  • 核心問題1:機器智能如何感知自己處理不了一些情況,而主動要求人來接管?

  • 核心問題2:什么時候人類可以完全放手給機器自主完成任務(wù),?

  • 核心問題3:什么樣的人機交互設(shè)計能充分發(fā)揮人和機器各自的長處,,同時又無需非必要地麻煩對方?

三個核心問題如果無法解決,,會導(dǎo)致一些困境,。例如,以自動駕駛為例,,目前安全員并不是開了“自動”功能就一勞永逸,,仍然需要時時監(jiān)測路況與路線,一刻都不能分神,。這其實增加了安全員的負(fù)擔(dān),,因為在沒有自動駕駛的時候,人類對自己的駕駛環(huán)境會有一定的預(yù)測,,而機器駕駛的情況人類無法預(yù)測,。
人機增強機體也屬于人機諧作的一個領(lǐng)域,能夠幫助人類增強物理機體能力,,完成一些人類自身體力完不成的事情,。但機器可能過于復(fù)雜,需要人類培訓(xùn)后才能操作,。人機增強機體的未來目標(biāo)是實現(xiàn)人與機器和諧共處,,操控起來如同人類的自己的器官一樣自然。其中,,涉及的核心研究課題包括:機器感知人的意圖、人的姿態(tài),、理解人的自然語言命令,、肢體語言等等,從而讓機器以最適合人類接受,、恰到好處的平滑方式幫助人解決問題,。
圖片
4
聚焦方向之群體協(xié)作
目前單智能體已經(jīng)可以完成許多任務(wù),但如何發(fā)揮每個智能體集合起來的威力,?這涉及群體協(xié)作的研究方向,。在倉儲場景下,存在許多抓取分類的機器人,,如果能夠有效調(diào)度,,那么必將大大提高工作效率。
當(dāng)前主流的調(diào)度方式是中心化的控制方式,,但面對成千上萬的規(guī)模的智能體,,則需要非中心化的控制,允許智能體之間存在自主行為,在相互協(xié)作的同時,,還能“做自己的事”,。即單獨的有智能可獨立行動的智能體,通過協(xié)作而達(dá)到的更高效的群體/系統(tǒng)智能和行為,。
圖片
智能體群體協(xié)作目前涉及的規(guī)則包括,,群體行為模型和激勵機制、群體智能協(xié)同決策,。這一方面,,螞蟻是我們的學(xué)習(xí)對象。另外,,在自動駕駛方面,,越來越多自主駕駛機器人出現(xiàn),它們之間如何做到協(xié)同感知和協(xié)同控制也是當(dāng)今熱門話題,。
圖片
上述四個方面屬于基礎(chǔ)性的研究,,任何一個領(lǐng)域出現(xiàn)了突破,那將對其領(lǐng)域以及下游應(yīng)用而言都是革命性的突破,,也將帶來工業(yè)數(shù)智化原創(chuàng)技術(shù)的創(chuàng)新,,會讓我們在競爭中占領(lǐng)優(yōu)勢地位!

未來智能實驗室的主要工作包括:建立AI智能系統(tǒng)智商評測體系,開展世界人工智能智商評測,;開展互聯(lián)網(wǎng)(城市)大腦研究計劃,,構(gòu)建互聯(lián)網(wǎng)(城市)大腦技術(shù)和企業(yè)圖譜,為提升企業(yè),,行業(yè)與城市的智能水平服務(wù),。每日推薦范圍未來科技發(fā)展趨勢的學(xué)習(xí)型文章。目前線上平臺已收藏上千篇精華前沿科技文章和報告,。

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點,。請注意甄別內(nèi)容中的聯(lián)系方式,、誘導(dǎo)購買等信息,謹(jǐn)防詐騙,。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多