久久国产成人av_抖音国产毛片_a片网站免费观看_A片无码播放手机在线观看,色五月在线观看,亚洲精品m在线观看,女人自慰的免费网址,悠悠在线观看精品视频,一级日本片免费的,亚洲精品久,国产精品成人久久久久久久

分享

Facebook中止聊天機(jī)器人項(xiàng)目是因?yàn)榭只臕I會(huì)自創(chuàng)語言了,?其實(shí)你想多了

 CDA數(shù)據(jù)分析師 2020-02-22

原作者 Karla Lant

編譯 CDA 編譯團(tuán)隊(duì)
本文為  CDA 數(shù)據(jù)分析師原創(chuàng)作品,,轉(zhuǎn)載需授權(quán)

前言

最近,關(guān)于 Facebook 的兩個(gè)聊天機(jī)器人學(xué)會(huì)了相互交談,,接著 Facebook 人工智能研究院(FAIR)關(guān)停該“失控” AI 項(xiàng)目的新聞滿天飛,,人們也開始恐慌機(jī)器人是否會(huì)像電影中那樣將主宰世界。

一個(gè)網(wǎng)站寫道: “ Facebook 的工程師們驚慌失措,,在機(jī)器人開發(fā)出自己的語言之后,,將其關(guān)停了?!?另一個(gè)網(wǎng)站補(bǔ)充到“在 AI 發(fā)明了自己的語言之后,,F(xiàn)acebook 關(guān)閉了它,。” “人類剛剛創(chuàng)造了科學(xué)怪人嗎,?” 另一個(gè)寫道,。一家英國小報(bào)引用機(jī)器人學(xué)教授的話說,這一事件顯示出“人工智能的危險(xiǎn)”,,如果將類似的技術(shù)運(yùn)用于軍事機(jī)器人,,后果“可能是致命的”。

不禁讓人聯(lián)想到機(jī)器人革命,,殺手機(jī)器人,,惡意人工智能和人類滅絕等等概念。那么事實(shí)的真相是怎樣的呢,?

秘密的語言

最近,,F(xiàn)acebook 打算開發(fā)可以與人類協(xié)商的聊天機(jī)器人。6 月,,F(xiàn)acebook 人工智能研究院(以下簡(jiǎn)稱 FAIR )的研究人員注意到,,人工智能機(jī)器人已經(jīng)自發(fā)地開發(fā)了它們自己的非人類語言。

在一份研究解釋的報(bào)告中,,他們指出,這一發(fā)展源自于系統(tǒng)提高談判策略的目標(biāo),,聊天機(jī)器人使用的代碼系統(tǒng)是為了最大程度地提高其溝通效率,。

盡管機(jī)器人可以說英語,研究員意識(shí)到他們犯了一個(gè)錯(cuò)誤,,那就是沒有鼓勵(lì)聊天機(jī)器人根據(jù)人類理解的英語規(guī)則進(jìn)行交流,。換句話說,系統(tǒng)沒有理由堅(jiān)持使用英語,,因?yàn)檫@并不利于實(shí)現(xiàn)其成為高效談判者的最終目標(biāo),。事實(shí)上,系統(tǒng)有多種動(dòng)機(jī)來偏離該語言,,就如同人類群里利用專業(yè)知識(shí)等,,創(chuàng)造和使用速記來更快更有效地討論復(fù)雜的問題。

這種行為應(yīng)該是可以預(yù)測(cè)的,。從某種意義上說,,這是一種非常人性化的適應(yīng),因?yàn)槠淠康氖翘岣咝阅芎蜏p少付出,,這正是人類的大腦所擅長的,。

圖片來自:Facebook 人工智能研究院(FAIR)

翻譯一下就是:

Bob:我可以我其他一切事……

Alice:球?qū)ξ襾碚f對(duì)我來說對(duì)我來說對(duì)我來說對(duì)我來說對(duì)我來說對(duì)我來說對(duì)我來說是零。

正如在 6 月的文章中解釋的那樣,,研究人員可以輕易的破譯該新語言,,因?yàn)樗腔谟⒄Z的,,但是他們不能確定翻譯的百分之百正確?!爸匾氖且涀?,目前還沒有人同時(shí)精通人工智能和人類的語言,” FAIR 的 Dhruv Batra 說道,。這種新語言也沒有達(dá)到研究的目的,。“我們關(guān)注的是讓機(jī)器人能與人交談,,” FAIR 的研究科學(xué)家 Mike Lewis 解釋道,。

談判系統(tǒng)的 GUI,Gif 來自 Facebook 人工智能研究院

這些機(jī)器人除了討論彼此該如何將一系列給定項(xiàng)目(在用戶界面中表示為無害物體,,如書籍,,帽子和球)分配成雙方滿意的結(jié)果,除此之外沒有做出任何值得人們驚慌的事情,。

最后,,研究人員決定他們重新設(shè)計(jì)了訓(xùn)練機(jī)制,避免其偏離英文的行為,,保證機(jī)器人一直使用可識(shí)別的語言,。媒體就對(duì)這一改變添油加醋,炮制了引發(fā)擔(dān)憂的頭條,,高呼研究人員不得不停止實(shí)驗(yàn),。

AI 的未來

獨(dú)立語言最初自發(fā)的發(fā)展突顯了我們還很不了解人工智能,這也是關(guān)于人工智能研究爭(zhēng)議的一個(gè)重要部分,。毋庸置疑,,人工智能能夠幫助我們,而且很少有人質(zhì)疑這項(xiàng)技術(shù)會(huì)繼續(xù)發(fā)展下去,。然而,,我們準(zhǔn)備與人工智能共享世界的方式,以及對(duì)人類來說這個(gè)世界是否是安全的,,這仍舊存在很大的爭(zhēng)議,。

可以肯定的是,許多關(guān)于人工智能的恐懼更多的是基于科幻小說而非事實(shí),。根據(jù)牛津大學(xué)人工智能教授,、開放數(shù)據(jù)研究所的主席 Nigel Shadbolt 的說法,“我們最需要考慮的是,,對(duì)現(xiàn)有人工智能系統(tǒng)的硬件,、軟件和部署策略實(shí)行的限制和保障措施。”但你下一個(gè)所遇到具有自我意識(shí)的電腦只會(huì)出現(xiàn)在電影中,。

在 FAIR 和其他地方出現(xiàn)的語言問題正好屬于限制和保障的范圍之內(nèi),。我們是否應(yīng)該允許人工智能為了提高性能,而開發(fā)特定任務(wù)的專業(yè)語言,,即使這意味著我們無法真正理解它們的意思?

許多專家敦促我們需謹(jǐn)慎行事,。喬治亞理工大學(xué)人工智能研究人員 Mark Riedl 告訴 Future of Life,人工智能訓(xùn)練優(yōu)化獎(jiǎng)勵(lì)的方法,,最終可能導(dǎo)致將人類視為其優(yōu)化計(jì)劃的威脅,。

對(duì)人工智能發(fā)展的最強(qiáng)烈的警告來自 Elon Musk 和 Stephen Hawking 。他們爭(zhēng)論中最突出的一點(diǎn)是,,當(dāng)我們察覺到風(fēng)險(xiǎn)時(shí),,可能為時(shí)已晚。

Ref:

https:///facebooks-language-creating-ai-bots-are-now-required-to-negotiate-in-english/

http:///no-facebook-did-not-panic-and-shut-down-an-ai-program-1797414922

 
在人工智能的浪潮中,,我們會(huì)失業(yè)嗎?

    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶 評(píng)論公約

    類似文章 更多