原作者 Karla Lant 編譯 CDA 編譯團(tuán)隊(duì) 前言 最近,關(guān)于 Facebook 的兩個(gè)聊天機(jī)器人學(xué)會(huì)了相互交談,,接著 Facebook 人工智能研究院(FAIR)關(guān)停該“失控” AI 項(xiàng)目的新聞滿天飛,,人們也開始恐慌機(jī)器人是否會(huì)像電影中那樣將主宰世界。 一個(gè)網(wǎng)站寫道: “ Facebook 的工程師們驚慌失措,,在機(jī)器人開發(fā)出自己的語言之后,,將其關(guān)停了?!?另一個(gè)網(wǎng)站補(bǔ)充到“在 AI 發(fā)明了自己的語言之后,,F(xiàn)acebook 關(guān)閉了它,。” “人類剛剛創(chuàng)造了科學(xué)怪人嗎,?” 另一個(gè)寫道,。一家英國小報(bào)引用機(jī)器人學(xué)教授的話說,這一事件顯示出“人工智能的危險(xiǎn)”,,如果將類似的技術(shù)運(yùn)用于軍事機(jī)器人,,后果“可能是致命的”。 不禁讓人聯(lián)想到機(jī)器人革命,,殺手機(jī)器人,,惡意人工智能和人類滅絕等等概念。那么事實(shí)的真相是怎樣的呢,? 秘密的語言 最近,,F(xiàn)acebook 打算開發(fā)可以與人類協(xié)商的聊天機(jī)器人。6 月,,F(xiàn)acebook 人工智能研究院(以下簡(jiǎn)稱 FAIR )的研究人員注意到,,人工智能機(jī)器人已經(jīng)自發(fā)地開發(fā)了它們自己的非人類語言。 在一份研究解釋的報(bào)告中,,他們指出,這一發(fā)展源自于系統(tǒng)提高談判策略的目標(biāo),,聊天機(jī)器人使用的代碼系統(tǒng)是為了最大程度地提高其溝通效率,。 盡管機(jī)器人可以說英語,研究員意識(shí)到他們犯了一個(gè)錯(cuò)誤,,那就是沒有鼓勵(lì)聊天機(jī)器人根據(jù)人類理解的英語規(guī)則進(jìn)行交流,。換句話說,系統(tǒng)沒有理由堅(jiān)持使用英語,,因?yàn)檫@并不利于實(shí)現(xiàn)其成為高效談判者的最終目標(biāo),。事實(shí)上,系統(tǒng)有多種動(dòng)機(jī)來偏離該語言,,就如同人類群里利用專業(yè)知識(shí)等,,創(chuàng)造和使用速記來更快更有效地討論復(fù)雜的問題。 這種行為應(yīng)該是可以預(yù)測(cè)的,。從某種意義上說,,這是一種非常人性化的適應(yīng),因?yàn)槠淠康氖翘岣咝阅芎蜏p少付出,,這正是人類的大腦所擅長的,。 圖片來自:Facebook 人工智能研究院(FAIR) 翻譯一下就是: Bob:我可以我其他一切事…… Alice:球?qū)ξ襾碚f對(duì)我來說對(duì)我來說對(duì)我來說對(duì)我來說對(duì)我來說對(duì)我來說對(duì)我來說是零。 正如在 6 月的文章中解釋的那樣,,研究人員可以輕易的破譯該新語言,,因?yàn)樗腔谟⒄Z的,,但是他們不能確定翻譯的百分之百正確?!爸匾氖且涀?,目前還沒有人同時(shí)精通人工智能和人類的語言,” FAIR 的 Dhruv Batra 說道,。這種新語言也沒有達(dá)到研究的目的,。“我們關(guān)注的是讓機(jī)器人能與人交談,,” FAIR 的研究科學(xué)家 Mike Lewis 解釋道,。 談判系統(tǒng)的 GUI,Gif 來自 Facebook 人工智能研究院 這些機(jī)器人除了討論彼此該如何將一系列給定項(xiàng)目(在用戶界面中表示為無害物體,,如書籍,,帽子和球)分配成雙方滿意的結(jié)果,除此之外沒有做出任何值得人們驚慌的事情,。 最后,,研究人員決定他們重新設(shè)計(jì)了訓(xùn)練機(jī)制,避免其偏離英文的行為,,保證機(jī)器人一直使用可識(shí)別的語言,。媒體就對(duì)這一改變添油加醋,炮制了引發(fā)擔(dān)憂的頭條,,高呼研究人員不得不停止實(shí)驗(yàn),。 AI 的未來 獨(dú)立語言最初自發(fā)的發(fā)展突顯了我們還很不了解人工智能,這也是關(guān)于人工智能研究爭(zhēng)議的一個(gè)重要部分,。毋庸置疑,,人工智能能夠幫助我們,而且很少有人質(zhì)疑這項(xiàng)技術(shù)會(huì)繼續(xù)發(fā)展下去,。然而,,我們準(zhǔn)備與人工智能共享世界的方式,以及對(duì)人類來說這個(gè)世界是否是安全的,,這仍舊存在很大的爭(zhēng)議,。 可以肯定的是,許多關(guān)于人工智能的恐懼更多的是基于科幻小說而非事實(shí),。根據(jù)牛津大學(xué)人工智能教授,、開放數(shù)據(jù)研究所的主席 Nigel Shadbolt 的說法,“我們最需要考慮的是,,對(duì)現(xiàn)有人工智能系統(tǒng)的硬件,、軟件和部署策略實(shí)行的限制和保障措施。”但你下一個(gè)所遇到具有自我意識(shí)的電腦只會(huì)出現(xiàn)在電影中,。 在 FAIR 和其他地方出現(xiàn)的語言問題正好屬于限制和保障的范圍之內(nèi),。我們是否應(yīng)該允許人工智能為了提高性能,而開發(fā)特定任務(wù)的專業(yè)語言,,即使這意味著我們無法真正理解它們的意思? 許多專家敦促我們需謹(jǐn)慎行事,。喬治亞理工大學(xué)人工智能研究人員 Mark Riedl 告訴 Future of Life,人工智能訓(xùn)練優(yōu)化獎(jiǎng)勵(lì)的方法,,最終可能導(dǎo)致將人類視為其優(yōu)化計(jì)劃的威脅,。 對(duì)人工智能發(fā)展的最強(qiáng)烈的警告來自 Elon Musk 和 Stephen Hawking 。他們爭(zhēng)論中最突出的一點(diǎn)是,,當(dāng)我們察覺到風(fēng)險(xiǎn)時(shí),,可能為時(shí)已晚。 Ref: https:///facebooks-language-creating-ai-bots-are-now-required-to-negotiate-in-english/ http:///no-facebook-did-not-panic-and-shut-down-an-ai-program-1797414922
|
|