機(jī)器人叛亂比核武器更可怕 人類將如何掌控命運(yùn),?
?
?
?史蒂芬·霍金宣今年又一次警告人類稱,雖然人工智能技術(shù)會有巨大的潛在好處,,能幫助人類消除戰(zhàn)爭,、疾病和貧窮,但如果沒有適當(dāng)?shù)姆佬l(wèi)措施,,人工智能將對人類造成難以控制的威脅,。在去年,,他警告稱隨著人工智能逐漸學(xué)習(xí)著為自己考慮,并且更加適應(yīng)環(huán)境,,人類正面臨著不確定的未來,。他警告稱,機(jī)器人會以比人類快得多的速度進(jìn)化,,它們的最終目標(biāo)將無法預(yù)測,。
霍金也不是唯一持有悲觀態(tài)度的人,伊隆·馬斯克將人工智能的發(fā)展比作“召喚惡魔”,。這位特斯拉的創(chuàng)始人此前就發(fā)出警告,,稱人工智能技術(shù)有朝一日會比核武器更加可怕。
機(jī)器人叛亂(超級智能機(jī)器),,從技術(shù)發(fā)展的方向來看,,是可行的,并且,,從利益代理機(jī)制的脆弱性來看,,機(jī)器人一旦獲得接近人的智能,背叛(人的)委托甚至可以認(rèn)為將難以避免,。
美國路易斯維爾大學(xué)的計算機(jī)學(xué)家雅波爾斯基認(rèn)為:“現(xiàn)在人類必須要特別防范人工智能系統(tǒng)進(jìn)行自我進(jìn)化或與其他機(jī)器人交流,。”
現(xiàn)在,,美國一批電腦工程師已經(jīng)構(gòu)想出一款專門對付造反機(jī)器人的“電子監(jiān)獄”軟件系統(tǒng),,其運(yùn)作模式如下:人類先將這套軟件安裝在遙控軍用機(jī)器人或人工智能裝置的操作系統(tǒng)內(nèi),然后,,該軟件就會嚴(yán)密監(jiān)視軍用機(jī)器人或人工智能裝置的一舉一動,,察看它們是否干了不正常勾當(dāng),如“偷偷聯(lián)網(wǎng),,向其他機(jī)器人或者人類發(fā)送不正常訊息,。”一旦察覺機(jī)器人圖謀不軌,,或人工智能裝置正在自我進(jìn)化,,“電子監(jiān)獄”就會立即切斷它們與外部互聯(lián)網(wǎng)的一切聯(lián)系,并把它們的運(yùn)行系統(tǒng)鎖死,,使其徹底癱瘓,,這就仿佛把機(jī)器人扔進(jìn)了一座虛擬的電子死牢。
不過,,如果機(jī)器人或人工智能裝置真的“覺醒”,,那它們“會以人類難以想象的方式出牌,你不能把它們作為電腦病毒來處理,?!币灿腥颂嶙h:一旦超級人工電腦或機(jī)器人叛亂,,那切斷它們的電源不就行了嗎?雅波爾斯基認(rèn)為:這種方法同樣難以阻止人工電腦,它可能會使手段收買人類,。
只有尋找新的方法,,在人工智能、超級機(jī)器逐漸融合為超級智能時,,人類才可能應(yīng)對機(jī)器人叛亂,,獲得對前途命運(yùn)的控制,。