我們正處在第四次工業(yè)革命,,其特點(diǎn)是機(jī)器人和自駕車(chē)技術(shù)的進(jìn)步,,智能家電的泛濫等等。所有這些最前沿的是人工智能(AI),,也是自動(dòng)化計(jì)算機(jī)系統(tǒng)的發(fā)展,,可以匹配甚至超過(guò)人類(lèi)的智力。 你的自動(dòng)駕駛可能會(huì)編程殺死你 假設(shè)你正在開(kāi)車(chē),,然后,,一群小孩突然出現(xiàn)在你的車(chē)前。你踩剎車(chē),,但他們不工作?,F(xiàn)在,你有兩個(gè)選擇:第一個(gè)是開(kāi)過(guò)去,,拯救你的生命,。第二個(gè)是轉(zhuǎn)入附近的墻壁或柱子,從而拯救孩子,但是卻要?dú)⑺雷约?。你?huì)選哪個(gè),?自動(dòng)駕駛汽車(chē)會(huì)怎么做? 戴姆勒公司的一位高管曾經(jīng)表示,,他們的自動(dòng)駕駛汽車(chē)將“不惜一切代價(jià)保護(hù)乘客”,。然而,奔馳駁斥這一點(diǎn),,稱(chēng)他們的車(chē)輛是為確保這種困境不會(huì)發(fā)生,。這回答模棱兩可,因?yàn)槲覀兌贾肋@種情況將會(huì)發(fā)生,。谷歌在這方面干凈利落,,說(shuō)自動(dòng)駕駛的汽車(chē)將避免撞到?jīng)]有保護(hù)措施的道路使用者和搬運(yùn)東西的人。這意味著汽車(chē)會(huì)撞上柱子并殺死駕駛員,。谷歌進(jìn)一步澄清說(shuō),,即將發(fā)生的事故,其自動(dòng)駕駛汽車(chē)會(huì)擊中任何兩輛車(chē)中較小的一輛,。事實(shí)上,,谷歌自駕車(chē)可能會(huì)一直在尋找更小的物體。 機(jī)器人可能需要像人類(lèi)一樣的權(quán)利 隨著人工智能的蓬勃發(fā)展,,機(jī)器人有可能達(dá)到自我實(shí)現(xiàn)的階段,。當(dāng)這種情況發(fā)生時(shí),他們可能會(huì)像對(duì)待人類(lèi)一樣要求自己的權(quán)利,。也就是說(shuō),,他們需要住房和醫(yī)療保健的好處和要求被允許投票、在軍隊(duì)服務(wù)并被授予公民身份,。作為回報(bào),,政府會(huì)讓他們納稅,。這是否意味著機(jī)器人將在40年左右開(kāi)始申請(qǐng)公民身份,?這個(gè)答案只有時(shí)間會(huì)給出。 機(jī)器將接管我們的工作 毫無(wú)疑問(wèn),,機(jī)器人將會(huì)在有一天接管我們的工作,。但是,我們并不確定他們什么時(shí)候開(kāi)始會(huì)接管,,接管到什么程度呢,?機(jī)器人在日本占有超過(guò)21%的就業(yè)機(jī)會(huì),在英國(guó)占30%,,在德國(guó)占35%,,在美國(guó)占38%。到2030年,他們將接管超過(guò)一半的可用于人類(lèi)的工作,。受影響最大的部門(mén)將是運(yùn)輸和倉(cāng)儲(chǔ),,其中56%的勞動(dòng)力將是機(jī)器人。其次是制造業(yè)和零售業(yè),,機(jī)器人將占所有可用工作崗位的46%和44%,。談到“何時(shí)”,據(jù)推測(cè),,到2027年,,機(jī)器將駕駛卡車(chē),并在2031年之前配備零售商店,。到2049年,,他們將會(huì)寫(xiě)書(shū),到2053年,,他們將進(jìn)行手術(shù),。只有很少的職業(yè)會(huì)免于機(jī)器的入侵。一個(gè)是教會(huì)牧師的角色,,這個(gè)牧師會(huì)保持自由,,不是因?yàn)闄C(jī)器不能經(jīng)營(yíng)教會(huì),而是因?yàn)榇蠖鄶?shù)人不會(huì)贊成被機(jī)器人傳教,。 人工智能將超越人類(lèi)的推理和智力 人工智能分為兩類(lèi):強(qiáng)弱AI,。我們周?chē)娜斯ぶ悄鼙涣袨槿魽I。這其中包括智能助理和計(jì)算機(jī)等高級(jí)人工智能,。人工智能的強(qiáng)弱之處在于能夠理智和行為像人一樣,。弱AI一般按照他們的計(jì)劃去做,不管這個(gè)任務(wù)在我們看來(lái)有多復(fù)雜,。另一方面,,強(qiáng)大的人工智能具有人類(lèi)的意識(shí)和推理能力。它不受其編程范圍的限制,,可以決定在沒(méi)有人工輸入的情況下做什么和不做什么,。目前還不存在強(qiáng)大的人工智能,但是科學(xué)家預(yù)測(cè)他們應(yīng)該在十年左右的時(shí)間內(nèi),。 AI可以摧毀我們 比爾·蓋茨認(rèn)為人工智能會(huì)變得太聰明,,無(wú)法控制。斯蒂芬霍金也有同樣的觀(guān)點(diǎn),。他不認(rèn)為AI會(huì)突然在一夜之間瘋狂,。相反,他相信機(jī)器會(huì)毀了我們,,因?yàn)樗麄冏鍪裁炊寄軇偃?。我們與人工智能的沖突將從他們的目標(biāo)不再與我們一致的那一刻開(kāi)始,。伊隆·馬斯克(Elon Musk)把AI的擴(kuò)散與“召喚魔鬼”相比較。他認(rèn)為這是對(duì)人類(lèi)最大的威脅,。為了防止AI的對(duì)人類(lèi)的威脅,,他建議政府在營(yíng)利性公司做“非常愚蠢的事情” 之前就開(kāi)始規(guī)范AI的發(fā)展。(科技新發(fā)現(xiàn) 康斯坦丁/文) |
|
來(lái)自: 科幻星系 > 《待分類(lèi)》