3月29日,,國際知名安全組織生命未來研究院(FLI)以人工智能具有潛在的社會(huì)和人類危害為理由,要求世界各地的科研機(jī)構(gòu)停止對(duì)GPT-4以上的人工智能進(jìn)行訓(xùn)練,,直到該訓(xùn)練方案得到獨(dú)立專家的認(rèn)可,、實(shí)施和審核。隨后,,馬斯克,,以及蘋果公司的聯(lián)合創(chuàng)始人斯蒂夫·沃茲尼亞克,以及上千名人工智能領(lǐng)域的專家和高層,,都在這份聲明上簽了字,。然而就在不久前,,楊立昆、吳恩達(dá)兩位大佬,,卻是為馬斯克開了一次直播,,“懟”了那句“人工智能項(xiàng)目暫停半年以上”的話。楊立昆是“卷積法”的之父,,他是“圖靈三杰”中的一員,,吳恩達(dá)則是“谷歌之腦”的設(shè)計(jì)師和締造者,以及“Coursera”這個(gè)全球最大的網(wǎng)絡(luò)教育平臺(tái)的創(chuàng)建者,。他們?cè)谥辈ブ兄毖圆恢M,,“人工智能的研究,如果被暫停半年,,那才是巨大的傷害,。人工智能產(chǎn)品才是被管制的對(duì)象,而不是被控制的對(duì)象,?!彼麄兊暮诵挠^點(diǎn)如下:1.人工智能已經(jīng)為教育,醫(yī)療,,以及其他許多領(lǐng)域帶來了極大的價(jià)值,,并幫助了許多人。中止人工智能研究會(huì)帶來許多危害,,降低人們創(chuàng)造有價(jià)值的東西的速度,。2..對(duì)于將來的人工智能系統(tǒng),我們將提出一些新思路,,讓它們更加容易操控,,而不是象 ChatGPT、GPT-4等已有的自回歸模式,。3.人工智能世界末日理論,,或者人工智能末日說,實(shí)際上都是夸大其詞,。人工智能將在各個(gè)領(lǐng)域超過我們?nèi)祟?,這是遲早的事,但是不會(huì)是明天,。4.有些規(guī)制,,只要運(yùn)作得當(dāng),未必就是一件壞事情,。但一種科技,,一種還沒有開發(fā)出來的科技,是無法被監(jiān)管的。一種新技術(shù)的誕生,,首先要使其產(chǎn)生最大的正面效應(yīng),,減少其消極效應(yīng),但是,,這并不代表我們就會(huì)停止對(duì)其進(jìn)行技術(shù)開發(fā),。5.假設(shè)一個(gè)人工智能系統(tǒng)想要支配人類,這是不切實(shí)際的,,因?yàn)橹浔仨氁幸粋€(gè)目的,。這種動(dòng)機(jī)在人類以及一些其他社會(huì)性物種中存在,但在非社會(huì)性物種中并不存在,,我們完全可以把AI設(shè)計(jì)成非社會(huì)化物種,,設(shè)計(jì)成非支配性、順從的,,或者遵守特定規(guī)則以符合人類整體的利益,。
|