【據(jù)ArsTechnica網(wǎng)站2023年5月18日報(bào)道】5月17日,,美國OpenAI公司首席執(zhí)行官山姆·阿爾特曼在美國參議院司法委員會(huì)隱私,、技術(shù)與法律小組委員會(huì)舉行的聽證會(huì)上表示,,考慮到人工智能技術(shù)存在的潛在危險(xiǎn),,立美國國會(huì)應(yīng)對開發(fā)先進(jìn)人工智能系統(tǒng)(如OpenAI的GPT-4)的企業(yè)或組織實(shí)施授權(quán)許可與其他法規(guī)要求。 “我們認(rèn)為,,政府的監(jiān)管干預(yù)對于減輕日益強(qiáng)大的模型的風(fēng)險(xiǎn)至關(guān)重要,。”阿爾特曼指出,,“例如,,美國政府可以會(huì)考慮將開發(fā)和發(fā)布超過能力閾值的人工智能模型的許可和測試要求相結(jié)合,。” 雖然阿爾特曼經(jīng)常鼓吹人工智能的好處,,但他在聽證會(huì)上表示,,OpenAI公司“非常擔(dān)心”選舉會(huì)受到人工智能生成的內(nèi)容的影響?!拌b于我們明年將面臨選舉,,而且這些人工智能模型正在變得更好,我認(rèn)為這是一個(gè)值得關(guān)注的重要領(lǐng)域……我確實(shí)認(rèn)為在這一話題上進(jìn)行監(jiān)管是非常明智的”,。 在聽證會(huì)上,,阿爾特曼建議國會(huì)成立一個(gè)新的機(jī)構(gòu),對“超過一定能力飛”人工智能技術(shù)進(jìn)行授權(quán),。在人工智能系統(tǒng)向公眾發(fā)布前,,應(yīng)該“由專家進(jìn)行獨(dú)立審計(jì),以判斷該模型是否符合這些規(guī)定的安全閾值以及在各類問題中的百分比”,。 阿爾特曼指出,,“能夠說服,、操縱,、影響一個(gè)人的行為和信仰”或“幫助創(chuàng)造新的生物制劑”的人工智能模型需要獲得許可,“我認(rèn)為,,如果這項(xiàng)技術(shù)出了問題,,它可能會(huì)出很大的問題,我們對此直言不諱,。我們希望與政府合作,,防止這種情況發(fā)生?!?/p> |
|