來源:法治日報 | 2023年04月10日 06:28:44 原標題:平衡科技創(chuàng)新與隱私保護 多國計劃加強對ChatGPT監(jiān)管圖為2022年11月7日,在第五屆進博會技術(shù)裝備展區(qū)的人工智能專區(qū),,體驗者借助VR頭戴設備感受在虛擬工作空間“隔空擊掌”,。新華社記者侯俊 攝 □ 法治日報記者 王衛(wèi) 4月3日,德國聯(lián)邦數(shù)據(jù)保護專員烏爾里?!P爾伯稱,,出于對數(shù)據(jù)安全保護的考量,德國可能會效仿意大利,,暫時禁用ChatGPT,。他透露,禁用該軟件的行為將屬于德國聯(lián)邦數(shù)據(jù)保護機構(gòu)的職權(quán)范圍,。此外,,德國聯(lián)邦數(shù)據(jù)保護機構(gòu)要求意大利監(jiān)管機構(gòu)提供有關(guān)其阻止ChatGPT的更多信息。 專家指出,,推出兩個月即擁有1億活躍用戶,,ChatGPT成為歷史上增長最快的消費者應用程序。固然ChatGPT在實際使用中表現(xiàn)驚艷,,然而囿于大規(guī)模語言模型自身,、數(shù)據(jù)原因等局限,仍存在成本高昂,、信息泄露等劣勢,。如何平衡科技創(chuàng)新與隱私保護仍需各方不斷探索。 多國跟進限制措施 近期,,多國對ChatGPT的不滿、恐慌,、抵觸等負面情緒正持續(xù)發(fā)酵,。 路透社報道稱,意大利個人數(shù)據(jù)保護局(DPA)近日宣布從3月31日起禁止使用ChatGPT,,限制OpenAI處理意大利用戶信息數(shù)據(jù),,同時對其隱私安全問題立案調(diào)查。此舉引發(fā)多國監(jiān)管機構(gòu)和企業(yè)的關(guān)注,,德國,、法國、愛爾蘭等國家已開始準備效仿意大利的做法,加強對ChatGPT的監(jiān)管,。 德國《商報》4月3日援引烏爾里?!P爾伯的話稱,原則上,,類似屏蔽行動在德國也是可能的,。德國已要求意大利提供有關(guān)其禁令的進一步信息。 與此同時,,據(jù)英國路透社報道,,法國和愛爾蘭的個人數(shù)據(jù)監(jiān)管機構(gòu)已經(jīng)和意大利的同行取得聯(lián)系,以了解更多有關(guān)該禁令的依據(jù),。愛爾蘭數(shù)據(jù)保護機構(gòu)(DPC)的一位發(fā)言人說:“我們正與意大利監(jiān)管機構(gòu)跟進以了解他們采取行動的依據(jù),,我們將與所有歐盟數(shù)據(jù)保護機構(gòu)協(xié)調(diào)此事?!?/p> 加拿大廣播公司(CBC)4月4日報道稱,,加拿大聯(lián)邦隱私監(jiān)管機構(gòu)宣布,已經(jīng)對OpenAI展開調(diào)查,,因為該公司涉嫌“未經(jīng)同意收集,、使用和披露個人信息”。報道同時提到,,美國總統(tǒng)拜登及其科技顧問委員會在當日舉行的會議上也討論了人工智能的“風險和機遇”,。 據(jù)韓國《國民日報》4月3日報道,包括三星,、SK海力士,、浦項制鐵公司在內(nèi)的多家韓企正在采取限制使用ChatGPT的措施,嚴防員工泄密,。LG電子公司雖然未發(fā)出禁令,,但要求員工進行“人工智能及數(shù)據(jù)使用”方面的培訓。 另據(jù)日經(jīng)新聞網(wǎng)報道,,出于對信息泄露的擔憂,,包括軟銀、日立,、富士通,、三菱日聯(lián)銀行和三井住友銀行在內(nèi)的日本公司已開始限制在業(yè)務運營中使用ChatGPT等交互式人工智能服務。 但瑞典的隱私監(jiān)管機構(gòu)表示,,目前還沒有禁止ChatGPT的計劃,,也沒有與意大利的監(jiān)管機構(gòu)取得過聯(lián)系。西班牙的監(jiān)管機構(gòu)稱,,尚未收到任何有關(guān)ChatGPT隱私泄露或是其他方面的投訴,,不過并不排除未來展開調(diào)查的可能性。 涉嫌信息泄露風險 這并不是ChatGPT第一次引發(fā)爭議。自從該服務推出后,,就有人擔心它會被用來作弊,、傳播假消息或誤導公眾。 ChatGPT由美國人工智能研究實驗室OpenAI于2022年11月30日推出,,具備非常驚艷的語言理解,、生成、知識推理能力,。據(jù)報道,,推出后短短幾天內(nèi),其注冊用戶超過100萬,,兩個月活躍用戶數(shù)已達1億,,引爆全網(wǎng)熱議,成為歷史上增長最快的消費者應用程序,,掀起了人工智能領(lǐng)域的技術(shù)巨浪,。但不可否認的是,當ChatGPT運用更為廣泛的同時,,與之相對應的疑問和擔憂也接踵而至,。 業(yè)界認為,ChatGPT目前技術(shù)尚處于早期階段,,其自身存在較多問題,。首先,身為大規(guī)模語言模型,,ChatGPT使用成本高昂,。ChatGPT基礎(chǔ)大模型訓練成本高、部署困難,、每次調(diào)用花費不菲,,還可能有延遲問題,對工程能力有很高的要求,。數(shù)據(jù)顯示,,OpenAI為了讓ChatGPT的語言合成結(jié)果更自然流暢,共用了45TB的數(shù)據(jù),、近1萬億個單詞來訓練模型,。這大概相當于1351萬本牛津詞典。訓練一次的費用高達千萬美元,。 其次,,人工智能技術(shù)在信息泄露等方面的社會性風險,,會因為使用的龐大數(shù)據(jù)規(guī)模被進一步放大,。對于司法工作而言,在司法人員和ChatGPT交互過程中,ChatGPT會獲取大量業(yè)務相關(guān)數(shù)據(jù),,這些數(shù)據(jù)在案件未符合司法公開條件之前,,不能隨意公開,一旦發(fā)生數(shù)據(jù)泄露,,可能導致嚴重后果,。此外,OpenAI的使用條款并未對用戶可能輸入ChatGPT的數(shù)據(jù)信息提供任何保護,。 再次,,ChatGPT準確率不高的問題不容忽視。由于ChatGPT的大部分答案都是從已知內(nèi)容中摘錄或搜集而來,,對于未知的或者ChatGPT知識的盲區(qū),,則可能會給出錯誤或者不恰當?shù)慕ㄗh意見。比如,,司法工作人員在辦案工作中常常需要兼顧“天理國法人情”,,需要考量辦案的法律效果社會效果政治效果的統(tǒng)一,具有一定的人性化思考,,而這些往往是人工智能有所欠缺和不足的,,因此,此時ChatGPT給出的建議,,會存在一定程度的偏頗,。 數(shù)據(jù)安全任重道遠 對于ChatGPT暴露出的相關(guān)風險,歐盟對個人數(shù)據(jù)的保護走在前列,。據(jù)報道,,歐盟即將出臺的《人工智能法案》采取了一種基于風險程度對人工智能系統(tǒng)進行分類管理的監(jiān)管思路。但是,,類似ChatGPT這樣的生成式人工智能產(chǎn)品對當前的風險分類方法提出了挑戰(zhàn),。 事實上,歐盟委員會早在2021年便提出了《人工智能法案》條例草案,,不過提案的推進并沒有預想中順利,。歐洲議會議員們爭議的核心是監(jiān)管是否會阻礙創(chuàng)新,即如何平衡數(shù)據(jù)隱私與避免扼殺人工智能的創(chuàng)新和投資,。其中最具爭議的領(lǐng)域是決定哪些人工智能系統(tǒng)將被歸為“高風險”,。有知情者透露,歐洲立法者目前正就多方面限制“高風險”AI工具的新規(guī)則進行磋商,。 不僅歐洲議會議員們尚未就提案基本原則達成一致,,政府內(nèi)部也引發(fā)了監(jiān)管ChatGPT與否的爭議。 4月2日,,意大利副總理兼基礎(chǔ)設施與可持續(xù)交通部長馬泰奧·薩爾維尼在社交平臺上公開發(fā)文,,批評DPA暫時禁止ChatGPT的決定,,稱其屏蔽行為太“過度”了。他稱該監(jiān)管機構(gòu)的行為“太過虛偽”,,這種做法像是沒有常識一樣,,“幾乎所有的在線服務都無法避免涉及隱私問題”。在他看來,,這項禁令可能會損害國家的商業(yè)發(fā)展和科技創(chuàng)新,,希望能快速找到一個解決方案,早日恢復ChatGPT在意大利的使用,。德國政府發(fā)言人同樣認為沒有必要禁止ChatGPT,。 專家表示,一邊是堅決禁用,,一邊是寬容放行,。爭議背后也說明,如何保護公民數(shù)據(jù)隱私,、規(guī)避隱私泄露風險等問題,,將是人工智能與大范圍覆蓋社會生活后,各主體必須要考慮和解決的問題,。過于決絕的“一刀切”做法也不值得提倡,,監(jiān)管政策既要有可商討的彈性空間,也要能讓企業(yè)充分釋放出創(chuàng)新活力,,更重要的是保護好公民的個人數(shù)據(jù)隱私與信息安全,。這不僅是意大利、德國如今面臨的難題,,各國都需要在保護數(shù)據(jù)安全和監(jiān)管防控過度之間做好平衡,,用杠桿支撐起科技創(chuàng)新與隱私保護兩端。 編輯:謝博韜 責任編輯:劉亮 |
|