伴隨席卷全球的ChatGPT熱潮,,第一批受到?jīng)_擊的教育/學(xué)術(shù)界也開始由最初的“如臨大敵”與“嚴厲禁止”,,轉(zhuǎn)而探討如何擁抱并有效規(guī)制新生技術(shù),。 2023年伊始,,全球多家頂級學(xué)術(shù)期刊對ChatGPT采取了嚴厲措施。1月26日,,權(quán)威學(xué)術(shù)期刊《科學(xué)》的主編索普以社論的形式發(fā)文,,宣布正在更新編輯規(guī)則,強調(diào)不能在作品中使用ChatGPT的生成物,。1月24日,,另一份權(quán)威學(xué)術(shù)期刊《自然》也發(fā)文表示,任何人工智能工具都不會被接受為研究論文的署名作者,。 但2023年2月3日,,《自然》發(fā)表的一篇最新評論文章(下稱“最新評論”)口風(fēng)突變,對ChatGPT展示出了擁抱變化的積極態(tài)度,。最新評論稱,,學(xué)術(shù)界對AIGC(人工智能生成式內(nèi)容)技術(shù)的使用是不可避免的,因此,,單純的禁止是不可行的,。 面向未來,最新評論認為,,當(dāng)務(wù)之急是學(xué)術(shù)界應(yīng)就這一潛在的顛覆性技術(shù)的影響開展辯論,,并據(jù)此提出五個關(guān)鍵問題,以及相應(yīng)的建議,。 這一判斷也與近期全球科技巨頭的行動相似:谷歌,、百度跟隨微軟密集發(fā)布類似ChatGPT的聊天機器人項目,也因此引發(fā)資本市場的“ChatGPT旋風(fēng)”,。 《財經(jīng)》通過梳理全球?qū)W界的最新行動,,采訪接觸過ChatGPT的高校研究人員、人工智能治理領(lǐng)域的法律專家,,試圖找到一條最大程度利用新技術(shù)促進學(xué)術(shù)發(fā)展,,并有效規(guī)避“學(xué)術(shù)不端”“署名權(quán)爭議”“缺乏透明度”等問題的可行性路徑。 · 一名在加州大學(xué)伯克利分校就讀的博士候選人向《財經(jīng)》坦言,日常研究沒有使用過ChatGPT及類似的聊天型機器人,。原因在于ChatGPT生成的回答可能會不準確,,這一行為不符合學(xué)術(shù)規(guī)范,擔(dān)心會被學(xué)校退學(xué),,自毀研究前途,。 · 對外經(jīng)濟貿(mào)易大學(xué)數(shù)字經(jīng)濟與法律創(chuàng)新研究中心執(zhí)行主任張欣:ChatGPT在現(xiàn)階段僅能做有限的信息整合和寫作,無法代替深度,、原創(chuàng)性研究,,可以通過開發(fā)甄別和對抗技術(shù)濫用的方法和工具來治理相關(guān)問題。 · 北京大學(xué)法學(xué)院教授薛軍:只要運用得當(dāng),,ChatGPT會是一個積極的工具,。未來學(xué)界應(yīng)當(dāng)形成規(guī)范,要求研究者在論文中披露由ChatGPT生成的內(nèi)容,,避免學(xué)術(shù)不端的風(fēng)險,。 ·南開大學(xué)法學(xué)院副院長陳兵:ChatGPT是具有技術(shù)中性工具,要判斷研究者是否構(gòu)成學(xué)術(shù)不端,,要分析該工具在成果中起到的實質(zhì)作用,。 從“如臨大敵”到“加以利用”最先感受到ChatGPT沖擊的教育業(yè),不斷在近期采取嚴厲措施,,避免“學(xué)術(shù)不端”,。 多個廣為傳播的媒體報道案例顯示,多所美國名校的學(xué)生使用ChatGPT代替自己寫論文或完成考試,,并表現(xiàn)出頂級水平,。 斯坦福大學(xué)校園媒體《斯坦福日報》的一項匿名調(diào)查顯示,大約 17% 的受訪斯坦福學(xué)生(4497名)表示,,使用過 ChatGPT 來協(xié)助他們完成秋季作業(yè)和考試,。斯坦福大學(xué)發(fā)言人迪·繆斯特菲(Dee Mostofi)表示,該校司法事務(wù)委員會一直在監(jiān)控新興的人工智能工具,,并將討論它們?nèi)绾闻c該校的榮譽準則相關(guān)聯(lián),。 在線課程供應(yīng)商Study.com面向全球1000名18歲以上學(xué)生的一項調(diào)查顯示,每10個學(xué)生中就有超過9個知道ChatGPT,,超過89%的學(xué)生使用ChatGPT來完成家庭作業(yè),,48%的學(xué)生用ChatGPT完成小測驗,53%的學(xué)生用ChatGPT寫論文,,22%的學(xué)生用ChatGPT生成論文大綱,。 ChatGPT同樣在某些考試中展示出驚人的能力。 發(fā)表在預(yù)印本網(wǎng)站MedRxiv的一篇文章顯示,,ChatGPT在一項實驗中已經(jīng)接近通過美國醫(yī)學(xué)執(zhí)照考試(USMLE),,而普通的美國醫(yī)學(xué)生需要四年的醫(yī)學(xué)院教育和兩年的臨床輪轉(zhuǎn),,才能通過這一考試。 全球教育界對此的第一反應(yīng)是“如臨大敵”,。 一個廣為傳播的評論來自哲學(xué)家,、語言學(xué)家艾弗拉姆·諾姆·喬姆斯基(Avram Noam Chomsky)。在2023年1月23日的視頻采訪中,,喬姆斯基表示,,ChatGPT本質(zhì)上是“高科技剽竊”和“避免學(xué)習(xí)的一種方式”。 喬姆斯基認為,,學(xué)生本能地使用高科技來逃避學(xué)習(xí)是“教育系統(tǒng)失敗的標志”,。 1月26日,《科學(xué)》通過社論宣布,,正在更新編輯規(guī)則,,強調(diào)不能在作品中使用由ChatGPT(或任何其他人工智能工具)所生成的文本、數(shù)字,、圖像或圖形,。社論特別強調(diào),,人工智能程序不能成為作者,。如有違反,將構(gòu)成科學(xué)不端行為,。 1月24日,,《自然》也發(fā)文表示,由于任何作者都承擔(dān)著對所發(fā)表作品的責(zé)任,,而人工智能工具無法做到這點,,因此任何人工智能工具都不會被接受為研究論文的署名作者。文章同時指出,,如果研究人員使用了有關(guān)程序,,應(yīng)該在方法或致謝部分加以說明。 與此同時,,學(xué)界也開始反思ChatGPT是否“百害而無一利”,。 沃頓商學(xué)院教授克里斯提娜·特維奇(Christian Terwiesch)的一項研究記錄了GPT-3在MBA核心課程《運營管理》的考試中的表現(xiàn)。特維奇發(fā)現(xiàn),,雖然GPT-3在基本運營管理和流程分析問題上做得較好,,非常善于根據(jù)人類的提示來修改其答案。但目前版本的GPT-3無法處理更高級的流程分析問題,,且其數(shù)學(xué)水平相當(dāng)于六年級,,在相對簡單的計算中有時會出現(xiàn)令人驚訝的錯誤。OpenAI從2015年開啟人工智能研究,,此后陸續(xù)推出了語言處理模型GPT-1,、GPT-2,、GPT-3,它們也即ChatGPT的前身,。 特維奇表示,,GPT-3技術(shù)能通過“個性化”“互動”的方式提高MBA教育的學(xué)習(xí)體驗。例如,,生成個性化的學(xué)習(xí)材料,,提供實時反饋,并促進在線討論和小組項目,。特維奇據(jù)此認為,,應(yīng)該允許學(xué)生采用ChatGPT完成作業(yè),但要提高作業(yè)的標準,。 北京大學(xué)法學(xué)院教授薛軍對《財經(jīng)》表示,,只要運用得當(dāng),ChatGPT會是一個積極的工具,。 張欣認為,, ChatGPT在設(shè)計時并不存在主觀惡意意圖,亦沒有明顯的設(shè)計缺陷,。一方面,,ChatGPT可以提高學(xué)術(shù)研究基礎(chǔ)資料的檢索和整合效率。另一方面,,ChatGPT在現(xiàn)階段僅能做有限的信息整合和寫作,,但無法代替深度、原創(chuàng)性的研究,。因此,,ChatGPT可以反向激勵學(xué)術(shù)研究者開展更有深度的研究。 南開大學(xué)法學(xué)院副院長陳兵對《財經(jīng)》分析,,ChatGPT是具有技術(shù)中性的工具,,要判斷研究者是否構(gòu)成學(xué)術(shù)不端,要分析該工具在成果中起到的實質(zhì)作用,。如ChatGPT生成的內(nèi)容僅占文章一小部分,,文章多數(shù)部分為作者獨立完成,且包含其思想和情感,,則可以視為該學(xué)者的智力成果,,并不構(gòu)成學(xué)術(shù)不端;若文章大部分內(nèi)容皆出自ChatGPT生成的內(nèi)容,,且是基于對大量語言數(shù)據(jù)的計算模擬而成,,并不具有現(xiàn)行《著作權(quán)法》中創(chuàng)作作品的構(gòu)成要件,超過了合理限度范圍,,且內(nèi)容并沒有包含該學(xué)者的思想或情感表達,,則可能構(gòu)成學(xué)術(shù)不端,。 但是,如何在利用,、發(fā)揮新技術(shù)優(yōu)勢的同時,,避免落入倫理乃至法律陷阱,仍然需要持續(xù)地探討和實踐,。 探討一:如何解決“學(xué)術(shù)不端”前述最新評論作者提出了五條建議,,以解決ChatGPT可能帶來的“學(xué)術(shù)不端”風(fēng)險。 1. 堅持進行人工驗證,。 2. 制定關(guān)于如何歸責(zé)的標準,。 3. 投資開發(fā)真正開放的大型語言模型。 4. 擁抱人工智能帶來的好處,。 5. 繼續(xù)擴大討論,,鼓勵每個科研團隊甚至本科教學(xué)都嘗試ChatGPT,呼吁建立持續(xù)的,、多元的國際論壇來討論相關(guān)問題,。 對此,薛軍認為,,未來學(xué)術(shù)界應(yīng)當(dāng)形成一種學(xué)術(shù)性規(guī)范,,要求研究者、學(xué)生在論文中披露由ChatGPT生成的內(nèi)容,,避免學(xué)術(shù)不端的風(fēng)險,。 陳兵指出,在技術(shù)層面,,需要基于ChatGPT技術(shù)生產(chǎn)內(nèi)容的邏輯與特征,加強對ChatGPT生成的內(nèi)容的鑒別和識別,。 張欣也建議,,可以“用算法來治理算法,用AI來治理AI”,。此前,,研究者曾基于“深度合成”技術(shù)開發(fā)出甄別對抗技術(shù)濫用的方法和工具。 張欣舉例說,,谷歌開發(fā)了 “Reality Defender”工具,,可掃描用戶瀏覽的圖像、視頻或其他數(shù)字媒介,,標記并報告可疑的偽造內(nèi)容,,檢測經(jīng)篡改的人工合成內(nèi)容。未來,,技術(shù)公司也可以針對性地開發(fā)甄別工具,。 此外,,張欣認為,可以依靠技術(shù)社群和用戶的力量的“眾包治理”來應(yīng)對風(fēng)險,。比如科技巨頭Meta聯(lián)合微軟,、Partnership on AI、MIT等九家機構(gòu)發(fā)起深度合成檢測挑戰(zhàn)賽(Deepfake Detection Challenge),,以眾包思路探索深度合成技術(shù)甄別治理工作,。推特也主辦過算法偏見賞金挑戰(zhàn)賽,為算法偏見識別提供現(xiàn)金獎勵,。 探討二:如何確定“署名權(quán)”面向未來,,一個有待解決的治理爭議是,人工智能能否成為論文作者,。 最新評論認為,,法律界需要弄清楚到底是誰擁有作品的署名權(quán)。是通過人工智能系統(tǒng)訓(xùn)練文本的個人,,還是生產(chǎn)人工智能的公司,,或者是使用該系統(tǒng)來指導(dǎo)他們寫作的科學(xué)家?同時,,必須考慮和界定作者的定義,。 根據(jù)中國《著作權(quán)法》的規(guī)定,在作品上署名的默認為作者,,也視為著作權(quán)人,。除自然人,法人,、其他組織也可以作為擬制人視為作者,,繼而確立著作權(quán)歸屬。法律對于作者也有基本的判斷標準——具有獨創(chuàng)性貢獻,。 薛軍表示,,爭論人工智能是否具有署名權(quán)并非問題的關(guān)鍵。人工智能并非法律意義上的主體,,因此并不存在署名權(quán)的問題,,關(guān)鍵在于學(xué)術(shù)研究者在援引ChatGPT生成的內(nèi)容時要如實披露。 此前北京大學(xué)法學(xué)院教授,、中國法學(xué)會知識產(chǎn)權(quán)法研究會副會長張平曾表示,,對于AI生成物,不應(yīng)再秉持署名權(quán)和著作權(quán)合二為一的原則,。AI署名的目的是聲明該作品是由人工智能而非自然人創(chuàng)作,,標明作品出處,防止人類剽竊人工智能的成果,。張平是在參加對外經(jīng)濟貿(mào)易大學(xué)數(shù)字經(jīng)濟與法律創(chuàng)新研究中心,、《財經(jīng)》商業(yè)治理研究院、財經(jīng)E法共同發(fā)起第四期“數(shù)智說”研討時,,表達上述觀點的,。 張平援引案例表示,AI署名在客觀上有著標識作品來源的功能,,類似于反欺詐和反假冒商標的作用,。比如,谷歌的AlphaDog,,微軟的小冰,,騰訊的Dreamwriter等,都在其人工智能作品上署機器人和算法的名字,,已經(jīng)有馳名商標的功能,。 此外,張平認為,,AI生成物的著作權(quán)界定也可以借鑒其他知識產(chǎn)權(quán)法理模式,。比如,《專利法》中的發(fā)明人署名與專利權(quán)歸屬無關(guān),。也可以認為,,在作品上署名的是作者但不一定是著作權(quán)人,著作權(quán)人可以通過權(quán)利標注符號另行標注,。而目前《著作權(quán)法》規(guī)定,,視聽作品的著作權(quán)歸屬通過合同約定的模式,也是一種可選方案,。 陳兵也認為,,從學(xué)術(shù)規(guī)范層面,可通過“署名”對ChatGTP生成物進行標識,,以避免學(xué)術(shù)著作中濫用該技術(shù),。 陳兵說解釋,在權(quán)責(zé)劃分上,,可根據(jù)不同主體對生成內(nèi)容價值的作用大小進行劃分。譬如ChatGTP生成內(nèi)容的價值源于其設(shè)計者算法的巧妙設(shè)計,,則設(shè)計者擁有ChatGTP生成著作的權(quán)利,,工具使用者不得濫用或者非法使用ChatGTP生成內(nèi)容。若ChatGPT的最終生成內(nèi)容是經(jīng)由工具使用者反復(fù)調(diào)適,,輸入變量等操作,,使生成內(nèi)容的價值遠大于其在一般運行狀態(tài)下生成的內(nèi)容,則工具的使用者可以享有著作權(quán),。 探討三:如何解決“缺乏透明度”問題學(xué)術(shù)界擔(dān)憂的另一問題是大型語言模型缺乏透明度,。 最新評論指出,,ChatGPT及其前身基礎(chǔ)訓(xùn)練集和大型語言模型是不公開的??萍脊究赡軙[瞞其對話式人工智能的內(nèi)部運作,這與透明和開放的科學(xué)原則背道而馳,。 對此,,張欣認為,,雖然學(xué)術(shù)界希望科技公司盡可能開放代碼,但算法在實踐層面只能在合理范圍內(nèi)展現(xiàn)透明度,。當(dāng)代碼開放可能涉及算法的“算計”,,即引發(fā)算法安全漏洞和算法攻擊行為的時候,,開放并非是明智之舉,。再加上代碼本身涉及到商業(yè)秘密和知識產(chǎn)權(quán),,所以難以要求科技公司全部公開模型信息,。 陳兵認為,ChatGPT的透明度缺乏涉及算法偏見,、算法黑箱帶來的人工智能算法生成內(nèi)容不公正、不健康的問題,,但要解決上述問題并不宜直接公開其模型,,OpenAI對于內(nèi)部運作機制適當(dāng)?shù)碾[瞞是有必要的,。此外,,通過開放應(yīng)用接口等形式進行部分開源,,具有非常大的商業(yè)價值,也可推動算法解釋權(quán),,僅需對算法作出決策所依據(jù)的基本規(guī)則和標準進行闡述即可,。 薛軍表示,缺乏透明度涉及到算法監(jiān)管,。目前歐盟,、美國都在制定人工智能相關(guān)的規(guī)制框架,,其目的是基于人工智能產(chǎn)生的風(fēng)險類型進行不同程度的管制,。但由于ChatGPT的算法目前是不公開的,,這就會對相關(guān)規(guī)制框架的應(yīng)用造成一定的限制。薛軍分析說,目前ChatGPT技術(shù)路線還處于競爭的早期階段,什么時間真正開放,,各個國家和地區(qū)可能還會有一些差別,。 “目前,,中國的百度,、阿里都在跟進這一技術(shù),,漢語語境下的模型可能與英語語境下的模型有所不同,,未來這一領(lǐng)域的技術(shù)競爭可能還會更加深入,?!毖娬f,。 |
|