,ChatGPT與學(xué)術(shù)倫理馬佰蓮 復(fù)興文庫Revitalization Library 2023-04-21 16:09 發(fā)表于山東一,、ChatGPT是什么 2023年無疑是生成式人工智能的爆發(fā)之年,。Chat-GPT作為具有思考力的聊天機器人,基于GPT-3.5架構(gòu)的大型語言模型展開強化學(xué)習(xí)和訓(xùn)練,,功能強大,,被認(rèn)為是人工智能語言處理領(lǐng)域的一項重要技術(shù)突破,。并且因為其“更像人類一樣說話”,擺脫了上一代人工智能明顯的“機器話”,,所以也被稱為“有史以來向公眾發(fā)布的最好的人工智能聊天機器人”,。它的問世意味著我們正告別弱人工智能時代,進入強人工智能時代,。比爾·蓋茨盛贊ChatGPT的出現(xiàn)“不亞于互聯(lián)網(wǎng)誕生”,,表征了人類科技進步的“智慧之果”?! hatGPT的優(yōu)勢有以下幾點:第一,,超強的寫實能力。ChatGPT之所以能夠在極短時間內(nèi)快速吸引億萬級活躍用戶,,原因就在于其擁有超強的寫實能力,。它通過攜帶工具有效地在現(xiàn)實中發(fā)揮作用,解決了計算機視覺,、自然語言理解以及處理真實世界中的意外情況等關(guān)鍵性問題,。第二,強大的邏輯或智能問答,。在龐大數(shù)據(jù)庫或語料庫“有聯(lián)系的整體”的基礎(chǔ)上,,基于強大的自然語言生成式模型,ChatGPT的“自然語言處理”(NLP)模型克服了上一代智能機器人語言表達中的“非自然語言生成式”的“人化”“人話”程度不夠的缺陷,,使其具有擬人化的風(fēng)格,,從而能夠提供更快速、更高效,、更人性化的語言文本服務(wù),,真正做到“有問必答”。第三,,出色的文本寫作和藝術(shù)“創(chuàng)作”功能,。借助人類編寫的大量文本語料庫,ChatGPT的“生成式語言模型”可以模擬人類寫作,,出色地產(chǎn)生人們所需要的文本,;OpenAI開發(fā)的圖片生成模型(DALL-E)和ChatGPT結(jié)合,可以進行精彩的藝術(shù)“創(chuàng)作”,。作為ChatGPT伴侶的DALL-E標(biāo)志著人工智能可以自發(fā)地根據(jù)文字設(shè)置的要求自動生成圖畫,,并向藝術(shù)界滲透。作為全新的創(chuàng)作輔助工具,,DALL-E可以快速生成大量設(shè)計概念和創(chuàng)意圖片,,幫助設(shè)計者進一步試驗或改進工作。第四,高效的科研助手,。ChatGPT擁有強大的信息檢索和處理功能,,可以幫助研究人員高效地處理和分析數(shù)據(jù),快速地實現(xiàn)專門信息獲取,,進而推動新見解,、新價值與新發(fā)現(xiàn)的提出,進一步加深人類對世界的理解,。人們可以運用ChatGPT來草擬論文提綱,、整理冗雜的資料,它是搜索引擎,、翻譯助手,、寫作神器,甚至是寫代碼的幫手,、無聊時解悶的“朋友”,。第五,改革學(xué)習(xí)和教育生態(tài),。ChatGPT的問世極大地影響了包括教育,、醫(yī)療在內(nèi)的許多領(lǐng)域。ChatGPT作為多功能自然語言處理工具將會改變現(xiàn)代教育生態(tài)與學(xué)術(shù)生態(tài),。如可以幫助學(xué)生快速取得問題的答案,、撰寫論文甚至輕松生成報告,節(jié)省了原本用于研究的時間和精力,;為學(xué)生提供豐富的信息,,拓寬其知識面,擴展對各類主題的理解等,。第六,,初步的道德判斷力。ChatGPT道德倫理的認(rèn)知能力來源于對語料庫的深度學(xué)習(xí)和“反思”,,上一代AI不具備道德倫理認(rèn)知力,,但ChatGPT可以通過其學(xué)習(xí)到的倫理價值判斷,,去驗證使用者的提問是否合法合規(guī),,或是否符合道德倫理規(guī)則?! hatGPT的局限性表現(xiàn)如下:第一,,ChatGPT不具有人類的思考能力或道德倫理價值。ChatGPT在回答問題時有時表現(xiàn)出道德警覺,,但它不具備人的社會化發(fā)展過程中形成的自我意識的人格和人類的身體,。或者說ChatGPT只有數(shù)字共同體中的“數(shù)字化人格”,,“沒有情感,、意識或個性,,只是一個回答問題的工具”。第二,,ChatGPT沒有完整意義上的“自我”,。數(shù)字空間的“自我”是自身沒有情感認(rèn)知或人格的“數(shù)字化身份”?!拔摇敝皇且粋€語料庫中的“代碼”,。第三,ChatGPT是一個需要無限吞噬數(shù)據(jù)或投放語料庫的“科技怪胎”,。ChatGPT要求語料庫足夠大,、模型量級不斷提升、資訊即時更新,,以便在數(shù)據(jù)多樣性與更高質(zhì)量的訓(xùn)練數(shù)據(jù)中進一步篩選出可為使用者提供的全面準(zhǔn)確的回答,。第四,ChatGPT的寫作和對話是一種“所見即所得”,。ChatGPT學(xué)習(xí)力越強,、涉獵認(rèn)知范圍越廣,學(xué)習(xí)成績更好,、回答問題更全面,。也就是說ChatGPT的寫作和對話,強烈依賴于語料庫資源的全面性,、準(zhǔn)確性,、深刻性、嚴(yán)謹(jǐn)性等和計算方法,。第五,,ChatGPT“一本正經(jīng)地胡說八道”。ChatGPT可以通過算法,,對大量文本內(nèi)容和語言知識進行學(xué)習(xí),,并根據(jù)用戶的輸入,生成人類可讀的文本語言并輸出,。但ChatGPT并不真正理解其所生成的知識內(nèi)容,,無法作出是非善惡的判斷,而且有時會產(chǎn)生荒謬的錯誤或隨意編造內(nèi)容,,缺乏批判性思考,。 二,、ChatGPT帶來的倫理挑戰(zhàn) ChatGPT在知識服務(wù)及陪伴型服務(wù)等方面學(xué)習(xí)的“超能力”,,在深刻改變媒體內(nèi)容生產(chǎn)方式,提升行業(yè)生產(chǎn)效率的同時,也引發(fā)了諸多倫理考量,,使得由人工智能催生的學(xué)術(shù)倫理問題研究的迫切性,、系統(tǒng)性和使命感日益凸顯?! ∈紫?,誠信或侵犯知識產(chǎn)權(quán)問題。AI模型可以快速復(fù)制已有學(xué)術(shù)文獻,,其復(fù)制的文獻沒有出處,、沒有正確性的考證來源,ChatGPT會不斷產(chǎn)生其認(rèn)為的客觀答案,,生成虛假的學(xué)術(shù)文本,。這對學(xué)術(shù)道德的影響是深遠(yuǎn)的,特別是對過于依賴自動生成的知識文本的人而言,。第二,,數(shù)據(jù)濫用或?qū)χR的不完整性采用,為錯誤信息的傳播埋下風(fēng)險和隱患,。如提供誤導(dǎo)內(nèi)容和虛假信息,,提供不道德的決策建議等。ChatGPT生成文本的深刻性與訓(xùn)練數(shù)據(jù)質(zhì)量及系統(tǒng)解讀能力有關(guān),,數(shù)據(jù)偏見性也會影響生成內(nèi)容的深刻性,。第三,法律安全或道德倫理問題,。預(yù)訓(xùn)練所用數(shù)據(jù)來源不透明,、政治立場上“選邊站隊”,甚至在用戶的引導(dǎo)下寫出“毀滅人類計劃書”等使得ChatGPT開始頻頻陷入爭議,。這其中涉及到的政治歧視,、個人隱私、機密信息安全問題值得深思,。第四,,智能機器作者是否具備署名權(quán)、人工智能機器生成的文章能否被規(guī)范引用等相關(guān)問題,。在人們驚嘆于ChatGPT信息搜索和文本生成能力的同時,,其背后知識產(chǎn)權(quán)的質(zhì)疑聲也隨之而來。第五,,人的主體性弱化問題,。智能和自動化系統(tǒng)在人工智能的部署中往往會迫使人被動地適應(yīng)智能化和自動化,,智能系統(tǒng)的運作預(yù)設(shè)不是使機器人性化,,而是讓人越來越機器化,從而使得人的自主性在不經(jīng)意間被剝奪。第六,,教育生態(tài)和教育公平問題,。由于ChatGPT能夠生成極具說服力且復(fù)雜的文本,學(xué)生可能會使用該模型制作本不屬于其自身的作品,,由此導(dǎo)致抄襲,、剽竊等行為的出現(xiàn),進而影響教育和學(xué)術(shù)生態(tài),。同時,,Chat-GPT的使用也引發(fā)有關(guān)評估公平性的倫理問題。假如學(xué)生使用ChatGPT生成作品,,而教育者又把它作為評估學(xué)生的能力和知識的依據(jù),,就會影響平等競爭環(huán)境的構(gòu)建,部分學(xué)生可能擁有不公平性優(yōu)勢,?! ∪⑷绾螒?yīng)對ChatGPT帶來的倫理挑戰(zhàn) ChatGPT的進一步發(fā)展,,有望演變?yōu)槠胀ㄈ巳粘I钪械娜斯ぶ悄苤?,成為解答問題、辨別是非乃至區(qū)分善惡的重要工具,。但需要注意的是,,在使用ChatGPT的過程中要遵循基本的學(xué)術(shù)倫理規(guī)范,以確保學(xué)術(shù)的真實性和公正性:一方面,,人類應(yīng)成為最終的知識權(quán)威,;另一方面,人工智能應(yīng)更多地作為人的智能助手,,而不是一味用智能化和自動化取代人的工作和替代人的技能,。解決ChatGPT帶來的倫理問題,重點是要抓好立法,、技術(shù)和教育三個環(huán)節(jié),,立法是關(guān)鍵,技術(shù)是保障,,教育是基礎(chǔ),。 一是要加大立法管制,。在倫理規(guī)則方面,,2021年9月25日,國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能倫理規(guī)范》,,包括總則,、特定活動倫理規(guī)范和組織實施等內(nèi)容,,提出“將倫理道德融入人工智能研發(fā)和應(yīng)用的全生命周期”。2021年12月31日,,由國家互聯(lián)網(wǎng)信息辦公室,、工業(yè)和信息化部、公安部,、國家市場監(jiān)督管理總局聯(lián)合發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,,對于加快構(gòu)建完善的AI監(jiān)管法律法治框架、明確監(jiān)管機構(gòu)具有重要意義,。2022年9月,,深圳、上海先后發(fā)布了《深圳經(jīng)濟特區(qū)人工智能產(chǎn)業(yè)促進條例》《上海市促進人工智能產(chǎn)業(yè)發(fā)展條例》,,人工智能立法在地方先行嘗試,。對于未來的算法監(jiān)管,要用人工智能來應(yīng)對人工智能,,加強AI監(jiān)管能力方面的投入,。“應(yīng)該清晰地畫出底線,,比如國家安全的數(shù)據(jù)不能碰,,一些企業(yè)內(nèi)部的信息不能碰,公民的個人隱私不能碰,?!薄 《羌訌娤嚓P(guān)領(lǐng)域技術(shù)研發(fā)。ChatGPT代表先進生產(chǎn)力發(fā)展的方向,,引領(lǐng)通用人工智能技術(shù)的發(fā)展模式,,雖然其在AI領(lǐng)域以“脫虛向?qū)崱钡木唧w的勞動產(chǎn)品形式出現(xiàn),但在科技進步歷程中卻是可以被超越,、被揚棄的勞動成果,。從長期風(fēng)險來看,ChatGPT強大功能的涌現(xiàn)表明,,在大模型的研發(fā)中,,必須警惕出現(xiàn)有意識地通用人工智能的可能性,將及時防范可能出現(xiàn)的人工智能威脅人類生存的安全風(fēng)險作為發(fā)展前提,?! 《羌訌娊逃团嘤?xùn)。美國學(xué)者麥克里那(FrancisL.Macrina)曾經(jīng)指出:“'世間的罪惡’來源于道德缺失和缺乏智慧,,雖然我們不知道如何消除道德缺失和不道德行為,,但是可以通過教育提高智慧,因此應(yīng)當(dāng)努力提高智力,,而不是拔高道德,?!蓖ㄟ^對科技倫理規(guī)范正面的教育和引導(dǎo),可以有效杜絕或降低科技道德倫理問題的發(fā)生率,。教育系統(tǒng)要應(yīng)對ChatGPT的挑戰(zhàn),,就必須確保對生成式語言模型的使用進行監(jiān)管和監(jiān)督,,以防止抄襲剽竊事件,,并確保評估公平且能代表學(xué)生的知識與能力。馬克思主義文庫馬克思主義理論學(xué)習(xí)宣傳平臺,。58篇原創(chuàng)內(nèi)容公眾號馬克思主義理論學(xué)術(shù)前沿馬克思主義理論學(xué)科訂閱號,。9篇原創(chuàng)內(nèi)容公眾號閱讀原文閱讀 173分享收藏31復(fù)興文庫Revitalization Library關(guān)注分享此內(nèi)容的人還喜歡2個月錄用,版面費5000多 閱讀1萬 發(fā)表記不喜歡確定中國發(fā)出最強“逐客令”:1分錢也不會援助,,俄羅斯普京:這就對了 7個朋友讀過食在小廚不喜歡確定事實證明,,陪馬克龍回國的鞏俐,已經(jīng)走上了另一條大道 小李生活觀不喜歡確定 |
|