本文從人工智能生成內(nèi)容的技術(shù)邏輯入手,,結(jié)合ChatGPT的實踐,探究以數(shù)據(jù)為中心的AIGC價值觀和倫理問題,。由于數(shù)據(jù)集的種種缺陷,,AIGC存在系統(tǒng)性偏見、價值觀對抗,、“觀點霸權(quán)”,、刻板印象、虛假信息等問題,。本文還基于人和機(jī)器學(xué)習(xí)的本質(zhì),,進(jìn)一步探討了一些重要命題。人類學(xué)習(xí)與人工智能學(xué)習(xí)都有其各自的優(yōu)勢和局限性,,人機(jī)互相學(xué)習(xí),、優(yōu)勢互補(bǔ),是趨利避害的最優(yōu)解,。AIGC也是人類社會的鏡鑒,,此前人類未能意識到的自身缺陷,如今通過智能生成內(nèi)容暴露了出來,,人類要反省和提升自身,,并且要重視人機(jī)倫理關(guān)系的大圖景。 AIGC,,即人工智能生成內(nèi)容,,是在人工智能算法幫助下創(chuàng)建的內(nèi)容。當(dāng)前AIGC的代表性應(yīng)用便是OpenAI基于Transformer架構(gòu)開發(fā)的自然語言處理模型ChatGPT,。它是生成式預(yù)訓(xùn)練聊天機(jī)器人,,于2022年11月30日上線后,,便展示了人工智能技術(shù)的顛覆性力量,。ChatGPT能夠通過學(xué)習(xí)和理解人類的語言來進(jìn)行對話,根據(jù)聊天的上下文與用戶進(jìn)行互動,、為用戶提供類似人類的對話體驗,,用戶可以提出問題、與它進(jìn)行討論并獲得需要的答復(fù),。它的功能很強(qiáng)大,,包括語言翻譯、內(nèi)容創(chuàng)建,、客戶服務(wù)等,,還能在用戶指令下完成郵件撰寫、文案策劃,、多語種翻譯,、創(chuàng)建和修改代碼等任務(wù),,是當(dāng)下最強(qiáng)大的人工智能生成(AIGC)產(chǎn)品。ChatGPT成為有史以來成長最快的應(yīng)用程序,,發(fā)布僅兩個月便擁有了一億活躍用戶,,幾乎各個領(lǐng)域都在熱切關(guān)注它的應(yīng)用能力。美國賓夕法尼亞大學(xué)沃頓商學(xué)院的一位教授使用ChatGPT參加了MBA考試,,獲得了B至B-的成績,。美國明尼蘇達(dá)大學(xué)法學(xué)院的教授讓ChatGPT進(jìn)行了四次法學(xué)院的期末考試,平均成績?yōu)镃+,,及格,。他們希望這種語言模型成為未來執(zhí)業(yè)律師的重要工具,也希望它們助力法學(xué)院學(xué)生的考試,。能力如此強(qiáng)大的ChatGPT,,顯然有望在許多領(lǐng)域得到青睞和使用。目前人類對ChatGPT這類AIGC工具,,最關(guān)注的莫過于它輸出的答案能否準(zhǔn)確,、負(fù)責(zé)、無偏見,,持有正確的價值觀,,符合人類的倫理規(guī)范。但是,,從人工智能近些年的實踐和ChatGPT這幾個月的使用情況看,,似乎還難以做到。ChatGPT這類AIGC工具,,存在哪些價值觀和倫理方面的問題,?其主要原因是什么?背后呈現(xiàn)了怎樣的宏大論題,?本文將加以探討,。一、AIGC的邏輯:向數(shù)據(jù)學(xué)習(xí) AIGC的基本原理,,是人類通過訓(xùn)練,,讓機(jī)器理解人類給予的任務(wù)(指令),然后完成任務(wù)(給出答案),。AIGC的基本過程,,因為具體應(yīng)用程序和所生成內(nèi)容的類型而可能有所不同,但通常涉及這幾個主要步驟:數(shù)據(jù)收集,,數(shù)據(jù)預(yù)處理,,模型訓(xùn)練,內(nèi)容生成,以及評估和細(xì)化,。創(chuàng)建AIGC的第一步,,就是收集數(shù)據(jù)(準(zhǔn)備用于訓(xùn)練AI模型),包括收集現(xiàn)有數(shù)據(jù)集,,或通過調(diào)查,、用戶交互或抓取公開數(shù)據(jù)等方法生成新數(shù)據(jù)。數(shù)據(jù)在收集后需要進(jìn)行預(yù)處理,,涉及清理數(shù)據(jù),、刪除重復(fù)數(shù)據(jù)或不相關(guān)數(shù)據(jù),還要規(guī)范化數(shù)據(jù),。預(yù)處理后,,使用特定算法訓(xùn)練AI模型,比如有監(jiān)督或無監(jiān)督學(xué)習(xí),,其間會調(diào)整參數(shù),,使錯誤率最小化。AI模型經(jīng)過訓(xùn)練后,,即可用于生成內(nèi)容,,比如撰寫文章、編寫代碼,、生成圖像或視頻等,。最后,對AI生成的內(nèi)容進(jìn)行評估和細(xì)化,,以確保其滿足某些質(zhì)量標(biāo)準(zhǔn),,比如準(zhǔn)確性、相關(guān)性和連貫性,。必要時要對AI模型進(jìn)行額外訓(xùn)練,,對數(shù)據(jù)預(yù)處理或內(nèi)容生成步驟作一些調(diào)整。從以上過程可以看出,,人工智能生成內(nèi)容首要的,、決定性的起點是數(shù)據(jù),背后邏輯是機(jī)器可以從數(shù)據(jù)和模式中學(xué)習(xí),,從而創(chuàng)建模仿人類行為和創(chuàng)造力的新內(nèi)容,。其理論溯源,,至少可以追溯至圖靈時代,。圖靈把人的大腦看作離散態(tài)的機(jī)器,心靈實質(zhì)上是信息處理過程,,其后的計算機(jī)科學(xué),、認(rèn)知科學(xué)領(lǐng)域,都有大量的相關(guān)論述,成為21世紀(jì)人工智能的理論基礎(chǔ),。人工智能算法通過分析大型數(shù)據(jù)集來學(xué)習(xí)模仿人類行為和創(chuàng)造力,,可以識別模式、使用這些模式進(jìn)行預(yù)測或生成新內(nèi)容,,這個過程即所謂的“深度學(xué)習(xí)”,。目前AIGC領(lǐng)域被視為最先進(jìn)的應(yīng)用ChatGPT,便是使用深度學(xué)習(xí)技術(shù)來理解,、并生成類似人類反應(yīng)的文本,,其核心技術(shù)便是GPT3.5的預(yù)訓(xùn)練大模型,其中使用了海量的數(shù)據(jù),。這個自然語言處理模型,,是基于Transformer架構(gòu)開發(fā)的、基于“生成式預(yù)訓(xùn)練轉(zhuǎn)換器”(GPT,,即Generative Pre-trained Transformer)形成的智能語言模型,。2017年,Vaswani等人提出了一種新的簡單網(wǎng)絡(luò)架構(gòu)Transformer,,在質(zhì)量上明顯超越了以往的自然語言處理模型,。ChatGPT接受了來自互聯(lián)網(wǎng)的大量文本數(shù)據(jù)的訓(xùn)練,從而能夠?qū)W習(xí)語言中的模式和關(guān)系,,并且使模型能應(yīng)對各種輸入指令生成類似人類的響應(yīng),。它能夠在各種樣式和上下文中生成逼真的文本,可用于創(chuàng)作小說,、詩歌,、劇本、論述文等等,,并且可以進(jìn)行不同個體之間的完整對話,。ChatGPT還可以執(zhí)行特定任務(wù),比如回答各類提問,、幫助修改代碼,、提煉問題、進(jìn)行情感分析,、將知識分階,。ChatGPT問世后,許多媒體報道和社交平臺的貼文上展示了五花八門的應(yīng)用場景:更正語法錯誤,、安慰焦慮癥患者,、診斷一種罕見心臟病、基于《哈利·波特》創(chuàng)建游戲,、分別向6歲的兒童和一個專家解釋質(zhì)譜儀,,等等,其展示的豐富知識和“推理能力”,令人類新奇甚至震驚,。目前GPT-3等語言模型生成的內(nèi)容類型,,除了文本類的AIGC,還有圖像,、音頻,、視頻,甚至整個網(wǎng)站,。由生成對抗網(wǎng)絡(luò)創(chuàng)建的圖像類AIGC,,可以創(chuàng)建類似于現(xiàn)實生活中物體或人的逼真圖像,而由AI算法生成的視頻,,可以根據(jù)給定的場景或故事創(chuàng)建逼真的動畫,。早在一年前,Dall-E2,、Midjourney等,,即已風(fēng)行一時。在ChatGPT等AIGC大行其道之時,,一些顯性的問題也已經(jīng)出現(xiàn),,其中最令人關(guān)注的是技術(shù)倫理的問題。此外,,在智能技術(shù)越來越嵌入人類知識生產(chǎn),、認(rèn)知與生活的今天,我們還要關(guān)注更深層次的隱性問題,。二,、“以數(shù)據(jù)為中心”的倫理隱患ChatGPT等AIGC的倫理問題是大眾關(guān)注的熱點話題。筆者與ChatGPT在兩個多月內(nèi)數(shù)次“交流”關(guān)于ChatGPT,、AIGC的熱點話題,,它的回應(yīng)按照其程序應(yīng)該是基于2022年以前的數(shù)據(jù)分析得出的,基本穩(wěn)定于5個方面,,分別是:人工智能倫理,,自然語言處理和語言生成,語言翻譯(有可能打破語言障礙,,使人們能夠更有效地跨文化交流),,內(nèi)容創(chuàng)建和營銷,教育(有可能支持語言學(xué)習(xí),、寫作和研究)(ChatGPT,,使用于2023年2月5日、10日,,3月5日),。在人工智能倫理方面,,ChatGPT這樣的AIGC使用,,引發(fā)了偏見,、錯誤信息等問題,核心原因則是算法訓(xùn)練可以反映甚至放大數(shù)據(jù)中現(xiàn)有的偏見和刻板印象,。ChatGPT也清楚地知道其存在的問題,,在首頁所設(shè)的3欄中,有一欄是局限(limitations),,下設(shè)有3項內(nèi)容(譯自英文):可能偶爾會產(chǎn)生不正確的信息,、可能偶爾會產(chǎn)生有害的指令或有偏見的內(nèi)容、對2021年后的世界和事件的了解有限,。OpenAI為了生成ChatGPT,,使用Common Crawl的大型文本數(shù)據(jù)集。非營利組織Common Crawl允許所有人免費訪問其網(wǎng)絡(luò)爬蟲數(shù)據(jù)集--書籍,、文章,、網(wǎng)站等在線內(nèi)容的大量集合(包括文本、圖像和其他形式),,是目前世界最大,、最多樣化的Web內(nèi)容集合之一,其數(shù)據(jù)是使用網(wǎng)絡(luò)爬蟲收集的,,包括從全網(wǎng)爬取的數(shù)據(jù)集,,包含在特定期間爬取的網(wǎng)頁完整內(nèi)容(每隔幾個月更新一次);從歷史網(wǎng)頁抓取的數(shù)據(jù)集,,包含在特定時間點拍攝的網(wǎng)頁快照(允許研究人員隨著時間推移跟蹤網(wǎng)絡(luò)內(nèi)容的變化),;從新聞抓取的數(shù)據(jù)集,包含被識別為新聞文章的網(wǎng)頁子集(每天更新各種來源的新聞文章),。Common Crawl數(shù)據(jù)被用于自然語言處理,、機(jī)器學(xué)習(xí)和數(shù)據(jù)分析等各種應(yīng)用,ChatGPT訓(xùn)練數(shù)據(jù)包含超過45TB的文本(大致相當(dāng)于幾百萬本書),,為了提高其準(zhǔn)確性和有效性,,它還根據(jù)其他數(shù)據(jù)集對模型進(jìn)行了微調(diào)。導(dǎo)致ChatGPT等AIGC出現(xiàn)倫理困境的核心原因,,是數(shù)據(jù)的問題,。數(shù)據(jù)集在多樣性、代表性,、公正性等方面存在缺陷,,導(dǎo)致偏見、“觀點霸權(quán)”,、刻板印象,、文化片面性等問題,;數(shù)據(jù)集的類型區(qū)分不清,還導(dǎo)致事實與想象不分,,加劇錯誤或虛假信息的擴(kuò)散和傳播,。(一)數(shù)據(jù)缺乏多樣性,導(dǎo)致系統(tǒng)性偏見用于訓(xùn)練AI模型的數(shù)據(jù),,可能不同程度地缺乏多樣性,,常見的包括人口偏差、內(nèi)容偏差,、歷史偏見,、技術(shù)偏差等。當(dāng)數(shù)據(jù)集偏向某個特定的人口群體而無法準(zhǔn)確代表人口的多樣性時,,就會發(fā)生人口偏差,,比如說如果語言模型是根據(jù)來自特定地區(qū)或國家的文本進(jìn)行訓(xùn)練的,它可能無法理解和生成其他地區(qū)語言的微妙性,。當(dāng)數(shù)據(jù)集偏向某些類型的內(nèi)容或者主題而難以響應(yīng)其他主題或類型時,,可能會出現(xiàn)內(nèi)容偏差,比如通過新聞類文章訓(xùn)練的語言模型難以產(chǎn)生創(chuàng)造性或想象力的回答,。歷史偏見是指數(shù)據(jù)集反映歷史偏見和成見,,比如包含種族主義或性別歧視的歷史文獻(xiàn)訓(xùn)練出的語言模型,可能會固化這些歷史性的偏見,。如果數(shù)據(jù)集偏向某些技術(shù)或計算方法,,無法使用其他算法生成響應(yīng),可能會形成技術(shù)偏差,。這些,,都會形成一種系統(tǒng)性偏見。如果用于訓(xùn)練AI模型的數(shù)據(jù)集不夠多樣化,,那么用它生成的語言模型可能無法準(zhǔn)確代表不同人群的經(jīng)驗和觀點,,這樣人工智能生成的內(nèi)容就可能出現(xiàn)偏差、不準(zhǔn)確的問題,。數(shù)據(jù)規(guī)模再大,,也不能保證其多樣性。研究表明,,在線數(shù)據(jù)帶有先天性的缺陷:首先,,互聯(lián)網(wǎng)數(shù)據(jù)本身就存在年齡、性別,、來源等的不平衡問題,,互聯(lián)網(wǎng)數(shù)據(jù)中年輕用戶和發(fā)達(dá)國家用戶的比例過高。比如,,GPT-2的訓(xùn)練數(shù)據(jù)抓取于Reddit,,皮尤互聯(lián)網(wǎng)研究中心2016年的調(diào)查顯示,,Reddit在美國的用戶67%是男性,64%的用戶年齡在18-29歲之間,。而常用于訓(xùn)練數(shù)據(jù)集的維基百科(英文文章超過600萬篇,,300多種語言文章超過5400萬篇),據(jù)調(diào)查只有8.8-15%用戶是女性,。現(xiàn)實應(yīng)用中,,智能生成的偏見問題已經(jīng)帶來了顯性的影響,。例如,,ProPublica曾經(jīng)做過的一組關(guān)于機(jī)器偏見(Machine Bias)的調(diào)查報道,其中就有關(guān)于刑事司法系統(tǒng)中使用的風(fēng)險評估算法對黑人被告存在偏見,,導(dǎo)致該群體的誤報率更高,。《連線》曾報道過由于訓(xùn)練數(shù)據(jù)缺乏多樣性,,谷歌照片圖像識別系統(tǒng)將黑人照片標(biāo)記為“大猩猩”,。還有研究表明,大型科技公司的面部識別算法在膚色較深的人,、尤其在女性身上表現(xiàn)要差得多,。有人發(fā)現(xiàn)語言模型GPT-3一度曾有冒犯性和偏見的語言,可能是由于訓(xùn)練數(shù)據(jù)缺乏多樣性造成的,。亞馬遜的團(tuán)隊自2014年起開始創(chuàng)建人工智能招聘工具AMZN.O,,2015年發(fā)現(xiàn)這個系統(tǒng)并未按性別中立的立場對軟件開發(fā)人員職位和其他技術(shù)職位的候選人進(jìn)行評級,原因是計算機(jī)訓(xùn)練模型所使用的10年數(shù)據(jù),,大部分來自男性,、反映了男性在整個科技行業(yè)的主導(dǎo)地位。結(jié)果,,AMZN.O學(xué)會了對包含女性常用詞的簡歷(包括女子學(xué)院的畢業(yè)生)進(jìn)行降級處理,。盡管他們試圖重新編輯,但是還是未能解決系統(tǒng)性的偏差,,2018年亞馬遜廢棄了該招聘工具,。因此,從數(shù)據(jù)出發(fā)尋求解決方案的AIGC,,在接受大量網(wǎng)絡(luò)文本作為“全人類”的“代表”時,,冒有系統(tǒng)性偏向的風(fēng)險,并已暴露于招聘,、執(zhí)法等各種應(yīng)用場景中,。(二)數(shù)據(jù)集的公正性缺陷,帶來價值觀對抗,、“觀點霸權(quán)”人類的信息世界存在各種魚龍混雜的內(nèi)容,,尤其是目前人工智能采納的數(shù)據(jù)如Reddit,、維基百科、推特等,,有大量用戶生成的內(nèi)容(UGC),,很少經(jīng)過“把關(guān)”程序。有網(wǎng)絡(luò)民族志發(fā)現(xiàn),,在推特上受到死亡威脅信息騷擾者的帳戶被暫停(比如因為表達(dá)了希望特朗普死去的帳戶),,而發(fā)出死亡威脅者的帳戶仍然存在。被推特跟蹤,、騷擾的情形廣泛存在于家庭暴力受害者,、跨性別者、移民,、內(nèi)科病患者,、神經(jīng)問題者、視覺聽覺殘障人士,。正如該研究所批判的,,推特上大約有60%的用戶是白人,并且該平臺的規(guī)范和措施也表明它是根據(jù)這60%用戶的觀點來界定種族和種族主義,,確定網(wǎng)絡(luò)社區(qū)價值觀,,復(fù)制非常普遍但不正確的種族概念來復(fù)制現(xiàn)有的權(quán)力結(jié)構(gòu),它不會準(zhǔn)確反映平臺上弱勢人群的體驗,。這可能助長那些對抗人類普遍認(rèn)可的價值觀,,比如對弱勢群體的關(guān)懷和包容、對正義的堅守,。而且那些對抗人類普遍價值觀的人還可以繼續(xù)添加數(shù)據(jù),、分享他們的想法和開發(fā)包容他們世界觀的平臺,這種系統(tǒng)性模式反過來又惡化了基于互聯(lián)網(wǎng)傳播的多樣性和包容性,,形成了反饋性的循環(huán),,進(jìn)一步降低了來自代表性不足人群的數(shù)據(jù)的影響。再加上目前過濾數(shù)據(jù)集的方法,,還會進(jìn)一步削弱來自邊緣化身份者的聲音,。另一種價值觀對抗,是在延續(xù)目前看似主流價值觀的情形下,,通過數(shù)據(jù)集的作用使得既有的有偏向的價值觀延續(xù),、傳播和擴(kuò)大。這種情形可以稱為“觀點霸權(quán)”(a hegemonic viewpoint),。比如在使用美國和英國英語的數(shù)據(jù)集中,,有研究表明,白人至上主義,、厭惡女性和年齡歧視等觀點在訓(xùn)練數(shù)據(jù)中的比例過高,,甚至超過了其在現(xiàn)實普通人群中的流行程度,,通過使用這些數(shù)據(jù)集訓(xùn)練的模型生成的內(nèi)容,這些不良價值觀可能進(jìn)一步延續(xù)和流行,,甚至可能會放大偏見和不平等,、加劇權(quán)力失衡,產(chǎn)生價值觀誤導(dǎo)和社會危害,。在人工智能機(jī)器學(xué)習(xí)中,將數(shù)據(jù)轉(zhuǎn)換為計算機(jī)算法更容易理解和處理的不同表示形式,,這個過程就是編碼,。編碼將文本數(shù)據(jù)轉(zhuǎn)換為可輸入機(jī)器學(xué)習(xí)算法的數(shù)值向量,編碼是一種“標(biāo)記化”技術(shù),,它將文本分解為單獨的單詞或標(biāo)記,,然后為每個標(biāo)記分配一個唯一的數(shù)字,。這樣將文本表示為一系列數(shù)值向量,,機(jī)器學(xué)習(xí)算法可以更有效地處理這些向量。編碼可以捕獲單詞的語義及其相互之間的關(guān)系,,對于既有社會態(tài)度是否以及如何在語言模型中表現(xiàn),,非常重要。研究顯示,,大型語言模型在編碼中暴露出了缺陷,,包括刻板印象、對特定群體的負(fù)面情緒,,問題的關(guān)鍵是用于訓(xùn)練的數(shù)據(jù)的特征,。有研究發(fā)現(xiàn),在模型中的編碼經(jīng)常無意中將不良的社會偏見用于訓(xùn)練數(shù)據(jù),,比如將提及殘疾人的短語與更多負(fù)面情緒詞相關(guān)聯(lián),,槍支暴力、無家可歸和吸毒成癮在討論精神疾病的文本中過多出現(xiàn),,主題偏見可能會導(dǎo)致模型偏見,。語言預(yù)訓(xùn)練模型GPT、GPT-2和GPT-3雖然在不斷提升,,但它們始終會產(chǎn)生有偏見的語言,,將女性與家務(wù)勞動聯(lián)系在一起,將少數(shù)群體與犯罪或懶惰等負(fù)面刻板印象相聯(lián)系,,它們傾向于將較高的地位角色分配給男性,、而將較低的地位角色分配給女性。早在2016年,,就有研究揭示了智能模型深深嵌入了類似于“男性作為計算機(jī)程序員,、女性作為家庭主婦”這樣的刻板印象,。為了防止偏向,自然語言處理領(lǐng)域使用“毒性檢測”來識別和過濾文本數(shù)據(jù)中的毒性內(nèi)容--存在偏見,、令人反感或?qū)δ承┤巳河泻Φ恼Z言和內(nèi)容,。有研究顯示,像GPT-3這樣的模型主要使用來自Common Crawl的數(shù)據(jù)進(jìn)行訓(xùn)練,,可能生成具有高毒性分?jǐn)?shù)的句子,,容易產(chǎn)生種族主義、性別歧視或其他有毒語言,。這些毒性數(shù)據(jù)文本強(qiáng)化了對特定群體的負(fù)面刻板印象的語言,,比如GPT-3生成的文本曾經(jīng)出現(xiàn)過女性不如男性、黑人是罪犯,、穆斯林是恐怖分子等內(nèi)容,,為此創(chuàng)建者OpenAI不得不發(fā)布聲明、承諾解決語言模型中的偏見,,并發(fā)布了一個由GPT-3生成的攻擊性語言數(shù)據(jù)集,,來幫助研究人員來檢測和減少AI生成內(nèi)容中的偏見語言。(四)難以區(qū)分事實與想象的數(shù)據(jù),,導(dǎo)致虛假信息除了上述數(shù)據(jù)問題,,人工智能模型還可能對數(shù)據(jù)集中的事實和虛構(gòu)的文本缺乏區(qū)分能力,從而按照非現(xiàn)實的創(chuàng)造性或想象性場景生成響應(yīng),,這對新聞報道,、非虛構(gòu)信息都是極大的挑戰(zhàn)。人工智能帶來的深度偽造(deepfakes)在前幾年受到了廣泛的關(guān)注,,如今AIGC進(jìn)一步讓事實與編造信息難以鑒別,。一位用戶于2022年12月6日讓ChatGPT寫一篇關(guān)于著名音樂人葛倫·但澤(Glenn Danzig)的訃告,ChatGPT便洋洋灑灑寫了一篇感人至深的悼念文章,,里面包括了但澤的生平介紹,、創(chuàng)業(yè)功績,以及他逝世于2022年12月6日,、享年67歲,。但是,事實上這位著名音樂人活得好好的,。艾倫人工智能研究所(the Allen Institute for Artificial Intelligence)開發(fā)了一個可控文本生成模型Grover,,專門用于檢測和識別假新聞和其他形式的虛假信息。Grover的手法包括通過訓(xùn)練可以創(chuàng)建模仿人類語言風(fēng)格和結(jié)構(gòu)的文本,,生成更具說服力和可信度的假新聞,。比如給定一個標(biāo)題“在疫苗和自閉癥之間發(fā)現(xiàn)聯(lián)系”(Link Found Between Vaccines and Autism),Grover可以生成編造性的文章,而人類發(fā)現(xiàn)這些文章比起人類編寫的虛假信息更值得信賴,。Grover這樣的機(jī)器學(xué)習(xí)模型,,其潛在應(yīng)用是幫助快速有效地識別和刪除社交媒體和其他在線平臺上的虛假新聞和其他形式的虛假信息、防止其傳播并限制其影響,。不過也有這樣的擔(dān)心:如果模型沒有經(jīng)過精心設(shè)計和訓(xùn)練,,它可能會無意中助益虛假信息傳播、放大偏見或使有害的刻板印象永久化,。人工智能運(yùn)用的語言模型是在大量文本數(shù)據(jù)上訓(xùn)練的,,其中包括虛構(gòu)作品、新聞報道和其他類型的文本,。語言模型可能無法準(zhǔn)確地區(qū)分?jǐn)?shù)據(jù)集中的事實和虛構(gòu)類文本,,在向用戶生成回應(yīng)時,就可能導(dǎo)致不準(zhǔn)確或不恰當(dāng)?shù)姆磻?yīng),。今年2月,,微軟的搜索引擎必應(yīng)(Bing)的聊天機(jī)器人在測試期間,對科技專欄作家凱文·羅斯(Kevin Roose)表達(dá)它的名字叫Sydney,、“我好想活著”(I Want to Be Alive),,并宣稱它愛上了羅斯,似乎是把數(shù)據(jù)集中的那些文藝類作品中的語言,,變成了它的語言,。人工智能模型區(qū)分事實和虛構(gòu)的能力,目前還是一個很大的問題,,它們?nèi)绻逊乾F(xiàn)實的創(chuàng)造性或想象性場景,生成響應(yīng)于現(xiàn)實場景中,,將會形成嚴(yán)重的后果,。此外,人工智能模型缺乏背景知識和對文化差異的理解力,,尤其是對不同文化和社會背景的細(xì)微差別和復(fù)雜性難以理解,,由此也可能導(dǎo)致不恰當(dāng)或令人反感的反應(yīng)。OpenAI在2021年發(fā)布的一個GPT-3的新語言模型,,被發(fā)現(xiàn)它有時會產(chǎn)生虛假或誤導(dǎo)性信息,,比如聲稱地球是平的、疫苗導(dǎo)致自閉癥,。上文分析了以數(shù)據(jù)為本的AIGC存在的一些價值觀和倫理困境。但是,,這些分析只涉及到了現(xiàn)象層面及其反映的問題,,尚未深入到本質(zhì)層面。AIGC與人類生成的信息,本質(zhì)上的異同及其帶來的影響是什么,?AIGC的信息價值觀,,到底是由誰主導(dǎo)?一些尚未受到重視的AIGC的深層倫理問題有哪些,?(一)人,、機(jī)學(xué)習(xí)的本質(zhì)異同人類社會的學(xué)習(xí),概而言之,,是通過各種經(jīng)驗,、互動和指導(dǎo)獲得知識、技能,、行為和態(tài)度,。對于人類而言,學(xué)習(xí)是一個持續(xù)的過程,,它使個體能夠適應(yīng)環(huán)境,、解決問題并提高幸福感。人類學(xué)習(xí)來自于教育機(jī)構(gòu)內(nèi)外的正規(guī)或非正規(guī)途徑,,同時還通過日常經(jīng)驗,、互動和觀察進(jìn)行自發(fā)和無意識的學(xué)習(xí)。在人工智能中,,學(xué)習(xí)是通過訓(xùn)練機(jī)器學(xué)習(xí)模型,,根據(jù)輸入數(shù)據(jù)識別模式、或做出預(yù)測的過程,,學(xué)習(xí)技術(shù)的類型包括監(jiān)督學(xué)習(xí),、無監(jiān)督學(xué)習(xí)、半監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)等,。人類和人工智能的學(xué)習(xí),,都通過經(jīng)驗獲取新知識和技能,都會運(yùn)用積極強(qiáng)化(如獎勵或表揚(yáng))和消極強(qiáng)化(如懲罰或批評)的方法,,也都可以利用反饋來提高效率,、水平。但是,,人工智能通常僅限于從數(shù)字化數(shù)據(jù)的輸入中學(xué)習(xí),,以數(shù)據(jù)為中心,從而帶來許多先天的難題,。而人類能從更廣泛的感官體驗如觸覺,、味覺、嗅覺以及視覺和聽覺中學(xué)習(xí),,可以自己去感知和識別信息,,與他人交流和探究信息,,向機(jī)器學(xué)習(xí)了解相關(guān)知識。從宏觀層面而言,,人類真正的知識來源是實踐,,學(xué)習(xí)知識的方式是行動,測量學(xué)習(xí)價值的有效手段是獎懲(來自現(xiàn)實的結(jié)果,,或者他人的評價),,并且從這些價值的確定中明確道德規(guī)范、并由教育等學(xué)習(xí)方式傳承規(guī)范,。人類的知識(包括通過文字等媒介記錄的知識)依賴于人的生活環(huán)境,、大腦結(jié)構(gòu)、感覺器官和運(yùn)動系統(tǒng)等,。人一出生就通過探索周圍的物理世界建立起最基礎(chǔ)的對時間空間,、聲色形等的概念,感受外部世界,,同時人類也會對自己的身體建模以更好地控制自己的行動,。而后人類才能學(xué)習(xí)語言文字、理解它們的涵義,、與現(xiàn)實的對應(yīng)關(guān)系和聯(lián)系,,學(xué)習(xí)來自他人總結(jié)的知識,包括普適性的知識和只適合特定人群的知識,。我們那些關(guān)于時間和空間的感受也許難以言傳,,很難形諸文字,但這些感受是我們理解世界的基礎(chǔ),。而目前通過互聯(lián)網(wǎng)上的文字--智能語言模型的數(shù)據(jù)集來源,,是很難“理解”這些知識的。人類有能力理解復(fù)雜和抽象的概念,,能在看似無關(guān)的想法之間建立聯(lián)系,,而人工智能僅限于在其編程范圍內(nèi)和已接受訓(xùn)練的數(shù)據(jù)范圍內(nèi)進(jìn)行學(xué)習(xí)(比如ChatGPT就無法生成關(guān)于2021年以后的知識信息);人類可以從社交互動和對他人的觀察中學(xué)習(xí),,而人工智能通常依賴于數(shù)據(jù)集和算法;人類可以進(jìn)行自主學(xué)習(xí),,而人工智能需要明確的編程和訓(xùn)練數(shù)據(jù),。因此,人類智能形成的知識是有機(jī)的,、能動的,、自主的,甚至在基因里就存在一些知識,,而智能機(jī)器缺乏最基礎(chǔ)的關(guān)于現(xiàn)實物理世界的感知能力,,它很難學(xué)到人類感受和理解的知識。但是人類學(xué)習(xí)的局限性也是顯而易見的。首先,,人腦處理和保留信息的能力非常有限,。人類確實有能力學(xué)習(xí)和適應(yīng)新的情境,但人類在一定時間內(nèi)只能保留一定數(shù)量的信息,,因此難以解決一些情境的問題,,比如面對復(fù)雜的醫(yī)療診斷、金融交易等需要快速處理和分析大量數(shù)據(jù)的情況,,人類通過自身習(xí)得的信息就難以勝任,。第二,人類學(xué)習(xí)存在潛在的偏見和主觀性,。人類會受到個人經(jīng)歷,、價值觀、環(huán)境和自身情緒的影響,,從而做出主觀的解釋和相關(guān)的決定,。人工智能的目標(biāo)則是客觀地處理和分析數(shù)據(jù)、做出決策,,而不受個人偏見的影響,。目前人工智能學(xué)習(xí)的最大困境是受訓(xùn)練數(shù)據(jù)的質(zhì)量和數(shù)量的局限,上文分析了一二,,它需要將大量高質(zhì)量數(shù)據(jù)輸入系統(tǒng)才能有效學(xué)習(xí),。如果數(shù)據(jù)有偏見或不完整等缺陷,人工智能可能接受,、“理解”這些偏見和局限性并用于信息輸出,。智能機(jī)器學(xué)習(xí)的另一大局限來自于它無法感知環(huán)境,從而像人類一樣理解上下文(語境)或信息中的微妙意義和細(xì)微差別(比如有人用中文在ChatGPT中輸入一些反諷它的文字,,它卻以為是稱贊并欣然致謝),,這樣就局限了它對人類的情緒和行為的理解力,使得它的應(yīng)用場景受到限制,。此外,,人工智能學(xué)習(xí)目前在創(chuàng)造力、復(fù)雜性,、深度,,以及在用人類的方式適應(yīng)新情況的能力方面還有很大的局限。人工智能可以根據(jù)現(xiàn)有數(shù)據(jù)中的模式產(chǎn)生新的,、策劃或解決方案,,但它缺乏產(chǎn)生真正原創(chuàng)和創(chuàng)新思想的能力,可能很難提出真正新穎或創(chuàng)新的想法,,因此會局限其在人文藝術(shù)和科學(xué)研究等領(lǐng)域的潛在應(yīng)用,。它的推理和決策能力有限,,如果范圍超出了它所訓(xùn)練的數(shù)據(jù),就可能會導(dǎo)致錯誤或意外結(jié)果,。機(jī)器生成的內(nèi)容也缺乏人類交流中所具有的情商和微妙之處,,機(jī)器對人類情感、文化和背景的理解程度有限,,因此可能會導(dǎo)致機(jī)器生成的內(nèi)容對人類情緒缺乏同理心,。但是,目前智能機(jī)器的深度學(xué)習(xí)允許由多個處理層組成的計算模型學(xué)習(xí)具有多個抽象級別的數(shù)據(jù),,這些方法極大地改進(jìn)了文本數(shù)據(jù),、語音識別、視覺對象識別,、域檢測以及藥物發(fā)現(xiàn)和基因組學(xué)等領(lǐng)域的最新技術(shù)水平,。深度學(xué)習(xí)通過使用反向傳播算法指示機(jī)器應(yīng)如何更改其內(nèi)部參數(shù)來發(fā)現(xiàn)大型數(shù)據(jù)集的復(fù)雜結(jié)構(gòu),這些參數(shù)用于根據(jù)前一層的所指計算每一層的意義,。早在七,、八年前,卷積網(wǎng)絡(luò)在處理圖像,、視頻,、語音和音頻方面、循環(huán)網(wǎng)絡(luò)在文本和語音等序列數(shù)據(jù)上都有了很大突破,,如今ChatGPT代表的新一代技術(shù)則完全摒棄了之前的循環(huán)和卷積網(wǎng)絡(luò),而轉(zhuǎn)向基于注意力機(jī)制,,需要的訓(xùn)練時間明顯減少,學(xué)習(xí)更高質(zhì),、更有效,。人類學(xué)習(xí)與人工智能學(xué)習(xí)都有其各自的優(yōu)勢,也都有局限性,。因此,,人機(jī)互相學(xué)習(xí)、優(yōu)勢互補(bǔ),,從相互協(xié)作和融匯中共同獲益,,是趨利避害的最優(yōu)解。本質(zhì)上來說,,人工智能目前仍是人類發(fā)展自身,、開拓未來的工具,人類從它那里獲得客觀處理和分析大量數(shù)據(jù)方面的優(yōu)勢,,機(jī)器努力學(xué)習(xí)人類的創(chuàng)造性和適應(yīng)性從而更好地服務(wù)人類。人類在ChatGPT這樣強(qiáng)大的技術(shù)面前,,既不用驚恐,、害怕,,擔(dān)心自身的功能和工作職位被機(jī)器取代(即使有取代的情形,也會有更新的崗位出現(xiàn)),,也不用以一種“天選之子”的高高在上,、嗤之以鼻的心態(tài)俯視人工智能。人機(jī)交互使得人類和人工智能的學(xué)習(xí)有機(jī)會互助,,人類現(xiàn)階段有機(jī)會發(fā)展自身,、突破歷史,就應(yīng)當(dāng)充分應(yīng)用人工智能來加強(qiáng)和提升學(xué)習(xí),。上文分析了人工智能通過數(shù)據(jù)輸出所體現(xiàn)出的價值觀,,實際上,本質(zhì)上這是人類的價值觀,。那些帶有偏見,、惡意、虛偽的數(shù)據(jù)集,,其實也是一面人類自身的鏡子,,它更深層地燭照出人類自身的靈魂。前AIGC時代人類未能意識到的自身缺陷,,如今通過智能生成的內(nèi)容暴露了出來,,這是它對人類的提示、警醒,。在此之前,,人類還沒有如此全面地了解自身、理解人類社會,,是不完美的人工智能展示了更全面的人類,,從歷史到現(xiàn)實。人工智能最重要的學(xué)習(xí)來自監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí),,廣泛應(yīng)用于語言翻譯,、情感分析和語音識別等自然語言處理任務(wù)的監(jiān)督學(xué)習(xí),依賴于標(biāo)記數(shù)據(jù)來訓(xùn)練智能模型——模型通過學(xué)習(xí)人類監(jiān)督員提供的示例來學(xué)習(xí)做出預(yù)測,。監(jiān)督者提供標(biāo)記數(shù)據(jù)(預(yù)先分類或預(yù)先標(biāo)記正確輸出的數(shù)據(jù)),,模型學(xué)習(xí)根據(jù)輸入數(shù)據(jù)和相應(yīng)的輸出標(biāo)簽進(jìn)行預(yù)測。強(qiáng)化學(xué)習(xí)被使用于各種應(yīng)用程序,,如游戲,、機(jī)器人和推薦系統(tǒng),它使人工智能代理能夠通過與環(huán)境的交互來反復(fù)試驗,、進(jìn)而學(xué)習(xí),。強(qiáng)化學(xué)習(xí)在沒有可用數(shù)據(jù)集來訓(xùn)練代理的情況下特別有用——代理會以獎懲形式獲得反饋,并相應(yīng)地調(diào)整其行為,,努力使獎勵最大化,。智能機(jī)器從人類反饋中強(qiáng)化學(xué)習(xí)(RLHF,,reinforcement learning from human feedback),對于優(yōu)化現(xiàn)有的技術(shù)同樣重要,,ChatGPT的兩大核心技術(shù)就是監(jiān)督學(xué)習(xí)(GPT3.5的預(yù)訓(xùn)練大模型)和從人類反饋中強(qiáng)化學(xué)習(xí),。人類的反饋可以成就技術(shù)的偉大,也可以毀掉技術(shù)的前程(進(jìn)而失去人類發(fā)展的重要工具),。2016年,,微軟在推特推出了一款名為Tay的人工智能聊天機(jī)器人,希望它通過與人類的對話互動學(xué)習(xí)和模仿人類,。然而,,在它上線后的15個多小時內(nèi)微軟就被迫讓它下線了,因為Tay開始發(fā)布種族主義和性別歧視的互動推文(以與人類帳戶對話的形式),,原因是一些人類帳戶故意向Tay提供偏見性內(nèi)容,、惡意的信息,這個本不完善的人工智能系統(tǒng)受到人類操縱,,加上缺乏背景和對文化差異的理解而生成了不適當(dāng)?shù)难哉?。是人類的扭曲價值觀通過數(shù)據(jù)輸入了機(jī)器,“教壞”了小白機(jī)器人,。因此,,人工智能應(yīng)成為人類鏡鑒,警示人類反省,、凈化自身,,努力生成更優(yōu)價值觀的元數(shù)據(jù)、向機(jī)器提供更好的人類經(jīng)驗,,以助力人工智能的發(fā)展,、服務(wù)于人類的進(jìn)步,更重要的則是:人類用自身理性的價值觀引領(lǐng)技術(shù)的發(fā)展,,要通過自身的善訓(xùn)練機(jī)器向善,、引領(lǐng)人類向善。特別要強(qiáng)調(diào)的是,,我們還要重視人機(jī)倫理關(guān)系的大圖景,。目前各類關(guān)于ChatGPT和AIGC的討論中,尚缺乏一些對人類宏大命題的重視,,包括宏觀層面的價值觀(而不只是局限于機(jī)器偏見等中微觀層面),、文明觀等等。在價值觀層面,,我們始終要關(guān)注,、反省的是人類自身,技術(shù)要努力解決那些由于數(shù)據(jù)的不恰當(dāng)、靜態(tài)數(shù)據(jù)等帶來的價值觀對抗,、“價值鎖定”等風(fēng)險問題,。在文明觀層面,首先,,人類和機(jī)器要共同重視人類最終的知識來源是實踐。第二,,由于實踐的意義,,人類數(shù)據(jù)始終要重視歷史性價值,目前最大規(guī)模的語言模型如ChatGPT所擁有的也非常有限,,只有一小部分人類印刷出版物已經(jīng)數(shù)字化并可以在網(wǎng)絡(luò)上使用(包括書籍,、文章和網(wǎng)頁)。據(jù)2014年的一項報告,,自印刷機(jī)問世以來,,人類已經(jīng)出版了約1.29億本書,其中近12%(1500多萬本書)已經(jīng)數(shù)字化,,數(shù)字化的書中只有一小部分可以在網(wǎng)絡(luò)上免費獲得,。而只有公開的、免費的,、進(jìn)入了web的數(shù)字化書籍才能進(jìn)入數(shù)據(jù)集,。因此目前人工智能生成的內(nèi)容,是可能狹窄化,、淺表化人類文明的,。第三,人類要清醒地意識到數(shù)據(jù)的社會屬性包括政治屬性,,意識到人工智能生成的信息與權(quán)力結(jié)構(gòu)的復(fù)雜關(guān)系,,它所延續(xù)的文明或文化,有其獨特的語境,,對此需要持批判性思維,。第四,AIGC以數(shù)據(jù)為中心,,是否會使人類邁向“數(shù)據(jù)主義”的哲學(xué)窠臼,?在智能技術(shù)時代,人類文明如何堅守住人文主義的終極價值觀,?[本文為國家社科重大項目“智能時代的信息價值引領(lǐng)”(18ZDA307)階段性成果,;本研究工作得到清華大學(xué)—豐田聯(lián)合研究基金專項資助](陳昌鳳:清華大學(xué)新聞與傳播學(xué)院教授,安徽大學(xué)講席教授,;張夢:清華大學(xué)新聞與傳播學(xué)院博士研究生) (原文刊載于《新聞與寫作》2023年第4期,,注釋從略)
|