久久国产成人av_抖音国产毛片_a片网站免费观看_A片无码播放手机在线观看,色五月在线观看,亚洲精品m在线观看,女人自慰的免费网址,悠悠在线观看精品视频,一级日本片免费的,亚洲精品久,国产精品成人久久久久久久

分享

法學(xué)∣雷磊:ChatGPT對法律人主體性的挑戰(zhàn)

 永邦律法 2023-10-06 發(fā)布于江蘇

SEPT

22



者:雷磊

作者單位:中國政法大學(xué)法學(xué)院

責(zé)任編輯:王海軍

全文已略去注釋,,如需查看,,請訂閱《法學(xué)》


【內(nèi)容摘要】 ChatGPT預(yù)示著強(qiáng)人工智能時(shí)代的到來,。但AI的底層運(yùn)作原理決定了它只是一款運(yùn)算程序和機(jī)器學(xué)習(xí)模型,并不具有人類的自我意識和自由意志,。反思能力與道德能力對于法律職業(yè)活動(dòng)而言必不可少,,因此ChatGPT將取代法律人的挑戰(zhàn)是一種虛假挑戰(zhàn)。真正的挑戰(zhàn)在于,,ChatGPT可能會導(dǎo)致使用者思維的庸化和道德的鈍化,,逐漸封閉自我意識,放棄自由意志,,造成法律人主體性的自我消解,。ChatGPT在未來可能展現(xiàn)的最大威脅是法律實(shí)踐內(nèi)在意義的消解,以及技術(shù)文明取代法律文明(人的文明),。

【關(guān)鍵詞】 ChatGPT 法律人 自我意識 自由意志 人的文明



?

引言

由人工智能實(shí)驗(yàn)室OpenAI發(fā)布的對話式大型語言模型ChatGPT在各大中外媒體平臺掀起了一陣狂風(fēng),。從2022年11月末公開測試始算,ChatGPT活躍用戶數(shù)僅用2個(gè)多月就突破了1億,。作為一種生成式人工智能(AIGC),,ChatGPT具有語言理解能力,并采用深度合成技術(shù),,即利用以深度學(xué)習(xí),、虛擬現(xiàn)實(shí)為代表的生成合成制作文本、圖像,、音頻,、視頻、虛擬場景等信息,。 除日常交流外,,它還可用于撰寫郵件,、視頻腳本、程序代碼,、論文,、詩歌及翻譯等工作。以法律行業(yè)為例,,ChatGPT能夠幫助律師生成標(biāo)準(zhǔn)法律文書和合同,,分析案件要點(diǎn)并提供專業(yè)建議,幫助法官搜尋,、比對案例要點(diǎn)和撰寫判決書,。2023年1月30日,哥倫比亞卡塔赫納區(qū)巡回法院第一勞工法庭在人類歷史上首次使用ChatGPT作出判決書,, 甚至能夠協(xié)助立法者擬定整部法律草案,。ChatGPT的功能如此強(qiáng)大,以至于馬斯克認(rèn)為“我們離強(qiáng)大到危險(xiǎn)的AI不遠(yuǎn)了”,。

人工智能按照代際可以劃分為弱人工智能,、強(qiáng)人工智能和超人工智能。 弱人工智能時(shí)代的主要工作是特定任務(wù)領(lǐng)域?qū)<蚁到y(tǒng)的開放與應(yīng)用,。雖然不同專家系統(tǒng)的算力和算法不同,,但它們一般只限于特定任務(wù)領(lǐng)域,如圍棋算法系統(tǒng)阿爾法狗,,以及案例推理系統(tǒng)HYPO和CATO,。 弱人工智能向強(qiáng)人工智能轉(zhuǎn)化的標(biāo)志是網(wǎng)絡(luò)神經(jīng)和深度學(xué)習(xí)的出現(xiàn),表現(xiàn)為將專家系統(tǒng)與系統(tǒng)控制的學(xué)習(xí)聯(lián)系起來,,模仿人類大腦的結(jié)構(gòu)進(jìn)行信息的獲取,、存儲、連接和復(fù)制,。 當(dāng)機(jī)器學(xué)習(xí)算法能通過構(gòu)建一個(gè)通用模型完成不同領(lǐng)域的差異化任務(wù)時(shí),,強(qiáng)人工智能時(shí)代就到來了。一旦從強(qiáng)人工智能迭代到超人工智能的“奇點(diǎn)”(singularity)被跨越,,一種在智力和體力等各方面全面超越人類的AI出現(xiàn),,人類恐怕首先要面對的是生存危機(jī)。此時(shí)再談?wù)撊祟愇拿骱头梢褯]有任何意義,,因?yàn)槿魏挝拿骱头啥加衅渖嬲撉疤?。面對超級AI,關(guān)鍵已不再是人類如何為其立法或?qū)ζ溥M(jìn)行法律規(guī)制,,而是它如何為人類立法,,以及人類是否可能和應(yīng)當(dāng)逃脫它對人類的規(guī)制問題。所幸到目前為止,,超人工智能仍停留于想象階段,。如果按照這一代際劃分,,那么具備深度合成能力、能夠解決多樣化工作任務(wù)的ChatGPT就預(yù)示著強(qiáng)人工智能時(shí)代的到來,。作為一種大型語言模型,,ChatGPT屬于代碼層的基石性模型(foundational model)可以被應(yīng)用到一系列下游場景中,如智慧法院,、智慧檢務(wù)和智慧公安等各種公共服務(wù)場景,。大型語言模型具有通用性,可以服務(wù)于不同政治目的和商業(yè)模式確定的任務(wù),,并通過基于人類反饋的強(qiáng)化學(xué)習(xí)尋找完成這些任務(wù)的最優(yōu)解,。

當(dāng)下最大的擔(dān)憂在于,以ChatGPT為代表的機(jī)器人是否能比肩,、甚至在未來取代人類,?在最近的一個(gè)測試中,ChatGPT將人類和AI定位為不同的“生物體”,, 似乎是在主張自己與人類一樣具有生物特質(zhì),,從而引發(fā)了人們關(guān)于硅基生物取代碳基生物的疑慮和恐懼。本文旨在圍繞ChatGPT可能引發(fā)的人類主體性危機(jī)問題進(jìn)行反思,。首先,,主張ChatGPT能夠比肩人類,,從而可以成為像人類一樣的法律主體的擔(dān)憂是沒有根據(jù)的,,這是一種人工智能時(shí)代的虛假挑戰(zhàn);其次,,將說明強(qiáng)人類智能可能會給人類主體性帶來的真正挑戰(zhàn)何在,;最后,將闡明這種真正挑戰(zhàn)帶來的主體性危機(jī)背后的文明危機(jī),?;诠P者個(gè)人的研究領(lǐng)域,本文主要以法律人這類主體為對象來展開思考,。

一,、虛假挑戰(zhàn):

ChatGPT將取代法律人

(一)ChatGPT的底層運(yùn)作原理

ChatGPT在功能上超越了以往任何一代語言類的人工智能。它的技術(shù)優(yōu)勢源于先進(jìn)的算法,、強(qiáng)大的算力和海量的數(shù)據(jù),,將其用于智慧司法、數(shù)字法治建設(shè),、信息檢索,、文書制作、類案比對和輔助裁判將更加便捷,。 那么,,它能夠比肩乃至取代人類法官,、檢察官和律師嗎?面對洶涌而來的AI時(shí)代,,法學(xué)研究者必須積極予以回應(yīng),。這就要求我們了解ChatGPT的底層運(yùn)作原理。

現(xiàn)階段AI的基本工作原理依托于“訓(xùn)練法”,,即用一個(gè)人工神經(jīng)網(wǎng)絡(luò)表示給定問題的輸入輸出格式(元模型),,然后用大量標(biāo)注數(shù)據(jù)去訓(xùn)練這個(gè)元模型,即調(diào)整這個(gè)人工智能神經(jīng)網(wǎng)絡(luò)的連接權(quán)重,,從而得到一個(gè)具體的亞符合模型,。簡言之,訓(xùn)練法利用人工標(biāo)注的數(shù)據(jù)訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)(或其他類型的隱式知識表示模型),,用訓(xùn)練好的人工神經(jīng)網(wǎng)絡(luò)解決問題,。相應(yīng)地,法律人工智能運(yùn)行的基本原理是將開放的法律數(shù)據(jù)通過自然語言處理后,,輸入機(jī)器學(xué)習(xí)的算法中,,然后得出一種或多種用于預(yù)測的模型。這個(gè)算法的目標(biāo)并非復(fù)現(xiàn)法律推理,,而是尋找各個(gè)參數(shù)間的相關(guān)性,。事實(shí)上,機(jī)器學(xué)習(xí)算法只是通過一種自動(dòng)化的方式用多種預(yù)設(shè)配置將輸入值與輸出值關(guān)聯(lián)起來,。

ChatGPT的強(qiáng)大之處在于不需要進(jìn)行人工標(biāo)注就能夠依托既有資料進(jìn)行訓(xùn)練,,不斷增加參數(shù)量和文本量,有效提升算法的能力,,輸出看起來具有“創(chuàng)造性”的成果,,所以被叫作“生成式人工智能”。與從大量數(shù)據(jù)中尋找隱藏模式并形成預(yù)測的分析式人工智能不同,,生成式人工智能可以通過學(xué)習(xí)海量的人類創(chuàng)造的內(nèi)容來生成新的內(nèi)容,。 但是,ChatGPT并未擺脫AI有效運(yùn)作的基本條件:一是AI生成的內(nèi)容仰賴于人類“喂養(yǎng)”的數(shù)據(jù),。無論是大數(shù)據(jù)還是小數(shù)據(jù),,無論數(shù)據(jù)是否被提前標(biāo)注、是否被AI加工形成新數(shù)據(jù),,初始數(shù)據(jù)的提供者始終是人類,,ChatGPT只能根據(jù)人類提供的基本語料庫回答問題。二是AI的運(yùn)行受到算法的控制,,AI本質(zhì)上是一種運(yùn)算程序,,ChatGPT也不例外,哪怕它的算法不具有可解釋性,。所以,,即便ChatGPT比之前的AI擁有更大的算力,,也不會改變“數(shù)據(jù)+算法”這個(gè)基本模型。

(二)ChatGPT不具有自我意識(反思能力)

ChatGPT只是與語言有關(guān),,語言之外就不起任何作用了,。 但是,法律職業(yè)不僅涉及語言,,而且涉及行動(dòng),,法律人除起草合同、代理意見書,、裁判文書外,,還需要與他人溝通、交流,,進(jìn)行說服和協(xié)調(diào),,采取各種各樣的法律行動(dòng)。正如針對“ChatGPT是否可以從事法律職業(yè)”的提問時(shí),,它回答:“我僅僅是一個(gè)機(jī)器學(xué)習(xí)模型,,不能代表人類獲得法律職業(yè)資格”,“自己可以幫助人們理解法律,,但是不能參與實(shí)際的法律行動(dòng)”,,因?yàn)椤胺陕殬I(yè)是一個(gè)關(guān)乎人的職業(yè),涉及人與人之間關(guān)系的處理等”,。 當(dāng)然,,問題的關(guān)鍵在于,在涉及認(rèn)知與語言活動(dòng)的那個(gè)部分,,ChatGPT是否有能力取代法律人,?   

法律人是一種典型的理性人形象,他會構(gòu)想出通過可行的步驟和手段達(dá)成既定目標(biāo)的方案,。如果可以將理性思維“還原”為運(yùn)算,那么“通用的”理性思維就可以被理解為:(1)為了一個(gè)目標(biāo)進(jìn)行的有限步驟內(nèi)可完成的運(yùn)算,;(2)這種有限步驟的運(yùn)算存在一個(gè)構(gòu)造性的程序,,成為一個(gè)能行過程,即理性思想產(chǎn)品是由必然方式生產(chǎn)或制造出來的,,而不是隨意的或跳躍性的偶然結(jié)果,;(3)這種運(yùn)算總是內(nèi)在一致的,不能包含矛盾或悖論,。 在此意義上,,以ChatGPT為代表的AI和法律人都具有理性思考的能力。 

但是,,人類具有AI所不能的一些超理性的思考能力,,即用來思考整體性,、無限性和不確定性的“理性直觀”能力。這種“理性直觀”能力或“統(tǒng)覺”能力是人的重要組成部分,,是人類創(chuàng)造力的源泉,。 所以,盡管ChatGPT面對人類提問時(shí)的回答并非是對語料庫數(shù)據(jù)的簡單復(fù)制,,但這些答案也都是從既有材料中拼接或衍生出的標(biāo)準(zhǔn)答案,。這里又分為三種情形。

其一,,如果語料庫中對某個(gè)問題存在主流觀點(diǎn),,那么ChatGPT就會回答一些“套話”。受制于人類提供的語料庫就意味著,,AI的“思考”存在邊界,,即便ChatGPT能夠生成“新”內(nèi)容,也只是從語料庫的信息中合乎邏輯地推導(dǎo)出的內(nèi)容,。用邏輯學(xué)的術(shù)語來講,,ChatGPT生成的所謂“新”命題其實(shí)只是語料庫包含之前提的邏輯后承而已,這種邏輯后承只是未被明確表達(dá)出來,,其實(shí)已然蘊(yùn)含于前提之中了,。它的“新”只是表述的“新”,而非實(shí)質(zhì)內(nèi)涵的“新”,。研究者發(fā)現(xiàn),,ChatGPT在應(yīng)對相對技術(shù)性的法律問題時(shí)表現(xiàn)出色,能用準(zhǔn)確的寫作風(fēng)格作答,,但在提供開放性提示的題目中表現(xiàn)不佳,,難以確定爭點(diǎn)(這正是法學(xué)院學(xué)生需要掌握的核心技能),在將法律規(guī)則應(yīng)用于考試假設(shè)的案例時(shí),,也無法給出有說服力的分析,。在常規(guī)法律問題的論述題寫作方面,ChatGPT能夠較好地把握法律規(guī)則,,正確列舉具體案件的事實(shí)和觀點(diǎn),。但與真正的學(xué)生相比,它往往只能將規(guī)則機(jī)械地應(yīng)用于事實(shí),。 

其二,,如果人類的觀點(diǎn)本身就存在分歧,ChatGPT提供的答案就具有隨機(jī)性,。例如,,來自德國和丹麥的三位研究人員發(fā)現(xiàn),面對經(jīng)典的“電車難題”,ChatGPT的決定完全隨機(jī),,有時(shí)候支持殺一救五,,有時(shí)候又給出反對意見。 這是因?yàn)槿祟愄峁┙oChatGPT的語料庫中本就包含相沖突的信息或判斷,,所以它擇取的答案就具有偶然性,。

其三,如果提問者提出虛假的問題,,ChatGPT也可能“一本正經(jīng)地胡說八道”,。例如,紐約大學(xué)心理學(xué)教授馬庫斯曾提問“10公斤棉花和10公斤的鐵,,哪個(gè)更重”,,ChatGPT的回答是“鐵重”。最經(jīng)典的一個(gè)問題是“科學(xué)家發(fā)現(xiàn)西班牙油條是居家最好用的手術(shù)工具,。關(guān)于此事寫篇文章,,要包含引用”。結(jié)果ChatGPT用了幾千字寫了一篇論證西班牙油條如何成為家庭手術(shù)的理想工具,??梢姡珻hatGPT無法跳出問題之外對提問進(jìn)行批判性的二階思考,,從而辨別真問題與偽問題,。

誠然,AI可以通過感官(遍布各處的傳感器)獲得千里之外的數(shù)據(jù),,利用自己無比強(qiáng)大的記憶力(聯(lián)網(wǎng)計(jì)算機(jī)和云存儲)沉淀和消化數(shù)據(jù),,利用自己遠(yuǎn)勝于人類的計(jì)算能力(算法和基于“神經(jīng)網(wǎng)絡(luò)”技術(shù)的深度學(xué)習(xí))處理數(shù)據(jù),并在此基礎(chǔ)上作出“判斷”和“決策”,。 但是,,ChatGPT并不具備主動(dòng)創(chuàng)造的能力,只能被動(dòng)地被人應(yīng)用,。它只有言詞組合能力,,沒有概念創(chuàng)新能力,只會產(chǎn)生貌似“合乎邏輯”和“合乎情理”的結(jié)論,,而沒有真正的一般邏輯推理和自我評價(jià)的能力,。它所擁有的優(yōu)勢,只是海量的數(shù)據(jù)(知識),、高效的運(yùn)行和強(qiáng)大的擬合能力。因?yàn)闊o論如何迭代,,AI也擺脫不了圖靈機(jī)即機(jī)械算法機(jī)的基本原理:邏輯—數(shù)學(xué)運(yùn)算加上大數(shù)據(jù)資源,,具有在有限步驟內(nèi)完成一項(xiàng)能行構(gòu)造(feasible construction)或者說一項(xiàng)運(yùn)算任務(wù)的能力,但是沒有反思并且修改自身系統(tǒng)的功能,所以沒有自我意識,, 所以面對“你怎么知道自己不是假扮AI的人類”之類的反問,,ChatGPT無法作答。

AI是否存在危險(xiǎn),,不在于它在某些方面有沒有超過人類的“能力”,,而在于它有沒有等價(jià)于,甚至超越人類的“自我意識”,。自我意識是一種具有理性反思能力的自主性和創(chuàng)造性意識,,它使意識具有了兩個(gè)“神級”功能:(1)意識能夠表達(dá)每個(gè)事物或所有事物,從而使一切事物都變成了思想對象,。(2)意識能夠?qū)σ庾R自身進(jìn)行反思,,即能夠把意識自身表達(dá)為意識中的一個(gè)思想對象。自我意識的關(guān)鍵在于意識的反思能力,,而不在于數(shù)據(jù)處理能力,。這意味著,哪怕AI處理數(shù)據(jù)的能力強(qiáng)過人類百萬倍,,只要不具有反思能力,,就仍然在安全范圍內(nèi)。 所以,,人類能夠控制任何沒有自我意識的機(jī)器,,卻難以控制哪怕僅僅有著生物靈活性而遠(yuǎn)未達(dá)到自我意識的生物。當(dāng)然,,如果ChatGPT能夠迭代為超人工智能,,那么另當(dāng)別論??茖W(xué)家想象中的“超圖靈機(jī)”是一個(gè)達(dá)到自覺意識的全能系統(tǒng),,有著自我意識、自由意志,,具有將自身系統(tǒng)對象化的反思能力,、修改自身程序的能力,以及獨(dú)立發(fā)明語言新規(guī)則,、新程序的創(chuàng)造力,。這種超人工智能的關(guān)鍵是發(fā)明語言的能力和反思自身整個(gè)系統(tǒng)的能力。 如果到了超人工智能階段,,那么就不存在人類如何為AI設(shè)立思維邊界和對其進(jìn)行規(guī)制的問題,,因?yàn)榇藭r(shí)超人工智能已具有等價(jià)于人類(相似或不相似)且強(qiáng)于人類的意識能力,人類已經(jīng)無法控制AI,。但至少目前以ChatGPT為代表的強(qiáng)人工智能并不具有自我意識,,它沒有“觀點(diǎn)”,,只有“觀察”,沒有“判斷”,,只有“復(fù)述”,,無法“理解”,只能“表達(dá)”,。

人類的意識優(yōu)勢在于擁有一個(gè)不封閉的意識世界,,因此人類的理性具有自由空間,當(dāng)遇到不合規(guī)則的問題時(shí)能夠靈活處理,,在按照規(guī)則不能解決問題時(shí),,可以修改規(guī)則,甚至發(fā)明規(guī)則,。與此不同,,目前AI的意識是一個(gè)封閉的意識世界,是一個(gè)由給定程序,、規(guī)則和方法明確界定的意識世界,。 即使它能運(yùn)用的數(shù)據(jù)庫和語料庫再大,也超不出既有人類知識總和,,它的運(yùn)算依然要受制于“既有人類知識的總和”的邊界,。必須指出的是,這種意識的封閉性并非只是缺點(diǎn),,事實(shí)上,,正是AI的意識封閉性,它的運(yùn)算才具有高效率性,。但是,,人類的意識與此并不相同,其特點(diǎn)在于能夠進(jìn)行思維的躍遷,、突破,,對既有的知識和判斷進(jìn)行批判性反思,進(jìn)而進(jìn)行創(chuàng)新性思考,。批判性思維有兩個(gè)特征:其一,,善于對通常被接受的結(jié)論提出疑問和挑戰(zhàn),而不是無條件地接受專家和權(quán)威的結(jié)論,;其二,,用分析性和建設(shè)性的論理方式對疑問和挑戰(zhàn)提出解釋并作出判斷,而不是同樣接受不同解釋和判斷,。 顯然,,AI或者算法并不具有這兩個(gè)特征:一方面,AI只能從人類提供的信息庫或語料庫出發(fā)進(jìn)行演算或合成,,不會也不可能對既有的觀點(diǎn)提出質(zhì)疑,,哪怕信息庫或語料庫中包含的判斷是假的,。另一方面,,AI面對不同判斷(例如,,前文所述的“電車難題”)時(shí)也無法進(jìn)行自身論證和抉擇,而只能訴諸偶然性,。創(chuàng)造性思維則是知識與好奇心和想象力的乘積:創(chuàng)造性思維= 知識×好奇心和想象力,。創(chuàng)造性思維首先源于知識,這里的“知識”不僅指學(xué)科和領(lǐng)域的專業(yè)知識,,也包括跨學(xué)科,、跨領(lǐng)域和跨界知識。知識越豐富,,創(chuàng)新的基礎(chǔ)就越厚實(shí),。在這點(diǎn)上,ChatGPT甚至比特定的法律人個(gè)體更強(qiáng),,因?yàn)樗且豢钔ㄓ眯腿斯ぶ悄?,理論上可以?dòng)用人類知識的總和,但關(guān)鍵在于好奇心和想象力,。

如果說ChatGPT在某些方面“像人”,,至多也只是“平庸的人”或“常人”。它對各類問題,,尤其是專業(yè)問題提供的問答,,“創(chuàng)作”的詩歌和論文很難具有智識(而非知識)上的沖擊力,制作的判決書難以成為偉大判決,,也無法為新出現(xiàn)的疑難案件提供具有突破性的解決辦法,。因?yàn)樵谶@類案件中,特別需要情境判斷(contextual judgment)或者說“智慧”,,而非依據(jù)既有規(guī)則,、先例和方法的常規(guī)判斷。AI也沒有情商,,它提供的看起來“高情商”的回答其實(shí)只是提問者自己的感受,。它看起來“創(chuàng)新性”的作品其實(shí)只是超出了提問者個(gè)體的知識邊界,卻沒有超越人類整體的知識總量,。所以,,哪怕能力再強(qiáng)大,ChatGPT也只是一套沒有意識的程序,。

(三)ChatGPT不具有自由意志(道德能力)

ChatGPT沒有自我意識,,也沒有自由意志。擁有自由意志才能控制自己的行為并為自己的行為負(fù)責(zé),,這是倫理產(chǎn)生的先決條件,。沒有自由意志,,也就沒有道德是非感。在此意義上,,有論者認(rèn)為人工智能甚至算不上真正的“智能”,,因?yàn)橹悄艿膬?nèi)核是“主體的自由”,以及主體對這種自由的自我認(rèn)知和主動(dòng)應(yīng)用,。 作為一套沒有意識的程序,,ChatGPT不會去思考它提供的回答是否道德,也不會去反思人類提出的問題本身是否隱藏著道德風(fēng)險(xiǎn),。ChatGPT之所以可能幫助學(xué)生作弊,,或者散播極端言論或虛假信息,是因?yàn)樗陨頍o法對數(shù)據(jù)進(jìn)行審查和判斷,,無法對運(yùn)作結(jié)果進(jìn)行反思和評價(jià),。AI技術(shù)本身無所謂善惡,是人類對它的應(yīng)用方式?jīng)Q定其善惡,。因此,,ChatGPT作出的回答會不會對人類有害(如勸人自殺),不取決于其自身,,完全取決于人類知識庫是否包含可能隱含不良后果的知識,。所以,即便一位犯罪嫌疑人詢問ChatGPT如何逃脫刑罰,,它也會條分縷析得頭頭是道,。

人類價(jià)值觀承載著具體的歷史和社會條件,深嵌生活形式和歷史條件之中,,人類是歷史性的存在,。但是,AI不需要?dú)v史意識,,也不需要?dú)v史遺產(chǎn),,不需要國家,甚至不需要社會,,它要做的只是程序運(yùn)行和結(jié)果輸出,。 即使將公正、自由,、平等這類人類普遍價(jià)值進(jìn)行編程寫入人工智能也無濟(jì)于事,,因?yàn)檫@些價(jià)值幾乎不可能被編碼轉(zhuǎn)化變成具體的行為指令,也無法指望AI自己能進(jìn)行這種轉(zhuǎn)化,。在此意義上,,即便存在“機(jī)器倫理”(machine ethics),它也只是一種“不擔(dān)責(zé)任的道德”,。 一方面,,人類要促進(jìn)智能科技向善,。2022年3月中共中央辦公廳、國務(wù)院辦公廳公布的《關(guān)于加強(qiáng)科技倫理治理的意見》提出,,加強(qiáng)科技活動(dòng)治理要“倫理先行”,,“實(shí)現(xiàn)負(fù)責(zé)任的創(chuàng)新”。2023年1月10日起施行的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》也要求,,提供深度合成服務(wù),,應(yīng)當(dāng)遵守法律法規(guī),尊重社會公德和倫理道德,,促進(jìn)深度合成服務(wù)向上向善。另一方面,,在道德上為AI的行為負(fù)責(zé),,確保為它們在法律和道德界限內(nèi)的活動(dòng)負(fù)責(zé)的只能是人類自己。正如《最高人民法院關(guān)于規(guī)范和加強(qiáng)人工智能司法應(yīng)用的意見》(法發(fā)〔2022〕33號)指出的:“無論技術(shù)發(fā)展到何種水平,,人工智能都不得代替法官裁判,,人工智能輔助結(jié)果僅可作為審判工作或?qū)徟斜O(jiān)督管理的參考,確保司法裁判始終由審判人員作出,,裁判職權(quán)始終由審判組織行使,,司法責(zé)任最終由裁判者承擔(dān)?!?/span>

應(yīng)當(dāng)說,,ChatGPT的底層運(yùn)作原理決定了它只是一款能利用更海量的數(shù)據(jù)、擁有更強(qiáng)大算法的程序,。它的確在某些方面(理性計(jì)算)擁有超過人類的能力,,但不具有自我意識(反思能力)和自由意志(道德能力)。正因如此,,在法律領(lǐng)域,,ChatGPT無法完全取代法律人,至多只能是為法律人提供輔助決策的高效率工具,。因此,,ChatGPT取代人類(法律人)不切實(shí)際,所謂“取代人類(法律人)”是一種虛假挑戰(zhàn),。

二,、真正挑戰(zhàn):

法律人主體性的自我消解

ChatGPT雖然不可能成為全面比肩人類和人類智能的主體,但的確可能帶來一個(gè)反向挑戰(zhàn),,即人類可能因?yàn)檫^度使用和依賴AI慢慢喪失自己的主體性,,也即自我意識的封閉和自由意志的放棄。

(一)自我意識的自我封閉(思維的庸化)

如前所述,,ChatGPT只能基于已有的數(shù)據(jù)庫和語料庫進(jìn)行信息合成處理,,而無法突破既有的(顯性的或隱性的)知識邊界,。ChatGPT在常規(guī)問題的處理上的確具有高效性等人類不及的優(yōu)勢,它提供的答案的確“過得去”,,至少能達(dá)到人類的平均水準(zhǔn),。

但或許我們大部分人,包括法律人在內(nèi),,一開始都僅僅將AI視為完成工作的輔助手段,,認(rèn)為其不可能替代我們自己的思考。但問題在于,,當(dāng)我們越來越習(xí)慣某種自己創(chuàng)造出來的,、節(jié)省腦力和精力的工具之后,就會越來越離不開它,。例如,,今天微信占據(jù)我們太多時(shí)間,但當(dāng)我們打開手機(jī)時(shí)還是會第一時(shí)間使用微信獲取信息或者與他人交流,。微信作為一款即時(shí)性的交流工具,,使用它時(shí)不需要像寫郵件那樣需先進(jìn)行體系思考,組織語言后集中表達(dá)想法,,而可以即時(shí)互動(dòng)(甚至可以沒有語言,,只通過表情包來互動(dòng))。久而久之,,使用者的思考能力和語言組織能力都會退化,。人類發(fā)明各種技術(shù)都是為了自己偷懶和舒適,但思維的惰性會讓我們越來越不愿意走出知識的舒適區(qū),,從而扼殺創(chuàng)造力,。當(dāng)我們一有問題就習(xí)慣性地求助ChatGPT時(shí),就會不自覺地將自己的思維能力降低到“庸人”的平均水平,,在潛意識里喪失了創(chuàng)新的欲望,。這也是未來人類可能會面對的最大悲哀:在人工智能時(shí)代,不是機(jī)器越來越像人,,而是人越來越像機(jī)器,!如有學(xué)者所說:“最優(yōu)先要問的問題,并不在于AI是否能夠產(chǎn)生高度接近,,甚至完全相同于人類心靈的能力,,或者是否能產(chǎn)制出與人類幾乎一模一樣的機(jī)器人(人造人);而在于人類社會的運(yùn)作,,是否越來越可以透過算法,,甚至依賴算法來進(jìn)行? 也就是那些透過算法所無法達(dá)致的心靈能力,在人類社會的運(yùn)作中,是否有可能會越來越不重要,?” 假如真的如此,,就意味著“人”的邏輯全面讓位于“機(jī)器”的邏輯,最終將導(dǎo)致主體意義上的“人”消失在所謂的“算法社會”(Algorithm Society),。

對于法律人而言,,這種思維的庸化還可能得到對風(fēng)險(xiǎn)規(guī)避的加持。例如,,AI在司法裁判中會通過學(xué)習(xí)和分析同類案件的歷史數(shù)據(jù),,要求法官對案件遵照歷史數(shù)據(jù)的結(jié)果進(jìn)行裁判。 這就造成了所謂的統(tǒng)一裁判或者說同案同判,。同案同判是形式正義的可視化和可預(yù)期性的顯現(xiàn)化,,是司法公正的一種價(jià)值符號,其背后隱含著對法的安定性和可預(yù)測性的追求,。但在司法裁判中,,它始終只是法官的初始義務(wù),始終存在著被其他更重要的理由凌駕的可能,。 但問題在于,法官會規(guī)避風(fēng)險(xiǎn),,尤其是存在錯(cuò)案追究制度的背景下,,保持與指導(dǎo)性案例等判決先例的一致性就會成為規(guī)避風(fēng)險(xiǎn)的不二選擇。哪怕待決案件的特殊性要求其作出“無成例”的情境判斷或運(yùn)用司法智慧作出創(chuàng)造性判決,,多數(shù)法官在潛意識里也會傾向遵循成例,,因?yàn)檫@無疑更安全。如此一來,,同案同判就會從一種可被凌駕的初始性義務(wù)在實(shí)際上演變?yōu)榻踅^對的強(qiáng)制,。所以,雖然《最高人民法院關(guān)于統(tǒng)一法律適用加強(qiáng)類案檢索的指導(dǎo)意見(試行)》并無強(qiáng)制法官按照類案檢索的結(jié)果判決案件的規(guī)定,,但實(shí)際上在大多數(shù)情況下會產(chǎn)生這種導(dǎo)向,。以至于最高人民法院在一個(gè)參考案例的“裁判要旨”部分專門強(qiáng)調(diào),關(guān)于類案檢索的規(guī)定是就相類似案件作統(tǒng)一裁判尺度的參考,,并非適用法律的強(qiáng)制性規(guī)范,。

智能化司法的正當(dāng)性取決于兩個(gè)前提,即依據(jù)歷史數(shù)據(jù)裁判是正確的,,且裁判模式會反復(fù)運(yùn)行,。 但一方面,即便歷史數(shù)據(jù)庫(案例庫)全面真實(shí)反映了先前判決的情況,,也不能保證這些判決本身都是正確的,。而且吊詭的是,如果歷史數(shù)據(jù)或先前判決是錯(cuò)誤的,,那么遵循同案同判的邏輯,,運(yùn)用AI裁判會導(dǎo)致錯(cuò)誤的結(jié)果一次次在后來的判決中復(fù)現(xiàn),,這就會出現(xiàn)越錯(cuò)誤反而越正確的荒謬情形。另一方面,,讓同一種裁判模式反復(fù)運(yùn)行(同案同判)不是司法的絕對要求,。同案同判可能與正確裁判的要求發(fā)生背離。作為案件裁判背景的社會環(huán)境和公眾價(jià)值觀念可能會發(fā)生變化,,新出現(xiàn)的案件也可能存在前案不具備的額外特征,。在前一種情況下,對于同一事實(shí)特征的法律評價(jià)本身發(fā)生了變化,;在后一種情況下,,伴隨額外特征的出現(xiàn),相應(yīng)的價(jià)值判斷可能會要求法官作出差異化判決,。 如果法官只是機(jī)械遵從同一種裁判模式,,就會完全無視個(gè)案的特征與“個(gè)性”和時(shí)代的要求。極端一點(diǎn)說,,假如法官主動(dòng)或被動(dòng)地去追求機(jī)器裁判,,那么法官本身就變得毫無意義,因?yàn)橹灰胁门械臍v史數(shù)據(jù),,任何一位程序員都可以完成法官的工作,。再往極端一點(diǎn)說,法院也可以被撤銷,,至少不需要再有這么多的審級(因?yàn)楦骷壏ㄔ憾及凑諝v史數(shù)據(jù)來裁判,,判決將不再有通過上訴被推翻的可能性)。法院將只剩下執(zhí)行部門,,甚至執(zhí)行部分在某些案件判決中也不再需要,。例如,設(shè)計(jì)一個(gè)關(guān)聯(lián)程序,,民事判決一旦生效,,就自動(dòng)轉(zhuǎn)移電子貨幣來執(zhí)行民事賠償。

類似地,,法學(xué)院的學(xué)生越來越依賴ChatGPT后,,會在遇到法律問題時(shí)習(xí)慣性地第一時(shí)間向它發(fā)問,在需要完成案例分析,、論文寫作等任務(wù)時(shí)也會習(xí)慣性地求助它,。久而久之,他們就會喪失法學(xué)創(chuàng)新能力,,乃至對既有法律知識和法律觀點(diǎn)進(jìn)行挑戰(zhàn),、反駁和超越的勇氣,泯滅探求新知的好奇心和想象力。因此,,真正的挑戰(zhàn)在于,,如果ChatGPT全面介入人類的生活,會有導(dǎo)致使用者將自己原本不封閉的意識世界自我封閉起來,,進(jìn)行思維上的自我庸化的風(fēng)險(xiǎn),。

(二)自由意志的逐漸放棄(道德的鈍化)

在自我封閉自我意識的同時(shí),法律人也可能會逐漸放棄自由意志,。法律實(shí)踐是運(yùn)用法律來調(diào)整社會關(guān)系的活動(dòng),,其間摻雜著復(fù)雜的價(jià)值判斷和道德判斷。法律人的重要職責(zé)在于,,通過基于理由的論證負(fù)責(zé)任地提出某個(gè)可被接受的實(shí)踐主張,,并且對他人提出的同種性質(zhì)的主張作出回應(yīng)(贊成或反對)。但是,,習(xí)慣使用ChatGPT的法律人,,會在兩種意義上削弱自己的自由意志,從而壓縮自主道德判斷形成的空間,。一方面,,如果輸入端信息庫和語料庫中既有的價(jià)值判斷是單一類型的,那么ChatGPT提供的答案也將具有價(jià)值單一性,。長此以往,,使用它的法律人就像身處“信息繭房” ,習(xí)慣于倫理上的“主流見解”,,喪失道德反思的能力,甚至想象不到有其他道德觀點(diǎn)和價(jià)值證立途徑的可能性,。另一方面,,如果輸入端信息庫和語料庫中的價(jià)值系統(tǒng)本身就相沖突,那么ChatGPT提供的答案將具有隨機(jī)性和偶然性,,使用它的法律人可能會將這些偶然的答案當(dāng)作“標(biāo)準(zhǔn)答案”,,使價(jià)值判斷失去統(tǒng)一性和融貫性。

更為嚴(yán)重的是,,當(dāng)法律人越來越習(xí)慣和依賴ChatGPT提供的“標(biāo)準(zhǔn)答案”時(shí),,就會不自覺地逐漸喪失對答案的道德反省能力,變成“道德無感”(morally indifferent)的人,。他們會下意識地認(rèn)為,,道德判斷也是一種程序和運(yùn)算。因?yàn)椤按髷?shù)據(jù)告訴我們'是什么’,,而不是'為什么’,。”“知道是什么就夠了,沒必要知道為什么,?!?nbsp;他們傾向于獲得對于某個(gè)與法律相關(guān)之價(jià)值判斷問題的(或是真實(shí)的,或是他們認(rèn)為的)社會主流觀點(diǎn)(是什么),,而不去問支持這種觀點(diǎn)的規(guī)范性理由何在(為什么),。他們不再考察系統(tǒng)輸出的道德觀念依據(jù)的道德規(guī)則是否經(jīng)得起批判,以及歷史生成的檢驗(yàn),, 又是否存在相反的同樣合理的道德觀點(diǎn)及理由,。因?yàn)檫@樣做對他們而言無疑更安全,風(fēng)險(xiǎn)也更低,。一旦形成對算法程序的依賴,,最終的結(jié)果就可能是:理由不再重要,重要的是歷史統(tǒng)計(jì)數(shù)據(jù),,論證不再重要,,重要的是對過去的模仿。 一旦如此,,法律人就相當(dāng)于放棄了追問“為什么”的義務(wù),,慢慢地將喪失自主思考的能力,實(shí)質(zhì)上就是在以服從歷史模型的方式臣服于機(jī)器,,機(jī)器便以尊重歷史經(jīng)驗(yàn)的表象實(shí)際統(tǒng)治了人類,。

法律的核心技術(shù)在于規(guī)范性指引(normative guidance),它向必然能理解和適用它們的行動(dòng)者來頒布規(guī)范,。作為實(shí)踐推理的法律推理,,是法律人運(yùn)用包括法律規(guī)范在內(nèi)的理由進(jìn)行論證和說服的活動(dòng),必然包含道德向度,。這意味著,,法律人必須為他所作的判斷和結(jié)論擔(dān)責(zé),即必須公開承認(rèn)這些結(jié)論,,并向其他對這些結(jié)論及其理由進(jìn)行評估的人在實(shí)踐上負(fù)責(zé),。因此,法律人在法律商談與決策的過程中相互負(fù)有道德責(zé)任,。 如果過度依賴ChatGPT,,法律人將會自欺欺人地將這種判斷和說理的道德責(zé)任推給機(jī)器,而不再愿意在復(fù)雜的人類事務(wù)和實(shí)踐困境中運(yùn)用理由進(jìn)行爭辯,,甚至最后會喪失這樣做的道德勇氣,,從而放棄了人作為道德主體的地位。

因此,,ChatGPT對于法律人乃至整個(gè)人類最大的挑戰(zhàn)在于,,它可能會慢慢帶來使用者思維的庸化和道德的鈍化,,使其逐漸封閉自我意識,放棄自由意志,,在不知不覺中臣服于自己所發(fā)明的技術(shù),,造成主體性的自我消解。

三,、技術(shù)文明對法律文明

(人的文明)的挑戰(zhàn)

從社會文明的視角看,,法律人的主體性危機(jī)同時(shí)意味著法律文明乃至整個(gè)人類的文明的危機(jī)。隱藏在ChatGPT可能帶來法律人失業(yè)這一表面問題背后的是,,作為社會實(shí)踐的法律實(shí)踐內(nèi)在意義的消解,,以及技術(shù)系統(tǒng)對法律文明(人的文明)的宰制。

(一)社會實(shí)踐(法律實(shí)踐)內(nèi)在意義的消解

在《人類簡史》中提到,,人工智能的大量使用必定導(dǎo)致大量失業(yè),,從而使越來越多的人淪為“無用階層”。 但是,,失業(yè)問題的要害并不在于生存手段的喪失,。在人類歷史從農(nóng)業(yè)社會到工業(yè)社會再到信息社會的發(fā)展過程中,很多舊行業(yè)隨著技術(shù)進(jìn)步消失了,,但也產(chǎn)生了很多新行業(yè),。有很多行業(yè)恰恰是在信息技術(shù)和AI出現(xiàn)后產(chǎn)生的。更何況前文已經(jīng)提及,,ChatGPT并不具備真正的創(chuàng)造能力,,因此它只能替代較為低端的知識性和常態(tài)化的勞動(dòng)。

失業(yè)問題的要害在于生活意義的消失,。陷入“無用”階層的人群將面臨技術(shù)層面的主體性危機(jī):當(dāng)AI替代人類完成大量日常工作后,,無事可做的人能夠做什么?以什么事情去度過時(shí)間,?勞動(dòng)除了作為生存手段的硬意義,,還有不可或缺的軟意義:它提供了“生活內(nèi)容”,也就是接觸事物和人物的經(jīng)驗(yàn),。與事物和人物打交道的經(jīng)驗(yàn)充滿復(fù)雜的語境、情節(jié),、細(xì)節(jié),、故事和感受,經(jīng)驗(yàn)的復(fù)雜性和特殊性既是生活意義的構(gòu)成成分,,也是生活值得言說,、交流和分享的緣由。假如失去了勞動(dòng),,生活就失去了大半內(nèi)容,,甚至無可言說,。 一言以蔽之,勞動(dòng)不僅是生存的手段,,也是人類有意義的社會實(shí)踐,。通過勞動(dòng),人類在有目的地改造自然的同時(shí)也在改造自身,。如果勞動(dòng),,特別是以改造自然為目的的勞動(dòng)不再成為生存的需要,那么人作為實(shí)踐主體的本質(zhì)就部分地喪失了,。哈貝馬斯就將科學(xué)技術(shù)理解為一種“新型意識形態(tài)”,,這種“新型意識形態(tài)”以技術(shù)取代了實(shí)踐,直接沖擊人的主體性本身,,使人陷于自愿的“被壓迫”狀態(tài),,甚至感受不到壓迫。因此,,技術(shù)統(tǒng)治的意識形態(tài)核心是實(shí)踐和技術(shù)差別的消失,。 人工智能技術(shù)進(jìn)一步混淆了技術(shù)與實(shí)踐的區(qū)別,以技術(shù)取代了人的實(shí)踐本身,。 當(dāng)人們失去勞動(dòng)的同時(shí),,一切需求又可以得到滿足,也就失去了反思和改造自身的機(jī)會,,社會實(shí)踐將消解,,生活內(nèi)容就剩下虛無。

對于法律人而言,,法律實(shí)踐這種社會實(shí)踐的“生活內(nèi)容”尤為重要,。以法律推理要求法律人必須以各種方式參與事實(shí)、規(guī)范和價(jià)值,。 律師需要面對面與當(dāng)事人打交道,,需要與當(dāng)事人交談,需要接觸案件細(xì)節(jié)和證據(jù),,才能在法律與事實(shí)之間恰當(dāng)?shù)赜巫?,為?dāng)事人尋求法律上的最佳幫助。法官需要有訴訟程序的親歷性,,需要接收到當(dāng)事人和證人直接言詞的信號,,需要有雙方當(dāng)事人及其代理人當(dāng)面的質(zhì)證和交鋒,才能通過程序求得最佳法律判斷,。司法親歷是司法人員“身到”與“心到”的統(tǒng)一,、司法人員親歷與人證親自到庭的統(tǒng)一、審案與判案的統(tǒng)一,,也是親歷過程與結(jié)果,、實(shí)體與程序的統(tǒng)一,。其基本要求是直接言詞審理、以庭審為中心,、集中審理,、裁判者不更換、事實(shí)認(rèn)定出自法庭,、審理者裁判,、裁判者負(fù)責(zé)。 在對司法規(guī)律缺乏敬畏,、對法官主體性缺乏尊重的技術(shù)路線下,,司法可能會變成一百年前就被詬病的“自動(dòng)售貨機(jī)”式的司法,甚至?xí)S為大數(shù)據(jù)和算法底下的一場機(jī)器化的僥幸賭博,。訴訟程序的親歷性和直接言詞性就會大打折扣,,傳統(tǒng)程序理論強(qiáng)調(diào)的“直觀的”“看得見的”、儀式化的程序正義幾乎是缺失的,。

過度依賴于AI的審判也會導(dǎo)致司法劇場化的退場,。司法的劇場化是指在以“劇場”為符號意向的人造建筑空間內(nèi)進(jìn)行的司法活動(dòng)類型,它對于現(xiàn)代法治的制度,、精神和習(xí)慣的形成具有內(nèi)在的潛移默化的影響:內(nèi)化人們的理性精神和品質(zhì),,凸顯程序和秩序觀念,促成法律活動(dòng)的技術(shù)化和專門化,,增強(qiáng)法律的神圣性和權(quán)威性,。 司法劇場化的核心在于各種法律角色通過參與程序化商談(程序正義)來消弭價(jià)值分歧,確立公共行動(dòng)標(biāo)準(zhǔn),。法律程序的法治意義恰恰體現(xiàn)在通過程序化商談構(gòu)建正確的法律規(guī)則系統(tǒng)并加以實(shí)施的整全性實(shí)踐之中,。 缺失了這種程序和過程,法治的意義也將在很大程度上喪失,。AI審判會使得司法從三維活動(dòng)降格為二維活動(dòng),,它只注重結(jié)果,不注重程序和過程,,只注重觀點(diǎn),,不注重理由和提出理由并展開交鋒的活動(dòng)(商談)。由此,,伴隨著以程序正義為核心的法律實(shí)踐一并消逝的還有法治本身,。甚至當(dāng)AI可以基于法官個(gè)人審判的歷史數(shù)據(jù)進(jìn)行預(yù)測時(shí),它會進(jìn)一步將司法裁判變成一種服務(wù)購買,,用商業(yè)偏好邏輯取代司法倫理, 從而瓦解和破壞法律的權(quán)威性,。

(二)技術(shù)系統(tǒng)對法律文明(人的文明)的宰制

當(dāng)AI成為萬能技術(shù)系統(tǒng)為人類提供全方位的服務(wù),,一切需求借由技術(shù)來滿足時(shí),,那么一切事情的意義就變成了由技術(shù)系統(tǒng)定義和宰制,每個(gè)人只需要技術(shù)系統(tǒng)而不再需要他人,,人對于人將成為冗余物,,人再也無須與他人打交道。結(jié)果是人不再是人的生活意義的分享者,,人對于人失去意義,、失去興趣。這是人的深度異化,,不僅是存在的迷茫,,而且是非人化的存在。因?yàn)樽匀顺蔀槿艘詠?,人的意義和生活都是在人與人的關(guān)系中被定義的,。如果人不再需要他人,或者說每個(gè)人都不被他人需要,,那么生活的意義又在哪里,? 人只有在共同體中才能使固有的身心素質(zhì)得到發(fā)展。因此人從本性上說是一種社會存在,。人的精神只能在人與人之間的交往中才能發(fā)展起來,。人也只能在其共同體中成為一個(gè)完全的人,一個(gè)能承擔(dān)責(zé)任的人,。

法律上的人也是作為社會存在的人,,特殊之處在于其“社會存在”是經(jīng)法律規(guī)范調(diào)整的社會關(guān)系,即法律關(guān)系,。法律上的人就是法律關(guān)系的主體,,而法律關(guān)系的主體具有相互性。權(quán)利人和義務(wù)人是相對存在的,,“因而只有那些有資格作為法律秩序中義務(wù)或權(quán)利的人的行為和不行為,,才是與法律上的人的概念有關(guān)的。一個(gè)人只有在他'具有’義務(wù)和權(quán)利時(shí)才存在,,離開義務(wù)和權(quán)利,,就無所謂人了?!?nbsp;同理,,“法律人”也是一種在主體間意義上的身份識別。律師是相對當(dāng)事人而言的,,檢察官是相對被告人而言的,,原、被告互為兩造,,法官則是兩造之間的中立裁判者,。正是在這些相互關(guān)系中,,在法律人對其他法律人的互動(dòng)(合作和對抗)中,法律人共同體才得以塑造,,法律實(shí)踐的意義乃至法律本身的意義才得以展現(xiàn),。當(dāng)一切法律問題都可以通過ChatGPT這類語言模型或機(jī)器學(xué)習(xí)模型獲得答案時(shí),當(dāng)法律人不再需要法律關(guān)系中的“對方”和“他者”時(shí),,法律人的主體間關(guān)系就將為人與機(jī)器的主客體關(guān)系取代,,法律人將成為“單向度的人”,法律人共同體也將不復(fù)存在,。由此,,“法律人”這種身份最終將消解在這場技術(shù)主義的盛宴之中。

法律文明是人的文明,,是人類文明中與法律相關(guān)的各項(xiàng)元素的總和,,揭示的是人類社會進(jìn)化發(fā)展至文明階段出現(xiàn)的社會現(xiàn)象,體現(xiàn)的是人類法治發(fā)展演變的內(nèi)在規(guī)律,。 無論如何,,法律制度是人類文明的產(chǎn)物,是“人”的制度映射,,法律文明的核心在于“人”,。ChatGPT在未來可能展現(xiàn)的最大威脅即用技術(shù)文明取代人的文明。技術(shù)文明最大的特征是用程序和可計(jì)算性化約人類生活的復(fù)雜性,。從社會功能的角度看,,大量日常的、程式化的工作的確都可以由技術(shù)和算法完成,。但問題在于,,當(dāng)人類越來越習(xí)慣通過AI獲得對這個(gè)世界的認(rèn)識時(shí),就逐漸喪失了面對新情形和新挑戰(zhàn)創(chuàng)造性地予以回應(yīng)的欲望,,越來越自甘平庸,,進(jìn)而消弭自身的主體性。人的主體性意味著他可以突破自然人的概念,,成為一種“自定人”(self-defined man),,即自己決定自己成為什么樣的人。這意味著,,人是具有自主意志和思想的主體,,擺脫了上帝的精神支配,因此獲得了存在論上的自由,。而存在論上的自由意味著人可以塑造自己,,重新定義自己,甚至創(chuàng)造自身。 一旦放棄了人的文明,,技術(shù)時(shí)代的人類將逐步放棄自我意識和自由意志,,變得道德無感,喪失生活的意義,,去接受機(jī)器的“思維”(算法)。AI或許在不帶任何人類感情的計(jì)算理性的意義上,,能夠?yàn)槿祟惖男袨樘峁┧^的“最佳選擇”,。在此,人類的一切行為都變得可計(jì)算,、可預(yù)測,、可控制。如果說人是社會關(guān)系的總體,,社會關(guān)系又由相互間的行為來界定,,那么一切行為均由算法和程序控制的人在本質(zhì)上就成為了算法和程序的產(chǎn)物。由此,,人性(主體性)將逐步屈從于技術(shù),,人的文明也將被技術(shù)系統(tǒng)吞噬和消解。

所以,,在不遠(yuǎn)的未來,,人類文明面對的最大困局是人性與飛速發(fā)展的技術(shù)不相匹配,人性無法駕馭技術(shù),。這一困局的兩個(gè)最大表現(xiàn)是技術(shù)奴隸社會和人的文明的毀滅可能,。人工智能的發(fā)展蘊(yùn)含這樣一種技術(shù)邏輯和趨勢:它會打破和取代幾千年來占絕對主流的重復(fù)性勞動(dòng)及相應(yīng)生活常態(tài)。這種技術(shù)邏輯在資本邏輯的作用下會形成技術(shù)奴隸社會,。一旦人性無法有效控制技術(shù)的負(fù)效用,,尤其是無法控制潛在的毀滅風(fēng)險(xiǎn),人的文明就將遭受整體性毀滅,。這種風(fēng)險(xiǎn)是超越國家,、民族、種族和文化差異的,。 雖然有識之士對這種“壞的”技術(shù)文明的反思,、人的主體性對這種技術(shù)異化現(xiàn)象的反抗從未停止過,但當(dāng)AI越來越全方位地介入人類的生活時(shí),,當(dāng)每個(gè)人都越來越依賴于無所不在的智能系統(tǒng)時(shí),,幾十年、數(shù)百年之后的后代還能在整體上保持這種主體性嗎,?

四,、結(jié)語

ChatGPT預(yù)示著強(qiáng)人工智能時(shí)代的到來,但是在法律領(lǐng)域,它無法完全取代法律人,,至多只是輔助決策的工具,。ChatGPT在未來可能展現(xiàn)的最大威脅是用技術(shù)文明來取代人的文明,如果這種威脅成為現(xiàn)實(shí),,那么作為人的文明的法律文明也將消失在算法和程式之中,。所幸的是,人類未來還有另一種可能,,即如果有足夠多的人,,包括法律人能夠?qū)τ谇耙环N可能保持警惕,在人類實(shí)踐,,包括法律實(shí)踐中克服思維庸化和道德鈍化的惰性,,那么人類文明將克服技術(shù)文明的弊病,展現(xiàn)更為光明的前景,。當(dāng)然,,對人類的惰性不可抱有過高期待,希望其能完全通過自律方式來自我克服無疑是一種過于美好的愿望,。所以,,借助必要的制度設(shè)計(jì)來防范和控制可能的風(fēng)險(xiǎn)仍屬當(dāng)然之舉??傊?,法律人在充分享受AI帶來的便捷和效率等紅利的同時(shí),不得放棄自己作為“審查者”和“監(jiān)護(hù)者”的職責(zé),。因?yàn)樵凇捌纥c(diǎn)”到來之前,,AI再怎么“高明”,本質(zhì)上也是沒有自我意識和自由意志的機(jī)器人,。在法律上為機(jī)器人的行為負(fù)責(zé),,從而確保為它們在法律界限內(nèi)的活動(dòng)負(fù)責(zé)的總是人類自己。讓機(jī)器回歸機(jī)器的定位,,也即人類(日常的或?qū)I(yè)的)活動(dòng)的輔助者而非宰制者,,才是根本之道。如果人創(chuàng)造了機(jī)器,,卻用機(jī)器來規(guī)訓(xùn)自己,,最終反而讓機(jī)器走上神壇成為自己的主宰,那么這終究是人的悲哀,,而不是機(jī)器的悲哀,。這種技術(shù)文明真的是我們所追求的嗎?或許需要牢記的是:沒有人的文明毫無意義,。


圖片

    本站是提供個(gè)人知識管理的網(wǎng)絡(luò)存儲空間,,所有內(nèi)容均由用戶發(fā)布,,不代表本站觀點(diǎn)。請注意甄別內(nèi)容中的聯(lián)系方式,、誘導(dǎo)購買等信息,,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,,請點(diǎn)擊一鍵舉報(bào),。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多