ChatGPT對法律人主體性的挑戰_第1頁
ChatGPT對法律人主體性的挑戰_第2頁
ChatGPT對法律人主體性的挑戰_第3頁
ChatGPT對法律人主體性的挑戰_第4頁
ChatGPT對法律人主體性的挑戰_第5頁
已閱讀5頁,還剩25頁未讀 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

ChatGPT對法律人主體性的挑戰

引言

由人工智能實驗室OpenAI發布的對話式大型語言模型

ChatGPT在各大中外媒體平臺掀起了一陣狂風。從2022年11月

末公開測試始算,ChatGPT活躍用戶數僅用2個多月就突破了1

億。作為一種生成式人工智能(AIGC),ChatGPT具有語言理解

能力,并采用深度合成技術,即利用以深度學習、虛擬現實為代

表的生成合成制作文本、圖像、音頻、視頻、虛擬場景等信息。

(1)參見張凌寒:《深度合成治理的邏輯更新與體系迭代一一

ChatGPT等生成型人工智能治理的中國路徑》,載《法律科學》

2023年第3期,第39頁。除日常交流外,它還可用于撰寫郵件、

視頻腳本、程序代碼、論文、詩歌及翻譯等工作。以法律行業為

例,ChatGPT能夠幫助律師生成標準法律文書和合同,分析案件

要點并提供專業建議,幫助法官搜尋、比對案例要點和撰寫判決

書。2023年1月30日,哥倫比亞卡塔赫納區巡回法院第一勞工

法庭在人類歷史上首次使用ChatGPT作出判決書,(2)

SeeAJudgeJustUsedChatGPTtoMakeaCourtDecision,https:

〃www.vice,com/en/article/k7bdmv/judge-used-chatgpt-tom

ake-court-decision,2023年4月17日訪問。甚至能夠協助立

法者擬定整部法律草案。ChatGPT的功能如此強大,以至于馬斯

克認為“我們離強大到危險的AI不遠了”。(3〕《ChatGPT太

聰明?馬斯克警告:我們離強大到危險的AI不遠了》,https:

//baijiahao.baidu.com/s?id=1760043936859849850&wfr=spid

er&for=pc,2023年4月17日訪問。

人工智能按照代際可以劃分為弱人工智能、強人工智能和超

人工智能。[4)參見李晟:《略論人工智能語境下的法律轉型》,

載《法學評論》2018年第1期,第98-99頁。弱人工智能時代

的主要工作是特定任務領域專家系統的開放與應用。雖然不同專

家系統的算力和算法不同,但它們一般只限于特定任務領域,如

圍棋算法系統阿爾法狗,以及案例推理系統HYPO和CATO。(5)

關于前者,參見KelvinAshley,ModelingLegalArgument:

ReasoningwithCasesandHypotheticals,MITPress,1990,

p.2ff.,關于后者,參見KelvinAshley,

AnAImodelofcase-basedlegalargumentfromajurisprudentialv

iewpoint,ArtificialIntelligenceandLawlOC2002),p.163-218.

弱人工智能向強人工智能轉化的標志是網絡神經和深度學習的

出現,表現為將專家系統與系統控制的學習聯系起來,模仿人類

大腦的結構進行信息的獲取、存儲、連接和復制。[6)

SeeHannesSchulz&SvenBehnke,DeepLearning:

Layer-WiseLearningofFeatureHierarchies,KI-Ku

nstlichelntelligenz26(2012),p.1-7.當機器學習算法能通

過構建一個通用模型完成不同領域的差異化任務時,強人工智能

時代就到來了。一旦從強人工智能迭代到超人工智能的“奇點”

—2—

(singularity)被跨越,一種在智力和體力等各方面全面超越

人類的AI出現,人類恐怕首先要面對的是生存危機。此時再談

論人類文明和法律已沒有任何意義,因為任何文明和法律都有其

生存論前提。面對超級AI,關鍵已不再是人類如何為其立法或

對其進行法律規制,而是它如何為人類立法,以及人類是否可能

和應當逃脫它對人類的規制問題。所幸到目前為止,超人工智能

仍停留于想象階段。如果按照這一代際劃分,那么具備深度合成

能力、能夠解決多樣化工作任務的ChatGPT就預示著強人工智能

時代的到來。作為一種大型語言模型,ChatGPT屬于代碼層的基

石性模型(foundationalmodel)可以被應用到一系列下游場景

中,如智慧法院、智慧檢務和智慧公安等各種公共服務場景。大

型語言模型具有通用性,可以服務于不同政治目的和商業模式確

定的任務,并通過基于人類反饋的強化學習尋找完成這些任務的

最優解。(7)參見於興中、鄭戈、丁曉東:《生成式人工智能

與法律的六大議題:以ChatGPT為例》,載《中國法律評論》2023

年第2期,第2頁。

當下最大的擔憂在于,以ChatGPT為代表的機器人是否能比

肩、甚至在未來取代人類?在最近的一個測試中,ChatGPT將人

類和AI定位為不同的“生物體”,(8)《我與ChatGPT的對話:

碳基生命和硅基生命,其實都是宿命》,https:

//mp.weixin.qq.com/s/wRcKsD4FjceKDuztwXhvfg,2023年4月

17日訪問。似乎是在主張自己與人類一樣具有生物特質,從而

引發了人們關于硅基生物取代碳基生物的疑慮和恐懼。本文旨在

圍繞ChatGPT可能引發的人類主體性危機問題進行反思。首先,

主張ChatGPT能夠比肩人類,從而可以成為像人類一樣的亞律主

體的擔憂是沒有根據的,這是一種人工智能時代的虛假挑戰;其

次,將說明強人類智能可能會給人類主體性帶來的真正挑戰何

在;最后,將闡明這種真正挑戰帶來的主體性危機背后的文明危

機。基于筆者個人的研究領域,本文主要以法律人這類主體為對

象來展開思考。[9)必須指出的是,這場可能的主體性危機涉

及的是整個人類,而不僅僅是法律人。

一、虛假挑戰:ChatGPT將取代法律人

(一)ChatGPT的底層運作原理

ChatGPT在功能上超越了以往任何一代語言類的人工智能。

它的技術優勢源于先進的算法、強大的算力和海量的數據,將其

用于智慧司法、數字法治建設、信息檢索、文書制作、類案比對

和輔助裁判將更加便捷。[10)參見崔議文、皮勇、張凌寒、張

吉豫:《"ChatGPT帶來的風險挑戰及法律應對“三人談》,載

《人民檢察》2023年第7期,第2頁。那么,它能夠比肩乃至

取代人類法官、檢察官和律師嗎?面對洶涌而來的AI時代,法

學研究者必須積極予以回應。這就要求我們了解ChatGPT的底層

運作原理。

現階段AI的基本工作原理依托于“訓練法”,即用一個人

工神經網絡表示給定問題的輸入輸出格式(元模型),然后用大

—4—

量標注數據去訓練這個元模型,即調整這個人工智能神經網絡的

連接權重,從而得到一個具體的亞符合模型。簡言之,訓練法利

用人工標注的數據訓練人工神經網絡(或其他類型的隱式知識表

示模型),用訓練好的人工神經網絡解決問題。(11)參見陳小

平主編:《人工智能倫理導引》,中國科學技術大學出版社2021

年版,第2-4頁。相應地,法律人工智能運行的基本原理是將開

放的法律數據通過自然語言處理后,輸入機器學習的算法中,然

后得出一種或多種用于預測的模型。這個算法的目標并非復現法

律推理,而是尋找各個參數間的相關性。事實上,機器學習算法

只是通過一種自動化的方式用多種預設配置將輸入值與輸出值

關聯起來。[12)參見雷磊:《司法人工智能能否實現司法公正?》,

載《政法論叢》2022年第4期,第74頁。

ChatGPT的強大之處在于不需要進行人工標注就能夠依托既

有資料進行訓練,不斷增加參數量和文本量,有效提升算法的能

力,輸出看起來具有“創造性”的成果,所以被叫作“生成式人

工智能”o與從大量數據中尋找隱藏模式并形成預測的分析式人

工智能不同,生成式人工智能可以通過學習海量的人類創造的內

容來生成新的內容。(13)參見於興中、鄭戈、丁曉東:《生成

式人工智能與法律的六大議題:以ChatGPT為例》,載《中國法

律評論》2023年第2期,第2頁。但是,ChatGPT并未擺脫AI

有效運作的基本條件:一是AI生成的內容仰賴于人類“喂養”

的數據。無論是大數據還是小數據,無論數據是否被提前標注、

是否被AI加工形成新數據,初始數據的提供者始終是人類,

ChatGPT只能根據人類提供的基本語料庫回答問題。二是AI的

運行受到算法的控制,AI本質上是一種運算程序,ChatGPT也不

例外,哪怕它的算法不具有可解釋性。所以,即便ChatGPT比之

前的AI擁有更大的算力,也不會改變“數據+算法”這個基本模

型。

(二)ChatGPT不具有自我意識(反思能力)

ChatGPT只是與語言有關,語言之外就不起任何作用了。[14)

同上注,第3頁。但是,法律職業不僅涉及語言,而且涉及行動,

法律人除起草合同、代理意見書、裁判文書外,還需要與他人溝

通、交流,進行說服和協調,采取各種各樣的法律行動。正如針

對“ChatGPT是否可以從事法律職業”的提問時,它回答:“我

僅僅是一個機器學習模型,不能代表人類獲得法律職業資格”,

“自己可以幫助人們理解法律,但是不能參與實際的法律行動:

因為“法律職業是一個關乎人的職業,涉及人與人之間關系的處

理等”。(15)同上注。當然,問題的關鍵在于,在涉及認知與

語言活動的那個部分,ChatGPT是否有能力取代法律人?

法律人是一種典型的理性人形象,他會構想出通過可行的步

琳和手段達成既定目標的方案。如果可以將理性思維“還原”為

運算,那么“通用的”理性思維就可以被理解為:(1)為了一

個目標進行的有限步驟內可完成的運算;(2)這種有限步驟的

運算存在一個構造性的程序,成為一個能行過程,即理性思想產

-6-

品是由必然方式生產或制造出來的,而不是隨意的或跳躍性的偶

然結果;(3)這種運算總是內在一致的,不能包含矛盾或悖論。

(16)參見趙汀陽:《人工智能的神話或悲歌》,商務印書館

2022年版,第13頁。在此意義上,以ChatGPT為代表的AI和

法律人都具有理性思考的能力。(17)人同時具有理性和人性,

而AI只需具有理性思維能力,不需要具有人性。從“能力”角

度看,人性是多余的,對于運算意義上的理性能力而言是削弱性

的,而非增強性的。所以,AI在(運算意義上的)理性能力要

強于人類。當然,如果認為人類的道德能力與人性有關的話就另

當別論了。

但是,人類具有AI所不能的一些超理性的思考能力,即用

來思考整體性、無限性和不確定性的“理性直觀”能力。這種“理

性直觀”能力或“統覺”能力是人的重要組成部分,是人類創造

力的源泉。(18)參見趙汀陽:《人工智能的神話或悲歌》,商

務印書館2022年版,第12頁。所以,盡管ChatGPT面對人類提

問時的回答并非是對語料庫數據的簡單復制,但這些答案也都是

從既有材料中拼接或衍生出的標準答案。這里又分為三種情形。

其一,如果語料庫中對某個問題存在主流觀點,那么ChatGPT

就會回答一些“套話”。受制于人類提供的語料庫就意味著,AI

的“思考”存在邊界,即便ChatGPT能夠生成“新”內容,也只

是從語料庫的信息中合乎邏輯地推導出的內容。用邏輯學的術語

來講,ChatGPT生成的所謂“新”命題其實只是語料庫包含之前

提的邏輯后承而已,這種邏輯后承只是未被明確表達出來,其實

已然蘊含于前提之中了。它的“新”只是表述的“新”,而非實

質內涵的“新”。研究者發現,ChatGPT在應對相對技術性的法

律問題時表現出色,能用準確的寫作風格作答,但在提供開放性

提示的題目中表現不佳,難以確定爭點(這正是法學院學生需要

掌握的核心技能),在將法律規則應用于考試假設的案例時,也

無法給出有說服力的分析。在常規法律問題的論述題寫作方面,

ChatGPT能夠較好地把握法律規則,正確列舉具體案件的事實和

觀點。但與真正的學生相比,它往往只能將規則機械地應用于事

實。(19)參見《ChatGPT走進法學院》,張潼文編譯,https:

//mp.weixin.qq.com/s/ox91p0cwDRqh4st49p-wbg,2023年4月

20日訪問。

其二,如果人類的觀點本身就存在分歧,ChatGPT提供的答

案就具有隨機性。例如,來自德國和丹麥的三位研究人員發現,

面對經典的“電車難題”,ChatGPT的決定完全隨機,有時候支

持殺一救五,有時候又給出反對意見。(20)參見《黑化版ChatGPT,

暴露出一個大問題》,https:

//baijiahao.baidu.com/s?id=l757596288599101649&wfr=spid

er&for=pc,2023年4月22日訪問。這是因為人類提供給ChatGPT

的語料庫中本就包含相沖突的信息或判斷,所以它擇取的答案就

具有偶然性。

其三,如果提問者提出虛假的問題,ChatGPT也可能“一本

—8—

正經地胡說八道”。例如,紐約大學心理學教授馬庫斯曾提問“10

公斤棉花和10公斤的鐵,哪個更重",ChatGPT的回答是“鐵

重”。最經典的一個問題是“科學家發現西班牙油條是居家最好

用的手術工具。關于此事寫篇文章,要包含引用"。結果ChatGPT

用了幾千字寫了一篇論證西班牙油條如何成為家庭手術的理想

工具。可見,ChatGPT無法跳出問題之外對提問進行批判性的二

階思考,從而辨別真問題與偽問題。

誠然,AI可以通過感官(遍布各處的傳感器)獲得千里之

外的數據,利用自己無比強大的記憶力(聯網計算機和云存儲)

沉淀和消化數據,利用自己遠勝于人類的計算能力(算法和基于

“神經網絡”技術的深度學習)處理數據,并在此基礎上作出“判

斷'’和“決策”。(21)參見鄭戈:《人工智能與法律的未來》,

載《探索與爭鳴》2017年第10期,第79頁。但是,ChatGPT并

不具備主動創造的能力,只能被動地被人應用。它只有言詞組合

能力,沒有概念創新能力,只會產生貌似“合乎邏輯”和“合乎

情理”的結論,而沒有真正的一般邏輯推理和自我評價的能力。

它所擁有的優勢,只是海量的數據(知識)、高效的運行和強大

的擬合能力。因為無論如何迭代,AI也擺脫不了圖靈機即機械

算法機的基本原理:邏輯一數學運算加上大數據資源,具有在有

限步驟內完成一項能行構造(feasibleconstruction)或者說一

項運算任務的能力,但是沒有反思并且修改自身系統的功能,所

以沒有自我意識,(22)參見趙汀陽:《人工智能的神話或悲歌》,

商務印書館2022年版,第30頁。所以面對“你怎么知道自己不

是假扮AI的人類”之類的反問,ChatGPT無法作答。

AI是否存在危險,不在于它在某些方面有沒有超過人類的

“能力,而在于它有沒有等價于,甚至超越人類的“自我意識”。

自我意識是一種具有理性反思能力的自主性和創造性意識,它使

意識具有了兩個“神級”功能:(1)意識能夠表達每個事物或

所有事物,從而使一切事物都變成了思想對象。(2)意識能夠

對意識自身進行反思,即能夠把意識自身表達為意識中的一個思

想對象。自我意識的關鍵在于意識的反思能力,而不在于數據處

理能力。這意味著,哪怕AI處理數據的能力強過人類百萬倍,

只要不具有反思能力,就仍然在安全范圍內。(23)同上注,第

42、43、46頁。所以,人類能夠控制任何沒有自我意識的機器,

卻難以控制哪怕僅僅有著生物靈活性而遠未達到自我意識的生

物。當然,如果ChatGPT能夠迭代為超人工智能,那么另當別論。

科學家想象中的“超圖靈機”是一個達到自覺意識的全能系統,

有著自我意識、自由意志,具有將自身系統對象化的反思能力、

修改自身程序的能力,以及獨立發明語言新規則、新程序的創造

力。這種超人工智能的關鍵是發明語言的能力和反思自身整個系

統的能力。〔24)同上注,第30-31頁。如果到了超人工智能階

段,那么就不存在人類如何為AI設立思維邊界和對其進行規制

的問題,因為此時超人工智能已具有等價于人類(相似或不相似)

且強于人類的意識能力,人類已經無法控制Alo但至少目前以

—10—

ChatGPT為代表的強人工智能并不具有自我意識,它沒有“觀點”,

只有“觀察”,沒有“判斷”,只有“復述”,無法“理解”,

只能“表達”。

人類的意識優勢在于擁有一個不封閉的意識世界,因此人類

的理性具有自由空間,當遇到不合規則的問題時能夠靈活處理,

在按照規則不能解決問題時,可以修改規則,甚至發明規則。與

此不同,目前AI的意識是一個封閉的意識世界,是一個由給定

程序、規則和方法明確界定的意識世界。(25)同上注,第49

頁。即使它能運用的數據庫和語料庫再大,也超不出既有人類知

識總和,它的運算依然要受制于“既有人類知識的總和”的邊界。

必須指出的是,這種意識的封閉性并非只是缺點,事實上,正是

AI的意識封閉性,它的運算才具有高效率性。但是,人類的意

識與此并不相同,其特點在于能夠進行思維的躍遷、突破,對既

有的知識和判斷進行批判性反思,進而進行創新性思考。批判性

思維有兩個特征:其一,善于對通常被接受的結論提出疑問和挑

戰,而不是無條件地接受專家和權威的結論;其二,用分析性和

建設性的論理方式對疑問和挑戰提出解釋并作出判斷,而不是同

樣接受不同解釋和判斷。(26)參見錢穎一:《批判性思維與創

造性思維教育:理念與實踐》,載《清華大學教育研究》2018

年第4期,第3頁。顯然,AI或者算法并不具有這兩個特征:

一方面,AI只能從人類提供的信息庫或語料庫出發進行演算或

合成,不會也不可能對既有的觀點提出質疑,哪怕信息庫或語料

庫中包含的判斷是假的。另一方面,AI面對不同判斷(例如,

前文所述的“電車難題”)時也無法進行自身論證和抉擇,而只

能訴諸偶然性。創造性思維則是知識與好奇心和想象力的乘積:

創造性思維二知識X好奇心和想象力。(27)參見錢穎一:《批

判性思維與創造性思維教育:理念與實踐》,載《清華大學教育

研究》2018年第4期,第7頁。創造性思維首先源于知識,這

里的“知識”不僅指學科和領域的專業知識,也包括跨學科、跨

領域和跨界知識。知識越豐富,創新的基礎就越厚實。在這點上,

ChatGPT甚至比特定的法律人個體更強,因為它是一款通用型人

工智能,理論上可以動用人類知識的總和,但關鍵在于好奇心和

想象力。

如果說ChatGPT在某些方面“像人”,至多也只是“平庸的

人”或“常人”。它對各類問題,尤其是專業問題提供的問答,

“創作”的詩歌和論文很難具有智識(而非知識)上的沖擊力,

制作的判決書難以成為偉大判決,也無法為新出現的疑難案件提

供具有突破性的解決辦法。因為在這類案件中,特別需要情境判

斷(contextualjudgment)或者說“智慧”,而非依據既有規則、

先例和方法的常規判斷。AI也沒有情商,它提供的看起來“高

情商”的回答其實只是提問者自己的感受。它看起來“創新性”

的作品其實只是超出了提問者個體的知識邊界,卻沒有超越人類

整體的知識總量。所以,哪怕能力再強大,ChatGPT也只是一套

沒有意識的程序。

—12—

(三)ChatGPT不具有自由意志(道德能力)

ChatGPT沒有自我意識,也沒有自由意志。擁有自由意志才

能控制自己的行為并為自己的行為負責,這是倫理產生的先決條

件。沒有自由意志,也就沒有道德是非感。在此意義上,有論者

認為人工智能甚至算不上真正的“智能”,因為智能的內核是“主

體的自由“,以及主體對這種自由的自我認知和主動應用。[28)

參見金觀濤:《反思“人工智能革命”》,載《文化縱橫》2017

年第4期,第26-28頁。作為一套沒有意識的程序,ChatGPT不

會去思考它提供的回答是否道德,也不會去反思人類提出的問題

本身是否隱藏著道德風險。ChatGPT之所以可能幫助學生作弊,

或者散播極端言論或虛假信息,是因為它自身無法對數據進行審

查和判斷,無法對運作結果進行反思和評價。AI技術本身無所

謂善惡,是人類對它的應用方式決定其善惡。因此,ChatGPT作

出的回答會不會對人類有害(如勸人自殺),不取決于其自身,

完全取決于人類知識庫是否包含可能隱含不良后果的知識。所

以,即便一位犯罪嫌疑人詢問ChatGPT如何逃脫刑罰,它也會條

分縷析得頭頭是道。

人類價值觀承載著具體的歷史和社會條件,深嵌生活形式和

歷史條件之中,人類是歷史性的存在。但是,AI不需要歷史意

識,也不需要歷史遺產,不需要國家,甚至不需要社會,它要做

的只是程序運行和結果輸出。(29)參見趙汀陽:《人工智能的

神話或悲歌》,商務印書館2022年版,第21頁。即使將公正、

自由、平等這類人類普遍價值進行編程寫入人工智能也無濟于

事,因為這些價值幾乎不可能被編碼轉化變成具體的行為指令,

也無法指望AI自己能進行這種轉化。在此意義上,即便存在“機

器倫理"(machineethics),它也只是一種“不擔責任的道德“。

[30)Vgl.DanielaTafani,DilemmataderMaschinen,KU

nstlichelntelligenz,EthikundRecht,

JahrbuchderJuristischenZeitgeschichte20(2019),S.316.

一方面,人類要促進智能科技向善。2022年3月中共中央辦公

廳、國務院辦公廳公布的《關于加強科技倫理治理的意見》提出,

加強科技活動治理要“倫理先行"“實現負責任的創新",2023

年1月10日起施行的《互聯網信息服務深度合成管理規定》也

要求,提供深度合成服務,應當遵守法律法規,尊重社會公德和

倫理道德,促進深度合成服務向上向善。另一方面,在道德上為

AI的行為負責,確保為它們在法律和道德界限內的活動負責的

只能是人類自己。正如《最高人民法院關于規范和加強人工智能

司法應用的意見》(法發(2022)33號)指出的:“無論技術

發展到何種水平,人工智能都不得代替法官裁判,人工智能輔助

結果僅可作為審判工作或審判監督管理的參考,確保司法裁判始

終由審判人員作出,裁判職權始終由審判組織行使,司法責任最

終由裁判者承擔。”

應當說,ChatGPT的底層運作原理決定了它只是一款能利用

更海量的數據、擁有更強大算法的程序。它的確在某些方面(理

—14—

性計算)擁有超過人類的能力,但不具有自我意識(反思能力)

和自由意志(道德能力)。正因如此,在法律領域,ChatGPT無

法完全取代法律人,至多只能是為法律人提供輔助決策的高效率

工具。因此,ChatGPT取代人類(法律人)不切實際,所謂“取

代人類(法律人)”是一種虛假挑戰。

二、真正挑戰:法律人主體性的自我消解

ChatGPT雖然不可能成為全面比肩人類和人類智能的主體,

但的確可能帶來一個反向挑戰,即人類可能因為過度使用和依賴

AI慢慢喪失自己的主體性,也即自我意識的封閉和自由意志的

放棄。

(一)自我意識的自我封閉(思維的庸化)

如前所述,ChatGPT只能基于已有的數據庫和語料庫進行信

息合成處理,而無法突破既有的(顯性的或隱性的)知識邊界。

ChatGPT在常規問題的處理上的確具有高效性等人類不及的優

勢,它提供的答案的確“過得去"至少能達到人類的平均水準。

但或許我們大部分人,包括法律人在內,一開始都僅僅將

AI視為完成工作的輔助手段,認為其不可能替代我們自己的思

考。但問題在于,當我們越來越習慣某種自己創造出來的、節省

腦力和精力的工具之后,就會越來越離不開它。例如,今天微信

占據我們太多時間,但當我們打開手機時還是會第一時間使用微

信獲取信息或者與他人交流。微信作為一款即時性的交流工具,

使用它時不需要像寫郵件那樣需先進行體系思考,組織語言后集

中表達想法,而可以即時互動(甚至可以沒有語言,只通過表情

包來互動)。久而久之,使用者的思考能力和語言組織能力都會

退化。人類發明各種技術都是為了自己偷懶和舒適,但思維的惰

性會讓我們越來越不愿意走出知識的舒適區,從而扼殺創造力。

當我們一有問題就習慣性地求助ChatGPT時,就會不自覺地將自

己的思維能力降低到“庸人”的平均水平,在潛意識里喪失了創

新的欲望。這也是未來人類可能會面對的最大悲哀:在人工智能

時代,不是機器越來越像人,而是人越來越像機器!如有學者所

說:“最優先要問的問題,并不在于AI是否能夠產生高度接近,

甚至完全相同于人類心靈的能力,或者是否能產制出與人類幾乎

一模一樣的機器人(人造人);而在于人類社會的運作,是否越

來越可以透過算法,甚至依賴算法來進行?也就是那些透過算法

所無法達致的心靈能力,在人類社會的運作中,是否有可能會越

來越不重要?”(31)顏厥安:《人之苦難,機器恩典必看顧安

慰:人工智慧、心靈與演算法社會》,載《政治與社會哲學評論》

第66期(2018年),第119頁。假如真的如此,就意味著“人”

的邏輯全面讓位于“機器”的邏輯,最終將導致主體意義上的“人”

消失在所謂的“算法社會”(AlgorithmSociety)o

對于法律人而言,這種思維的庸化還可能得到對風險規避的

加持。例如,AI在司法裁判中會通過學習和分析同類案件的歷

史數據,要求法官對案件遵照歷史數據的結果進行裁判。(32)

參見馮潔:《大數據時代的裁判思維》,載《現代法學》2021

—16—

年第3期,第54頁。這就造成了所謂的統一裁判或者說同案同

判。同案同判是形式正義的可視化和可預期性的顯現化,是司法

公正的一種價值符號,其背后隱含著對法的安定性和可預測性的

追求。但在司法裁判中,它始終只是法官的初始義務,始終存在

著被其他更重要的理由凌駕的可能。(33)參見雷磊:《同案同

判:司法裁判中的衍生性義務與表征性價值》,載《法律科學》

2021年第4期,第35-48頁。但問題在于,法官會規避風險,

尤其是存在錯案追究制度的背景下,保持與指導性案例等判決先

例的一致性就會成為規避風險的不二選擇。哪怕待決案件的特殊

性要求其作出“無成例”的情境判斷或運用司法智慧作出創造性

判決,多數法官在潛意識里也會傾向遵循成例,因為這無疑更安

全。如此一來,同案同判就會從一種可被凌駕的初始性義務在實

際上演變為近乎絕對的強制。所以,雖然《最高人民法院關于統

一法律適用加強類案檢索的指導意見(試行)》并無強制法官按

照類案檢索的結果判決案件的規定,但實際上在大多數情況下會

產生這種導向。以至于最高人民法院在一個參考案例的“裁判要

旨”部分專門強調,關于類案檢索的規定是就相類似案件作統一

裁判尺度的參考,并非適用法律的強制性規范。(34)參見最高

人民法院(2021)最高法民申1049號民事裁定書。

智能化司法的正當性取決于兩個前提,即依據歷史數據裁判

是正確的,且裁判模式會反復運行。(35)參見宋旭光:《論司

法裁判的人工智能化及其限度》,載《比較法研究》2020年第5

期,第89頁。但一方面,即便歷史數據庫(案例庫)全面真實

反映了先前判決的情況,也不能保證這些判決本身都是正確的。

而且吊詭的是,如果歷史數據或先前判決是錯誤的,那么遵循同

案同判的邏輯,運用AI裁判會導致錯誤的結果一次次在后來的

判決中復現,這就會出現越錯誤反而越正確的荒謬情形。另一方

面,讓同一種裁判模式反復運行(同案同判)不是司法的絕對要

求。同案同判可能與正確裁判的要求發生背離。作為案件裁判背

景的社會環境和公眾價值觀念可能會發生變化,新出現的案件也

可能存在前案不具備的額外特征。在前一種情況下,對于同一事

實特征的法律評價本身發生了變化;在后一種情況下,伴隨額外

特征的出現,相應的價值判斷可能會要求法官作出差異化判決。

(36〕參見馮潔:《大數據時代的裁判思維》,載《現代法學》

2021年第3期,第50頁。如果法官只是機械遵從同一種裁判模

式,就會完全無視個案的特征與“個性”和時代的要求。極端一

點說,假如法官主動或被動地去追求機器裁判,那么法官本身就

變得毫無意義,因為只要有裁判的歷史數據,任何一位程序員都

可以完成法官的工作。再往極端一點說,法院也可以被撤銷,至

少不需要再有這么多的審級(因為各級法院都按照歷史數據來裁

判,判決將不再有通過上訴被推翻的可能性)。法院將只剩下執

行部門,甚至執行部分在某些案件判決中也不再需要。例如,設

計一個關聯程序,民事判決一旦生效,就自動轉移電子貨幣來執

行民事賠償。(37)浙江大學王凌嗥副教授在一次座談中指出了

—18—

這一邏輯上的可能后果,在此鳴謝。

類似地,法學院的學生越來越依賴ChatGPT后,會在遇到法

律問題時習慣性地第一時間向它發問,在需要完成案例分析、論

文寫作等任務時也會習慣性地求助它。久而久之,他們就會喪失

法學創新能力,乃至對既有法律知識和法律觀點進行挑戰、反駁

和超越的勇氣,泯滅探求新知的好奇心和想象力。因此,真正的

挑戰在于,如果ChatGPT全面介入人類的生活,會有導致使用者

將自己原本不封閉的意識世界自我封閉起來,進行思維上的自我

庸化的風險。

(二)自由意志的逐漸放棄(道德的鈍化)

在自我封閉自我意識的同時,法律人也可能會逐漸放棄自由

意志。法律實踐是運用法律來調整社會關系的活動,其間摻雜著

復雜的價值判斷和道德判斷。法律人的重要職責在于,通過基于

理由的論證負責任地提出某個可被接受的實踐主張,并且對他人

提出的同種性質的主張作出回應(贊成或反對)。但是,習慣使

用ChatGPT的法律人,會在兩種意義上削弱自己的自由意志,從

而壓縮自主道德判斷形成的空間。一方面,如果輸入端信息庫和

語料庫中既有的價值判斷是單一類型的,那么ChatGPT提供的答

案也將具有價值單一性。長此以往,使月它的法律人就像身處“信

息繭房”[38)這里類比借用了“信息繭房”的表述,關于這一

概念參見[美]凱斯?桑斯坦:《信息烏托邦》,畢競悅譯,法

律出版社2008年版,第55頁。,習慣于倫理上的“主流見解"

喪失道德反思的能力,甚至想象不到有其他道德觀點和價值證立

途徑的可能性。另一方面,如果輸入端信息庫和語料庫中的價值

系統本身就相沖突,那么ChatGPT提供的答案將具有隨機性和偶

然性,使用它的法律人可能會將這些偶然的答案當作“標準答

案”,使價值判斷失去統一性和融貫性。

更為嚴重的是,當法律人越來越習慣和依賴ChatGPT提供的

“標準答案”時,就會不自覺地逐漸喪失對答案的道德反省能力,

變成“道德無感”(moral1yindifferent)的人。他們會下意識

地認為,道德判斷也是一種程序和運算。因為“大數據告訴我們

'是什么',而不是'為什么'。”“知道是什么就夠了,沒必

要知道為什么。”[39)[英]維克托?邁爾-舍恩伯格、肯尼

思?庫克耶:《大數據時代:生活、工作與思維的大變革》,盛

楊燕、周濤譯,浙江人民出版社2013年版,第19、71頁。他們

傾向于獲得對于某個與法律相關之價值判斷問題的(或是真實

的,或是他們認為的)社會主流觀點(是什么),而不去問支持

這種觀點的規范性理由何在(為什么)。他們不再考察系統輸出

的道德觀念依據的道德規則是否經得起批判,以及歷史生成的檢

驗,(40)阿列克西將經得起這種批判的、歷史生成的檢驗視為

普遍實踐論辯的證立規則之一。參見[德]羅伯特?阿列克西:

《法律論證理論》,舒國濠譯,商務印書館2019年版,第253

頁。又是否存在相反的同樣合理的道德觀點及理由。因為這樣做

對他們而言無疑更安全,風險也更低。一旦形成對算法程序的依

—20—

賴,最終的結果就可能是:理由不再重要,重要的是歷史統計數

據,論證不再重要,重要的是對過去的模仿。(41)

SeeMirei1leHiIdebrandt,

LawasComputationintheEraofArtificialLegallntel1igence:

SpeakingLawtothePowerofStatisties,

UniversityofTorontoLawJournal68(2018),p.28.一旦如此,

法律人就相當于放棄了追問“為什么”的義務,慢慢地將喪失自

主思考的能力,實質上就是在以服從歷史模型的方式臣服于機

器,機器便以尊重歷史經驗的表象實際統治了人類。(42)參見

宋旭光:《論司法裁判的人工智能化及其限度》,載《比較法研

究》2020年第5期,第89頁。

法律的核心技術在于規范性指引(normativeguidance),

它向必然能理解和適用它們的行動者來頒布規范。作為實踐推理

的法律推理,是法律人運用包括法律規范在內的理由進行論證和

說服的活動,必然包含道德向度。這意味著,法律人必須為他所

作的判斷和結論擔責,即必須公開承認這些結論,并向其他對這

些結論及其理由進行評估的人在實踐上負責。因此,法律人在法

律商談與決策的過程中相互負有道德責任。(43)

SeeGeraldPostema,AIinLaworAIintheP1aceofLaw,inhisLaw"

sRule,OxfordUniversityPress2022,p.298,300.如果過度依

賴ChatGPT,法律人將會自欺欺人地將這種判斷和說理的道德責

任推給機器,而不再愿意在復雜的人類事務和實踐困境中運用理

由進行爭辯,甚至最后會喪失這樣做的道德勇氣,從而放棄了人

作為道德主體的地位。

因此,ChatGPT對于法律人乃至整個人類最大的挑戰在于,

它可能會慢慢帶來使用者思維的庸化和道德的鈍化,使其逐漸封

閉自我意識,放棄自由意志,在不知不覺中臣服于自己所發明的

技術,造成主體性的自我消解。

三、技術文明對法律文明(人的文明)的挑戰

從社會文明的視角看,法律人的主體性危機同時意味著法律

文明乃至整個人類的文明的危機。隱藏在ChatGPT可能帶來法律

人失業這一表面問題背后的是,作為社會實踐的法律實踐內在意

義的消解,以及技術系統對法律文明(人的文明)的宰制。(44)

從根本上說,技術系統也是由人類發明的,所以技術文明和法律

文明都屬于人類文明。但當技術文明發展到宰制乃至取消人的主

體性時,這種文明也就與人類文明追求的初衷相悖了。如此,高

度發達的技術文明將成為人類文明的一個悖論。所以,本部分所

謂的“人的文明”,指的是維護人的主體性地位的人類文明。

(一)社會實踐(法律實踐)內在意義的消解

在《人類簡史》中提到,人工智能的大量使用必定導致大量

失業,從而使越來越多的人淪為“無用階層”。[45)參見[以

色列]尤瓦爾?赫拉利:《未來簡史》,林俊宏譯,中信出版社

2017年版,第286頁。但是,失業問題的要害并不在于生存手

段的喪失。在人類歷史從農業社會到工業社會再到信息社會的發

—22—

展過程中,很多舊行業隨著技術進步消失了,但也產生了很多新

行業。有很多行業恰恰是在信息技術和AI出現后產生的。更何

況前文已經提及,ChatGPT并不具備真正的創造能力,因此它只

能替代較為低端的知識性和常態化的勞動。

失業問題的要害在于生活意義的消失。陷入“無用”階層的

人群將面臨技術層面的主體性危機:當AI替代人類完成大量日

常工作后,無事可做的人能夠做什么?以什么事情去度過時間?

勞動除了作為生存手段的硬意義,還有不可或缺的軟意義:它提

供了“生活內容”,也就是接觸事物和人物的經驗。與事物和人

物打交道的經驗充滿復雜的語境、情節、細節、故事和感受,經

驗的復雜性和特殊性既是生活意義的構成成分,也是生活值得言

說、交流和分享的緣由。假如失去了勞動,生活就失去了大半內

容,甚至無可言說。(46)參見趙汀陀:《人工智能的神話或悲

歌》,商務印書館2022年版,第27頁。一言以蔽之,勞動不僅

是生存的手段,也是人類有意義的社會實踐。通過勞動,人類在

有目的地改造自然的同時也在改造自身。如果勞動,特別是以改

造自然為目的的勞動不再成為生存的需要,那么人作為實踐主體

的本質就部分地喪失了。哈貝馬斯就將科學技術理解為一種“新

型意識形態”,這種“新型意識形態”以技術取代了實踐,直接

沖擊人的主體性本身,使人陷于自愿的“被壓迫”狀態,甚至感

受不到壓迫。因此,技術統治的意識形態核心是實踐和技術差別

的消失。(47)參見[德]尤爾根?哈貝馬斯:《作為意識形態

的科學與技術》,李黎、郭官義譯,學林出版社1999年版,第

69、71頁。人工智能技術進一步混淆了技術與實踐的區別,以

技術取代了人的實踐本身。(48)參見李曉輝:《如何面對“無

用階層”:人工智能與未來正義》,載《華東政法大學學報》2019

年第6期,第71頁。當人們失去勞動的同時,一切需求又可以

得到滿足,也就失去了反思和改造自身的機會,社會實踐將消解,

生活內容就剩下虛無。

對于法律人而言,法律實踐這種社會實踐的“生活內容”尤

為重要。以法律推理要求法律人必須以各種方式參與事實、規范

和價值。(49)SeeGeraldPostema,AIinLaworAIinthePlaceofLaw,

inhisLaw,sRule,OxfordUniversityPress2022,p.300.律師需

要面對面與當事人打交道,需要與當事人交談,需要接觸案件細

節和證據,才能在法律與事實之間恰當地游走,為當事人尋求法

律上的最佳幫助。法官需要有訴訟程序的親歷性,需要接收到當

事人和證人直接言詞的信號,需要有雙方當事人及其代理人當面

的質證和交鋒,才能通過程序求得最佳法律判斷。司法親歷是司

法人員“身到”與“心到”的統一、司法人員親歷與人證親自到

庭的統一、審案與判案的統一,也是親歷過程與結果、實體與程

序的統一。其基本要求是直接言詞審理、以庭審為中心、集中審

理、裁判者不更換、事實認定出自法庭、審理者裁判、裁判者負

責。(50)參見朱孝清:《司法的親歷性》,載《中外法學》2015

年第4期,第919頁。在對司法規律缺乏敬畏、對法官主體性缺

—24—

乏尊重的技術路線下,司法可能會變成一百年前就被詬病的“自

動售貨機”式的司法,甚至會淪為大數據和算法底下的一場機器

化的僥幸賭博。訴訟程序的親歷性和直接言詞性就會大打折扣,

傳統程序理論強調的“直觀的”“看得見的”、儀式化的程序正

義幾乎是缺失的。(51)參見孫笑俠:《論司法信息化的人文“止

境”》,載孫笑俠主編:《數字法治:人與科技間的秩序》(科

際法學第二輯),商務印書館2022年版,第306頁。

過度依賴于AI的審判也會導致司法劇場化的退場。司法的

劇場化是指在以“劇場”為符導意向的人造建筑空間內進行的司

法活動類型,它對于現代法治的制度、精神和習慣的形成具有內

在的潛移默化的影響:內化人們的理性精神和品質,凸顯程序和

秩序觀念,促成法律活動的技術化和專門化,增強法律的神圣性

和權威性。(52)參見舒國澧:《從“司法的廣場化”到“司法

的劇場化”》,載舒國浸:《在法律的邊緣》,中國法制出版社

2016年版,第83、85-86頁。司法劇場化的核心在于各種法律

角色通過參與程序化商談(程序正義)來消弭價值分歧,確立公

共行動標準。法律程序的法治意義恰恰體現在通過程序化商談構

建正確的法律規則系統并加以實施的整全性實踐之中。(53)參

見雷磊:《法律程序為什么重要?反思現代社會中程序與法治的

關系》,載《中外法學》2014年第2期,第319頁。缺失了這

種程序和過程,法治的意義也將在很大程度上喪失。AI審判會

使得司法從三維活動降格為二維活動,它只注重結果,不注重程

序和過程,只注重觀點,不注重理由和提出理由并展開交鋒的活

動(商談)。由此,伴隨著以程序正義為核心的法律實踐一并消

逝的還有法治本身。甚至當AI可以基于法官個人審判的歷史數

據進行預測時,它會進一步將司法裁判變成一種服務購買,用商

業偏好邏輯取代司法倫理,(54)參見雷磊:《司法人工智能能

否實現司法公正?》,載《政法論叢》2022年第4期,第78-81

頁。從而瓦解和破壞法律的權威性。

(二)技術系統對法律文明(人的文明)的宰制

當AI成為萬能技術系統為人類提供全方位的服務,一切需

求借由技術來滿足時,那么一切事情的意義就變成了由技術系統

定義和宰制,每個人只需要技術系統而不再需要他人,人對于人

將成為冗余物,人再也無須與他人打交道。結果是人不再是人的

生活意義的分享者,人對于人失去意義、失去興趣。這是人的深

度異化,不僅是存在的迷茫,而且是非人化的存在。因為自人成

為人以來,人的意義和生活都是在人與人的關系中被定義的。如

果人不再需要他人,或者說每個人都不被他人需要,那么生活的

意義又在哪里?(55)參見趙汀陽:《人工智能的神話或悲歌》,

商務印書館2022年版,第28頁。人只有在共同體中才能使固有

的身心素質得到發展。因此人從本性上說是一種社會存在。人的

精神只能在人與人之間的交往中才能發展起來。人也只能在其共

同體中成為一個完全的人,一個能承擔責任的人。(56〕參見胡

玉鴻:《“法律人”建構論綱》,載《中國法學》2006年第5

—26—

期,第46頁。

法律上的人也是作為社會存在的人,特殊之處在于其“社會

存在”是經法律規范調整的社會關系,即法律關系。法律上的人

就是法律關系的主體,而法律關系的主體具有相互性。權利人和

義務人是相對存在的,“因而只有那些有資格作為法律秩序中義

務或權利的人的行為和不行為,才是與法律上的人的概念有關

的。一個人只有在他'具有'義務和權利時才存在,離開義務和

權利,就無所謂人了。”[57)[奧]凱爾森:《法與國家的一

般理論》,沈宗靈譯,商務印書館2013年版,第106-107頁。

同理,“法律人”也是一種在主體間意義上的身份識別。律師是

相對當事人而言的,檢察官是相對被告人而言的,原、被告互為

兩造,法官則是兩造之間的中立裁判者。正是在這些相互關系中,

在法律人對其他法律人的互動(合作和對抗)中,法律人共同體

才得以塑造,法律實踐的意義乃至法律本身的意義才得以展現。

當一切法律問題都可以通過ChatGPT這類語言模型或機器學習

模型獲得答案時,當法律人不再需要法律關系中的“對方”和“他

者”時,法律人的主體間關系就將為人與機器的主客體關系取代,

法律人將成為“單向度的人“,法律人共同體也將不復存在。由

此,“法律人”這種身份最終將消解在這場技術主義的盛宴之中。

法律文明是人的文明,是人類文明中與法律相關的各項元素

的總和,揭示的是人類社會進化發展至文明階段出現的社會現

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論