徐 輝,李俊強
(湘潭大學 法學院,湖南 湘潭 411105)
生成式人工智能(Generative AI)是指基于算法、模型、規(guī)則生成具有相關性、精確性、創(chuàng)造性的文本、圖片、聲音、視頻、代碼等內(nèi)容,從而實現(xiàn)類似人類創(chuàng)造力的技術。從2014年第一個通過“圖靈測試”的人工智能尤金·古斯特曼(Eugene Goostman)至2022年11月,OpenAI公司推出生成式人工智能ChatGPT,并且僅間隔4個月的時間就完成了到GPT-4的迭代改進,其展示的顯著性能以及多模態(tài)生成能力,短時間內(nèi)就吸引了超1億用戶[1]。ChatGPT的成功也引發(fā)了新一輪的AI科技競賽,繼ChatGPT、谷歌Bard及微軟Copilot后,我國的百度、華為公司也相繼推出了“文言一心”和“鯤鵬”等生成式人工智能工具??偟膩碚f,以大語言模型為代表的生成式人工智能的崛起得益于三個要素的組合,分別是海量數(shù)據(jù)優(yōu)勢、強化學習算法優(yōu)勢和持續(xù)超強算力優(yōu)勢[2],其技術原理可以用“海量數(shù)據(jù)投喂+深度學習+模擬訓練+微調(diào)變換+加工輸出”予以簡單概括[3]。
隨著數(shù)字司法改革的逐步推進,以ChatGPT為代表的生成式人工智能憑借其深度合成領域的重大技術革新與強大算力,對傳統(tǒng)司法裁判實踐的理念、構(gòu)造和運行帶來了新的發(fā)展機遇與風險挑戰(zhàn),也為司法裁判實踐的適應性調(diào)整創(chuàng)造了歷史性契機。2023年1月30日,哥倫比亞的一名法官首次借助ChatGPT做出了一份法院裁決,被譽為“全球AI審判第一案”。該法官表示,通過ChatGPT可以生成通俗易懂的判決文書,并且可以根據(jù)以往的相似案例對本次法院判決進行預測,能夠極大地縮短司法的反應時間[4]。
事實上,有關人工智能應用于司法領域的實踐,早有先例可循。在20世紀60年代末,聯(lián)邦德國就著手開展計算機在法律實務中應用可能性研究,并于1973年構(gòu)建了名為JURIS的司法數(shù)據(jù)系統(tǒng)[5]。我國最初將人工智能應用于司法裁判領域是在1986年,朱華榮、肖開權主持建立了盜竊罪量刑數(shù)學模型。1993年,趙延光教授開發(fā)的計算機輔助量刑系統(tǒng),具有檢索、咨詢法律規(guī)范和對形式個案進行推理判斷、定性量刑的功能,被多家法院、檢察院所采用[6]。近年來,隨著人工智能技術的發(fā)展,數(shù)字司法改革也逐漸加快進度。2015年最高人民法院首次提出建設“智慧法院”。2022年12月8日,最高人民法院發(fā)布《關于規(guī)范和加強人工智能司法應用的意見》指出:“要建成具有規(guī)則引領和應用示范效應的司法人工智能技術應用和理論體系,為司法為民、公正司法提供全流程高水平智能輔助支持”。實踐中,北京高院的“睿法官”、上海高院的“206”系統(tǒng),以及寧波的“AI法官助理”等審判智能輔助辦案系統(tǒng)建設取得了積極效果,減輕了法官事務性工作30%以上,庭審效率提升20%以上[7]。
與此同時,伴隨著人工智能技術在司法裁判領域的應用場景和范圍不斷拓寬,在提高了司法效率,緩和了訴訟案件與法官人員比例失調(diào)的關系,減輕了法官的工作量,實現(xiàn)技術賦能的同時,也引起了學者對司法公正的擔憂。艾倫教授很早就對人工智能在司法裁判領域的應用表示了憂慮,認為其存在相當?shù)牟淮_定性、模糊性和開放性[8]。王祿生教授指出,人工智能在司法領域的應用可能導致司法改革陷入“技治主義”的路徑,“司法改革的復雜性被化約為簡單計算,司法改革的難題被通過技術性手段回避,最終導致司法改革發(fā)生‘目標被替代’的風險”[9]。孫海波教授也認為:“生成式人工智能在司法裁判中只能發(fā)揮一種有效的輔助型角色,過度夸大甚至神化其作用都不可取?!盵10]
本文認為,從發(fā)展角度看,生成式人工智能輔助司法裁判已然是一種無法回避的客觀事實,因而在探討其應用于司法領域的可能時,亦要詳盡剖析其風險,在人工智能的技術理性與司法裁判的價值理性之間找到平衡點,控制技術治理的工具主義缺陷,為其輔助司法裁判建立必要限度與價值邊界,以實現(xiàn)智能化司法裁判邁向可信。
根據(jù)人民法院司法審判工作數(shù)據(jù)統(tǒng)計,2023年上半年,全國法院新收各類案件1 696萬件,同比增長11.01%;審結(jié)案件1 526.2萬件,同比增長9.65%[11]。伴隨著立案登記制和法官員額制改革的推進,案件數(shù)量的激增與法官數(shù)量的比例失調(diào),以及司法資源的錯配,造成“案多人少”,出現(xiàn)案件的質(zhì)與量無法兼顧的情況。因此,通過生成式人工智能工具輔助實現(xiàn)類案推送、證據(jù)認定、偏離度預警,能夠有效提升司法效率,把法官從機械勞動中解放出來,緩解當前法律適用不統(tǒng)一、案多人少等難題。
“制定法本身隱含著產(chǎn)生司法裁判沖突的風險?!盵12]法律適用統(tǒng)一是司法裁判的一種重要的現(xiàn)實約束和目標狀態(tài),也是法律效力具有一致性和普遍性的邏輯所在。但是,隨著社會經(jīng)濟的快速發(fā)展和急劇轉(zhuǎn)型,日益復雜的社會矛盾和裁判文書經(jīng)由互聯(lián)網(wǎng)的“放大效應”,導致對司法裁判的爭議頻發(fā)。因此,法律適用不統(tǒng)一成為困擾我國司法的突出問題[13]?!邦愃瓢讣愃茖Υ笔恰罢x的最簡單形式”。讓人民群眾在每一個案件中感受到公平正義,是法律適用統(tǒng)一的最終價值目標,也是“法律面前人人平等”的憲法規(guī)定。運用生成式人工智能技術輔助類案同判、保證刑罰裁量的一致性和實現(xiàn)類案裁判標準的普遍化是當前數(shù)字司法改革的方向之一。
生成式人工智能輔助智能化類案推送,實現(xiàn)類案同判的技術路徑是通過接入關鍵信息、案件事實等數(shù)據(jù),然后系統(tǒng)自動匹配檢索案件專題庫,進行類案比較智能標引,從而實現(xiàn)精準類案推送;并以海量的類案裁判數(shù)據(jù)為坐標系,模仿法官對待決案件進行預測判決,提供相對規(guī)范、一致的量刑建議,輔助法官進行量刑。智能化類案推送不僅可以將法官從重復的機械勞動中解放出來,節(jié)省法官在案件檢索過程中付出的勞動,提高審判效率,緩解“案多人少”的問題,還限制了法官在司法裁判過程中的權利任性,避免同案不同判、司法腐敗和司法不公的情況發(fā)生。
《中共中央關于全面深化改革若干重大問題的決定》在論及“推進法治中國建設”時指出,落實司法責任制,“讓審理者裁判,讓裁判者負責”。當前我國對錯案實行終身負責制,既要保質(zhì)又要保量,無形中會給法官造成巨大的心理壓力,而智能化司法裁判技術的出現(xiàn)能夠為法官提供可視化的類案裁判結(jié)果參考,通過“中間線標準”“平均值標準”對存在較大偏離度的司法判決進行及時預警,以便法官對其所做出的司法裁判進行修正,紓解法官的審判壓力,降低法官的職業(yè)風險。
生成式人工智能技術本身的中立性、客觀性、明確性和經(jīng)驗性(大數(shù)據(jù)分析)能夠在一定程度上彌補甚至替代主觀性較強、相對不確定性的經(jīng)驗法則判斷,減輕刑事印證證明模式下的法官印證壓力[14]。作為一種科學證據(jù),生成式人工智能對證據(jù)能力和證明力的審查內(nèi)容主要受真實性、關聯(lián)性和合法性三個屬性,以及《中華人民共和國刑事訴訟法》規(guī)定的相關證據(jù)規(guī)則的影響。當前,生成式人工智能對證據(jù)智能審核經(jīng)由四個階段:階段一,對案件事實、人員、證據(jù)等信息的采集、存儲、檢索、挖掘分析與歸集,建立相應的業(yè)務專題庫,包括案件卷宗庫、證據(jù)標準庫、案件證據(jù)模型庫等;階段二,借助生成式人工智能的深度機器學習和強大算力,進行場景文字識別、證據(jù)瑕疵手動標注等分析校驗;階段三,針對訴訟文書卷、證據(jù)材料卷等證據(jù)文書材料生成若干項校驗規(guī)則,通過規(guī)則模型生成、關鍵要素分析、邏輯推理等技術方式,構(gòu)建證據(jù)規(guī)則校驗引擎,實現(xiàn)上述校驗規(guī)則的自動校驗,分析推斷證據(jù)的真實性、合法性、關聯(lián)性;階段四,智能構(gòu)建可視化、系統(tǒng)化、數(shù)據(jù)化的案件完整證據(jù)鏈條、案件知識圖譜,輔助法官進行證據(jù)認定。
智能化證據(jù)審核的優(yōu)勢在于能夠?qū)⑺痉ㄗC明的認知過程構(gòu)筑于科學證據(jù)的數(shù)學語言的表達之上,將數(shù)學話語上的概率關系與待證案件事實在主觀上的信念程度表達為一組數(shù)字;通過統(tǒng)一證據(jù)的認定標準,輔助法官相對準確、高效地運用證據(jù)獲得對案件事實的確信,以克服“真實故合法”“印證故合法”“穩(wěn)定故合法”等不當思路。但是,由于算法可解釋性存在不足,如果嚴格執(zhí)行生成式人工智能的證據(jù)標準追求形式正義,亦有可能會陷入形而上學的“法定證據(jù)制度”誤區(qū)。因此,這種認知路徑也存在著不足之處,需要法官在對人工智能證據(jù)的證據(jù)能力進行實質(zhì)性審查時,起到“守門人”作用。
當探討生成式人工智能給司法裁判領域帶來技術性變革時,不能不談“方式”,生成式人工智能的計算機模型評估事實和預測判決是一種技術活動,其算法黑箱、算法歧視和算法偏見等技術隱患是技術使用不規(guī)范所造成的;也不能只談“方式”,正是因為生成式人工智能無限的創(chuàng)造力和指數(shù)級的進化可能,使我們見識到算法偉力的同時,易忽視司法裁判的本質(zhì),進而陷入了康德的“純粹理性批判”的危機。
“正義不能隱居,不能示人之處更容易藏污納垢?!盵15]司法裁判是法官在與雙方當事人的論辯過程中,通過法律論證、法律推理對其做出的司法決策進行釋法說理,中立解決當事人的矛盾糾紛,進而修復社會關系,維護法的安定性。從這個角度出發(fā),司法裁判的功能在于通過推理或論證的方式達成關于特定正義的解決方案,實現(xiàn)定分止爭[10]。膨脹會導致貶值,對司法公信力也是一樣,無法被充分理解的司法裁判將成為不會被充分遵守的司法裁判,導致社會的不安定性大大加強。職是之故,就需要法官對生成式人工智能輔助司法裁判的技術、過程,以及結(jié)果的有效性、可靠性進行合理解釋。但是,受制于算法的復雜性、技術性及專屬所有權的存在,“輸入—輸出”的算法決策過程中存在著我們無法窺探的隱秘,因而智能化裁判面臨著司法決策的透明度與可解釋性風險。例如,在2016年“盧米斯訴威斯康星州”一案中[16],被告埃里克·盧米斯以COMPAS量刑算法侵犯其正當程序權力為由抗辯,但是該算法的母公司北點以受商業(yè)秘密的專有權保護為由成功拒絕披露該算法的評分計算方式。這一開創(chuàng)性的案例引發(fā)了算法黑箱如何影響司法裁判透明度的思考。
算法黑箱的存在,不僅使得當事人、辯護人的知情權與抗辯權無法得到保障,也導致法官無法充分地對其所做出的裁判結(jié)論進行公平性和準確性的權衡與說明,使得生成式人工智能輔助司法裁判的正當性、有效性、可靠性更具有挑戰(zhàn)性,也引發(fā)了對司法公信力的質(zhì)疑。
大數(shù)據(jù)和深度機器學習算法為生成式人工智能技術輔助司法裁判提供了客觀性、中立性和經(jīng)驗性的參考或者決策依據(jù)的可行性,但是隨著時間的推移,已有批判性學者的研究證明,機器學習算法再現(xiàn)了“算法壓迫”的形式[17]。當前,生成式人工智能的算法歧視與算法偏見來源于兩個層面。一是后天性算法偏見,輸入的預訓練數(shù)據(jù)存在偏見或歧視引發(fā)了算法歧視與算法偏見。例如,算法在刑事案件中對罪犯量刑時考慮的法定情節(jié)和酌定情節(jié),以及適用緩刑時對罪犯再犯罪的風險等進行計算預測時,忽視了罪犯在社會中“暴露的風險”往往是過分歧視和劣勢的結(jié)果。這些數(shù)據(jù)往往與風險變量相關,從而帶來“更高”的風險評分,尤其是對社會的邊緣化群體更是如此。二是先天性算法偏見,算法本身存在歧視與偏見。當前智能裁判工具通常是法院外包給其他企業(yè),如果企業(yè)通過技術手段在算法底層邏輯上故意“夾帶私貨”,預先人工標注算法歧視與算法偏見,法官又不容易察覺出其錯誤,無疑將會進一步引發(fā)司法公正的危機。這種算法歧視與算法偏見對于生活其他方面而言似乎并無大礙,但對當事人的權利與義務造成實質(zhì)性影響的司法裁判而言,這種歧視與偏見卻十分有害,它在客觀上會強化“智能化裁判”的錯誤可能,導致當事人的處境更為不利[18],進一步造成法律主體之間的訴訟地位不平等。
在法律與司法的語境中,正義的概念已然超出了計算機及統(tǒng)計學科中通常使用的數(shù)學計算或定義[19]。事實上,正義不僅僅是一種客觀認識,更是一種主觀感受。司法裁判僅僅宣示正義是不夠的,還需要讓民眾感受到正義。如何實現(xiàn)個案中的實質(zhì)正義?這離不開價值判斷及法律原則的運用與理解。事實上,法的適用不僅僅是事實判斷的過程,也是價值判斷的過程,不光包含了法律規(guī)則的適用,也包含了法律原則的適用。雖然為了法的安定性,應該優(yōu)先適用具體的法律規(guī)則而不是抽象的法律原則,但是當適用具體的法律規(guī)則將導致個案不正義時,為了實現(xiàn)個案正義就需要優(yōu)先考慮適用法律原則。例如,美國的“里格斯訴帕爾默案”(Riggs v. Palmer)一案中[20],法官就援引了“任何人都不得從其錯誤行徑中受益”的法律原則,剝奪了帕爾默的繼承權。近年來,我國司法實踐中頻發(fā)存在較大爭議的案件,如深圳鸚鵡案、許霆案、趙春華案及王力軍案等。這些案件的審理結(jié)果為何難以被社會公眾所認可和接受,難以產(chǎn)生更理想的司法和社會效果,很大程度上就是因為法官在司法裁判中施展的價值判斷太少,而機械適用法律規(guī)則的情形太多,忽視了法律原則的運用,導致了結(jié)構(gòu)性的失衡,即法條主義。但遺憾的是,當前司法實踐中,還是以法律規(guī)則適用為主要的司法裁判方式。因此,就目前階段來說,智能化司法裁判還無法真正地兼顧實質(zhì)正義,體現(xiàn)在如下方面。
其一,從法律條文本身看,相較于邏輯上擁有完整的假定條件、行為模式和法律后果的法律規(guī)則,邏輯上缺少明確的假定條件、行為模式和法律后果的法律原則對于生成式人工智能而言更為難以理解與運用,尤其是擁有明確的法律規(guī)范三要素是法“可計算性”理想的前提。另外,由于人類語言自身的多樣性,在不同的語境、上下文中完全可能呈現(xiàn)出不同的含義、用法,導致立法語言的語義在一定程度上也是模糊、不確定的??偟膩碚f,立法所使用之語言不可避免地具有一個“語義空間”[21]。這就容易導致生成式人工智能對法律規(guī)范背后的立法目的和意旨產(chǎn)生誤解。
其二,從價值判斷看,生成式人工智能無法進行理解與進行價值判斷。正如海德格爾所指出的那樣:“真理的本質(zhì)和存在解釋是由作為真正主體的人來規(guī)定的。”[22]作為規(guī)范人們行為總和的法律制度,必然是以人性作為其存在的土壤[23],但對于生成式人工智能來說“法律就是一串‘0’和‘1’二進制的排列分布組成,一種公理,所謂的法律推理是一種純粹的數(shù)學推理公式”[24]。從這個角度出發(fā),生成式人工智能不能感知,也不能理解,其所能起到的作用就是事實層面的判斷即“真”“假”之分,無關乎“善”“美”的價值判斷[25]。因此,生成式人工智能面對價值判斷時要么選擇回避,要么將其轉(zhuǎn)化為事實判斷。然而,正如康德所指出的,從實然當中不能推導出應然。也就是說,從一個單獨的事實當中,不能獲得何為實質(zhì)上正當或不正當?shù)母鶕?jù)。一言以蔽之,通過智能化司法裁判固然能夠?qū)崿F(xiàn)形式正義的價值追求,但是如果過度地依賴于生成式人工智能追求類案同判,必然會回到“機械主義法學”的老路上來,走向?qū)嵸|(zhì)正義的對立面,嚴重背離司法與法治的目的。
其三,從案件事實的認定看,生成式人工智能對新型、疑難、復雜的案件理解不能。不可否認,生成式人工智能輔助司法裁判在一些簡易案件上,如盜竊、詐騙、民間借貸等案件中,確實能夠起到相當大的作用。但是,隨著社會經(jīng)濟的快速發(fā)展,各種新型、疑難、復雜的案件也層出不窮。面對層出不窮的新型、復雜的疑難案件,法律本身也存在立法空白、內(nèi)容不全面、規(guī)定模糊等問題,規(guī)范之間的內(nèi)容沖突也在所難免。例如,仇某明侵害英雄烈士名譽、榮譽案。兩者共同導致了法律在個案中的指引會出現(xiàn)中斷,甚至面對新型、疑難、復雜的案件這種指引會被用盡[10]。“生活的豐富多樣性不允許法律為所有的個別情景都提供抽象、明確,同時又適當?shù)囊?guī)整。”[26]這種“開放性的結(jié)構(gòu)”從法的安定性(也即法的可計算性)角度看乃是一種缺陷,但是從法的適應性(Schmiegsamkeit)角度看卻是一種優(yōu)勢。它使一般的立法語句對被規(guī)整之生活情景具有一定的適應能力。然而,這種“開放性的結(jié)構(gòu)”對于AI來說卻是致命的,Open AI大語言模型的核心成員Jack Rae在《壓縮帶來通用人工智能》(《CompressionforAGI》)一文中指出,生成式人工智能的“智能”是一種壓縮(即簡化)[27]。面對無法律規(guī)范適用的新型、疑難、復雜案例時[28],生成式人工智能的計算過程有兩個必經(jīng)步驟:一是基于語言“統(tǒng)計概率”對案件事實進行壓縮、抽取案件要素并轉(zhuǎn)化為相應的數(shù)字代碼;二是從相同語言模型里根據(jù)概率大小強制性匹配相對符合的法律規(guī)范進行關聯(lián),預測司法裁判結(jié)果的概率分布。這種“強制性”的修正、壓縮還原及概率判斷必然會扭曲事實,機械地推導出不合理的司法裁判結(jié)果。這本質(zhì)上是一種“隨機正義”,與拋硬幣、擲骰子并無二致。申言之,對于生成式人工智能而言,輸出結(jié)果的正確與否并不重要,最重要的是保持與提示詞在統(tǒng)計學上的一致性。凱爾森就曾先見之明地指出具體規(guī)范無法按照邏輯或數(shù)學原理從根本規(guī)范演繹出來[29]。波斯曼也獨具慧眼,對濫用統(tǒng)計學的現(xiàn)象予以批判[30]。
其四,從法官的自由裁量權看,生成式人工智能不可避免地會侵蝕法官的自由裁量空間。司法裁判需要法官的目光在事實與規(guī)范之間往返,正確對待存在與當為之間的對應關系,尋找具體的、真實的法,而這離不開法官的自由裁量。如前文所述,智能化裁判這一技術的核心在于通過全數(shù)據(jù)定量分析的方式呈現(xiàn)量的整體把握[31],進而統(tǒng)一司法裁量基準,抑制權力尋租、司法腐敗,以及克服裁量的隨意性。這雖然形式上滿足了“法律規(guī)則面前人人平等”的普適性要求,但也不可避免地造成了司法的僵化、創(chuàng)新性的貧乏及實質(zhì)上不平等,陷入“自動售貨機式法官”的陷阱。正如龐德所指出的“沒有一個法制體系能夠做到僅僅通過規(guī)則而不依靠自由裁量來實現(xiàn)正義,不論該法制體系的規(guī)則系統(tǒng)如何縝密,如何具體。所有的實施正義的過程都涉及自由裁量與規(guī)則兩方面”[32]。另外,當面對無規(guī)范適用的場景時,在“禁止拒絕裁判原則”下,法官的自由裁量也能夠進行“法律續(xù)造”,填補制定法漏洞,彌補法律滯后的缺陷,然而生成式人工智能的“幻覺”(Hallucinations)的缺陷,使其根本無法擔當如此大任。此外,司法裁判不僅要放眼于案件事實,法律規(guī)則等可以“量化”的信息,還要超越規(guī)范與事實。對那些埋藏在規(guī)范與事實之下的道德倫理、善良風俗、慣例等非量化信息予以顧及,都離不開法官的自由裁量權。這些“非量化”的信息對于人工智能而言,卻是一種無法理解的奢望。
風險與責任之間具有必然的因果聯(lián)系,當社會向一個人為的不確定性風險,以及利益博弈下所支配的未知領域移動時,就必然出現(xiàn)對責任的討論[33]。在風險現(xiàn)實與治理規(guī)則無法調(diào)和的現(xiàn)實矛盾下,人工智能成為司法工作人員轉(zhuǎn)移和分擔責任的對象,為司法卸責提供了便利。
在司法責任制的總體構(gòu)架中,法官依法獨立行使司法裁判權是確??蓡栘熜缘那疤岷突A。但是,隨著人工智能越來越多地被使用在司法實踐,在訴訟爆炸、年底考核、審限制度剛性規(guī)定等多重壓力的影響下,勢必會造成法官過度依賴生成式人工智能的傾向。法官一旦在司法決策中產(chǎn)生技術依賴,“算法權力”的風險就無從避免,進而造成司法權獨立性的權力配置和運行機制分崩離析。此外,生成式人工智能輔助司法裁判也勢必會造成審判主體適格性的異化,以及庭審結(jié)構(gòu)的坍塌,事實層面會出現(xiàn)算法的設計者和法官共同做出司法裁判的局面。當審判權轉(zhuǎn)移給其他人或物時,審判主體不能確定,那么責任鏈條的分配就會產(chǎn)生追責難題,出現(xiàn)“動因遷移”(agentic shift)的可能性就大幅度提高,致使司法責任制難以得到落實。
智能化裁判在提高司法效率,實現(xiàn)類案同判和審判可預測性的同時,亦不可避免地引起公眾對司法公信力與司法公正的質(zhì)疑。針對生成式人工智能工具存在的算法黑箱、算法歧視及算法偏見等技術性風險,可以通過數(shù)據(jù)治理、算法治理、控制治理三個維度予以緩解。
海量、準確、一致、規(guī)范的司法數(shù)據(jù)集是生成式人工智能預訓練和微調(diào)的“富礦”,也是生成式人工智能更智能化地輔助司法裁判的先決條件。已有研究證明,生成式人工智能基礎模型的生成內(nèi)容與訓練數(shù)據(jù)存在相關關系[34]。
1.開源增量:拓寬司法數(shù)據(jù)來源
當前,中國裁判文書網(wǎng)、北大法寶、威科先行數(shù)據(jù)庫等案件信息檢索數(shù)據(jù)庫為生成式人工智能深度學習訓練提供了較為全面、系統(tǒng)的司法數(shù)據(jù)支撐和來源,但是距離全面數(shù)據(jù)化的要求仍然具有較大的差距。有學者指出當前我國裁判文書公開具有“偽公開”的現(xiàn)象[35]。例如,涉及個人隱私的案件、調(diào)解結(jié)案、離婚訴訟等無法完全上網(wǎng)。除了“偽公開”的問題之外,當前裁判文書公開的數(shù)量上也呈現(xiàn)急劇下降的趨勢,可能只有審結(jié)案件的一半數(shù)量[36]。筆者統(tǒng)計,僅就民事案件而言,2022年全國民事裁判一審文書公開量為4 388 998份,相較于2021年8 155 478份,下降了46.18%。因此當前亟須全面、及時地提升裁判文書的公開量,拓寬司法數(shù)據(jù)的來源。第一,就特定不宜公開的裁判文書可以采取隱名條款措施,通過隱去、刪除相關信息后予以公開。第二,出臺相關裁判文書公開實施細則,通過細化裁判書、裁定書與決定書之間的差異,列出詳細的公開類目、具體情況及標準等方式,強化裁判文書上網(wǎng)的可操作性。第三,司法數(shù)據(jù)流通上,通過完善不同地域、層級法院之間的案件數(shù)據(jù)信息及時共享機制,以便生成式人工智能即時聯(lián)動響應處理數(shù)據(jù)信息。
2.提質(zhì)增效:提升司法數(shù)據(jù)質(zhì)量
保障數(shù)據(jù)質(zhì)量是正義的要求,保障正義能預防人工智能帶來的極端分化[37]。裁判文書形式的規(guī)范化、格式化,以及充分說理能夠有助于生成式人工智能工具對司法行為的分析、學習和理解,保障智能化裁判結(jié)果更加精準、公平、公正。司法數(shù)據(jù)的質(zhì)量可以通過形式與實質(zhì)兩種途徑予以提升。一是統(tǒng)一裁判文書內(nèi)容的表達形式,避免生成式人工智能的錯誤理解。通過統(tǒng)一裁判文書內(nèi)容的表達形式,不斷提升裁判文書的格式化、規(guī)范化程度,從源頭上減少少錄、錯錄的現(xiàn)象。例如,字詞、標點、表述、語法等錯誤。二是明確裁判文書理由闡述的具體要求,加深生成式人工智能對司法規(guī)律的學習把握。裁判文書說理必須堅持以事實為依據(jù),以法律為準繩。針對具體對象與問題,做到思路清晰、層次分明,符合案件客觀事實,充分地論證、闡明法律規(guī)范與案件證據(jù)事實之間認定過程的正當性與合法性,加強裁判文書說理的法理性、邏輯性,實現(xiàn)理由、事實及判決結(jié)果相互一致。
1.元規(guī)制:算法倫理的嵌入
“倫理先行是智能算法應用于社會生活領域的首要,也是科學技術健康發(fā)展的重要保障?!盵38]在算法設計上嵌入算法倫理規(guī)范,有助于判斷算法行為是否符合倫理道德的標準,進而從價值層面將算法歧視、算法偏見等算法風險列為禁止行為,進行矯正與規(guī)訓,實現(xiàn)“元規(guī)制”。具體要求應該包括以下幾個層面。一是研發(fā)層面,雖然在技術層面算法是價值中立的,但算法自研發(fā)之初就摻雜了算法設計者的價值取向,具有明顯主體屬性。因此,需要加強對人工智能研發(fā)相關活動的約束機制,強化研發(fā)人員的自我管理、自我約束意識,規(guī)制其不從事違背倫理道德規(guī)約的算法研發(fā)。二是理論層面,監(jiān)管部門或行業(yè)協(xié)會出臺具有一定前瞻性、兜底性、靈活性的算法倫理標準,揭示其中可能侵犯的實際利益,以應對日新月異的算法風險變化,彌補算法倫理標準滯后的缺陷,加強實際應用,引導算法向善。三是制度層面,通過建立算法備案、算法安全評估、算法問責、算法治理、第三方監(jiān)管等具體制度,明確算法設計者的義務邊界和權責定位,從內(nèi)到外實現(xiàn)對算法倫理的全方位審查,以此避免算法濫用。
2.內(nèi)核優(yōu)化:從算法黑箱到算法可釋
有學者指出:“相對于算法的透明度,算法的可解釋性才是目的?!盵19]不難理解,算法的透明度固然很重要,但是考慮到參與訴訟的當事人面對如“天書”一般的復雜代碼,算法的透明度所起到的效果收效甚微,根本無法打消社會公眾對智能化裁判司法公信力的質(zhì)疑。但是,通過恰當?shù)乃惴ń忉尫绞?至少能夠?qū)崿F(xiàn)大部分智能化司法決策環(huán)節(jié)的信息留痕,最大程度地復現(xiàn)智能化司法決策的過程、結(jié)果和應用,從技術層面揭開算法內(nèi)部的歧視與偏見的面紗,實現(xiàn)算法的“去黑箱化”。因此,增強算法的可解釋性是當下促進智能化裁判邁向可信,獲得公眾“算法信任”的關鍵。具體的解釋方法如下。
一是以問題為靶向的局部解釋。一般情況下對司法裁判的不認同往往集中于其中某個點,很少情況下出現(xiàn)對整個判決的否定,因此相較于動輒將整個算法背后的復雜邏輯及其系統(tǒng)的工作機制進行全面詳解的公式化全局解釋,以“問題為靶向”的局部解釋則更為直觀、簡潔、省力,更能夠提升公眾的理解程度。其基本思路是在生成模型預測結(jié)果的同時,同步設計一個模型生成對該結(jié)果的說明。常見的局部解釋方法包括敏捷性分析解釋、局部近似解釋、梯度方向傳播解釋,以及激活映射解釋等[39]。
二是根據(jù)不同的受眾進行區(qū)別解釋。專業(yè)知識、公眾預期、工作背景等均可能對算法的理解和信任產(chǎn)生影響,因而面向不同的主體強調(diào)算法解釋的不同方式,是提升算法解釋效果的必然選擇[40]。例如,對缺乏相關技術知識認知背景的當事人可以采取模型蒸餾解釋方法、可視化的圖片解釋法等被視為技術上不完備、不徹底的解釋方法,反而實際上可能更有效果。
當前,無論是學界還是實務界已經(jīng)形成了統(tǒng)一的共識:司法的效率絕對不能以犧牲司法公正為代價。無論人工智能如何發(fā)展,其永遠無法代替法官。在這場機器與法官對司法決策權力的“逐鹿”中,以人類大獲全勝為告終。因此,為了合理確定生成式人工智能工具輔助司法裁判的邊界限度,保障智能化裁判健康發(fā)展,應始終以彰顯與強化法官的主體地位、統(tǒng)籌案件繁簡分流機制下分層應用、嚴格落實司法責任制為出發(fā)點。
1.以人為本:彰顯與強化法官的主體地位
司法活動的本質(zhì)是人類實踐理性的具體應用。從這個角度出發(fā),司法裁判不可能也不能成為純粹的技術,過分盲從、依賴、不加節(jié)制地使用人工智能技術會必然會動搖法官的地位,進一步壓縮法律議論的空間。事實上,依據(jù)法理、人情、倫理道德,以及對案件事實細致入微的洞察,并通過法官的自由心證與“法感”形成內(nèi)心確信,最終做出妥善處理的司法裁判實際上是一種超凡“藝術”,不亞于寫作、繪畫與演奏等藝術活動。即使生成式人工智能具有強大的深度學習能力,也無法完全替代法官獨立做出兼顧法律效果、社會效果和政治效果統(tǒng)一的司法裁判;并且數(shù)字司法改革的初衷也不是讓生成式人工智能代替法官獨立裁判,而是讓生成式人工智能在司法決策領域中扮演輔助性的角色,輔助法官依法、全面、規(guī)范地收集和審查證據(jù),統(tǒng)一法律適用標準,保障司法公正,實現(xiàn)法律面前人人平等。特別是當前,生成式人工智能仍有許多技術難題需要攻關,司法改革也處于穩(wěn)步扎實推進的階段。因此,就需要始終彰顯與強化法官的主體地位,把握好智能化裁判的尺度,確立法官對司法裁判的最終話語權。
2.程序分流:統(tǒng)籌案件繁簡分流機制下分層應用
可以看到,生成式人工智能輔助司法裁判在法律關系明確、事實清楚的簡單案件中展現(xiàn)出強大的效率優(yōu)勢。但是如前文所述,其在疑難案件中存在著無法識別、理解的困難。因此,在當前繁簡分流機制下,根據(jù)簡單案件與疑難案件的性質(zhì)分層適用人工智能輔助司法裁判,能夠更好地平衡司法公正與效率之間的關系。一是突出簡單案件的效率要求。簡單案件的法律關系相對單一、明確,事實清楚,且訴訟程序上一般都為速裁程序、簡易訴訟程序、小額訴訟程序,所以生成式人工智能可以憑借其指數(shù)級的算法處理能力和反應速度,輔助法官進行要素化審判,包括證據(jù)審核、案例分析,預測判決等,實現(xiàn)了案件全流程快速審理,同時亦盡可能地減少錯誤。二是削弱疑難案件的標準化控制。疑難案件的法律關系、案件事實,以及相關證據(jù)材料相較于簡易案件更為復雜,對此生成式人工智能存在類案識別困難,造成無法實現(xiàn)精準地推送和預測判決的困境。因此,在疑難案件中應當弱化生成式人工智能在司法裁判中的標準化控制,適度運用智能化[41]。
3.揭開人工智能面紗:落實司法責任制
韋伯認為:“一個人或很多人在一種共同體行動中哪怕遇到其他參加者的反抗也能貫徹自己意志。”[42]就現(xiàn)階段而言,生成式人工智能還不具備具有責任能力的現(xiàn)實基礎,還不能實現(xiàn)法律意義上的“人格化”。從審判地位來看,生成式人工智能亦不可能挑戰(zhàn)法官的主體地位,用與不用、接受或不接受完全取決于法官自我意志和選擇,法官依舊把控著司法審判的全過程。因此,需要揭開人工智能面紗,嚴格落實司法責任制,“讓審理者裁判,讓裁判者負責”。此外,嚴格落實司法責任制也能使法官更加審慎地依賴人工智能,“有思考地服從”人工智能,加強法官對裁判結(jié)果的自我檢驗與審查,增強法官的責任擔當意識,保障司法的公正。
在明確了嚴格貫徹司法責任制后,還需要結(jié)構(gòu)化地分析智能化裁判致?lián)p時的狀態(tài)與原因,進一步劃分司法責任與司法豁免權之間的邊界,明確法官的責任范圍,構(gòu)建權責一致的責任分擔機制。若是由生成式人工智能運算邏輯錯誤引起的決策錯誤,法官盡到合理的審查注意義務之后,仍未發(fā)現(xiàn)錯誤的,則法官不用承擔責任;若是由法官自身過失或者瀆職致使生成式人工智能決策錯誤的,則由法官承擔主要責任;若是由生成式人工智能的設計者的原因引起的決策錯誤,則由設計者承擔主要責任,法官不用承擔責任。
從發(fā)展角度看,隨著生成式人工智能發(fā)展“奇點”的到來,生成式人工智能與司法裁判領域的融合注定是無法回避的客觀事實,但我們應當始終保持“技術謙虛”的態(tài)度,即要有全局意識,既不要斷定,也不要妨礙技術的具體功能。一方面,生成式人工智能輔助司法裁判在一定程度上確實能夠通過類案推送、輔助證據(jù)認定、偏離度預警等方式實現(xiàn)形式正義的可視化與提升司法效率,具有積極的一面;另一方面,生成式人工智能現(xiàn)階段仍有許多技術風險需要攻關,其算法黑箱、算法歧視、算法偏見等依舊是無法繞過的客觀存在,且其“誘人的正義”不可避免地會造成法官過度依賴生成式人工智能,導致人被機器所“奴役”。
正如魏澤堡竭力所指出的那樣:“人的智能是不能移植的。”[43]反思司法裁判事業(yè)是以人的情感、理性、經(jīng)驗為基礎的價值判斷。因此,在司法裁判這樣開放的場域中,不應完全放手由生成式人工智能去操作,法官在司法裁判領域的主體地位始終不能被動搖,需要審慎地應對技術權力與司法權力的共建,避免“人在環(huán)中”(human in loop)的情況發(fā)生。