摘要:ChatGPT類生成式人工智能在海量的數(shù)據(jù)、優(yōu)質(zhì)的算法與強大的算力支撐下能夠?qū)崿F(xiàn)多項技術賦能。但ChatGPT類生成式人工智能是否能夠適用到智慧司法領域,以及在何種程度上將其嵌入,尤其是該項技術在賦能智慧法院建設過程中的邊界如何,這對于深層次建設智慧法院具有重要的前提性意義。ChatGPT類生成式人工智能技術通過審判活動的智能化運用,可促進可視正義的實現(xiàn);通過訴訟服務的可及性,可實現(xiàn)司法為民理念;通過公平與效率的動態(tài)平衡,可實現(xiàn)能動司法目標。然而,ChatGPT類生成式人工智能在帶來上述諸多技術紅利的同時,也引發(fā)了一系列新的風險,具體可以劃分為由數(shù)據(jù)“幻覺性”引發(fā)的一般風險、由技術壟斷性導致的重要風險以及由數(shù)據(jù)不可控產(chǎn)生的核心風險。對這些風險,應根據(jù)不同的風險特征采取相應的規(guī)制路徑:可以通過對訓練數(shù)據(jù)庫的標準化構建以實現(xiàn)數(shù)據(jù)的“幻覺性”規(guī)制,通過輔助性原則的引入而實現(xiàn)技術規(guī)制,通過對服務提供者科加義務以實現(xiàn)對數(shù)據(jù)不可控的數(shù)據(jù)規(guī)制。即運用數(shù)據(jù)“幻覺性”規(guī)制、技術規(guī)制與數(shù)據(jù)規(guī)制,實現(xiàn)對ChatGPT類生成式人工智能技術嵌入的一般風險、重要風險與核心風險的防范,以期完成ChatGPT類生成式人工智能技術嵌入智慧法庭建設的風險最小化與技術賦能最大化,最終實現(xiàn)該項技術高質(zhì)量賦能智慧法院建設。
關鍵詞:ChatGPT;生成式人工智能;人工智能司法;智慧法院
中圖分類號:D916
文獻標識碼:A
文章編號:1673-8268(2024)03-0083-11
一、引言
2016年7月,中共中央辦公廳、國務院辦公廳印發(fā)了《國家信息化發(fā)展戰(zhàn)略綱要》,
其中提出,要建設“智慧法院”,提高案件受理、審判、執(zhí)行、監(jiān)督等各環(huán)節(jié)信息化水平,推動執(zhí)法司法信息公開,促進司法公平正義。2019年4月,最高人民法院印發(fā)的《人民法院信息化建設五年發(fā)展規(guī)劃(20192023)》指出,人民法院信息化3.0版的主體框架已然確立,智慧法院已經(jīng)由初步形成向全面建設邁進。2020年11月,最高人民法院印發(fā)的《人民法院信息化建設五年發(fā)展規(guī)劃(20212025)》指出,要建設“以知識為中心、智慧法院大腦為內(nèi)核、司法數(shù)據(jù)中臺為驅(qū)動的人民法院信息化4.0版”。2022年4月29日,最高人民法院出臺的《人民法院數(shù)據(jù)安全管理辦法》將人民法院數(shù)據(jù)按照業(yè)務領域、所屬范圍、數(shù)據(jù)來源、信息公開、數(shù)據(jù)結構等維度予以分類;根據(jù)數(shù)據(jù)遭到篡改、破壞、泄露等對國家安全、公共利益或者個人、組織合法權益造成的危害程度,將人民法院數(shù)據(jù)分為一般數(shù)據(jù)、重要數(shù)據(jù)、核心數(shù)據(jù)三個級別,提出數(shù)據(jù)全生命周期安全管理要求和數(shù)據(jù)安全保障要求??梢?,智慧法院建設已然成為國家信息化發(fā)展的重要環(huán)節(jié),有助于打通服務群眾的“最后一公里”。
就域外智慧法院建設而言,2016年7月13日,美國威斯康星州最高法院首次裁定了在量刑中使用算法的合憲性,該裁決認為被告的正當程序權利并沒有因為他們無法獲得對算法的充分解釋而受到侵犯[1]。此外,越來越多的國家使用算法對被告從事暴力行為的風險進行評估[2]。例如,美國的罪犯矯正替代性制裁分析管理系統(tǒng)(COMPAS系統(tǒng))為了評估可能的累犯情況,依據(jù)評分結果作出監(jiān)禁或釋放的司法決策;法國司法部為了解決信息系統(tǒng)之間出現(xiàn)的條塊分割、數(shù)據(jù)鴻溝、信息壁壘和整體效率不足等問題而研發(fā)出了法國刑事智能審判系統(tǒng)等[3]。有學者指出,如果人工智能(artificial intelligence,AI)能夠提出有說服力的論點,并在撰寫判決書方面超過人類法官,那么就應該將比人類更可靠、效益更高的人工智能視為法官[4]。目前,一些人工智能在司法實踐中的應用已經(jīng)顯示出優(yōu)于人類法官的預測精度。例如,美國伊利諾伊理工學院和南德克薩斯大學基于1791年至2015年最高法院的數(shù)據(jù)開發(fā)的算法,預測了1815年至2015年最高法院法官的判決和投票,準確率分別為70.2%和71.9%,超過了法學家66%的預測準確率[5]。
可見,人工智能尤其是以ChatGPT(Chat Generative Pre-trained Transformer)為代表的生成式人工智能技術的發(fā)展,對于智慧法院建設提供了諸多機遇。然而,ChatGPT類生成式人工智能在賦能智慧法院建設的同時,也面臨著數(shù)據(jù)“幻覺性(hallucination)”的一般風險、技術壟斷的重要風險和數(shù)據(jù)不可控的核心風險。有鑒于此,本文立足于ChatGPT賦能智慧法院的三重風險,提出建議:針對“幻覺性”規(guī)制的預訓練,將數(shù)據(jù)庫標準化;針對技術壟斷規(guī)制,貫徹算法透明性原則;針對數(shù)據(jù)不可控規(guī)制的服務提供者,科以義務,以期實現(xiàn)ChatGPT高質(zhì)量賦能智慧法院建設。
二、ChatGPT為智慧法院建設提供新的機遇
人工智能又被稱為計算機智能或機器智能,這類“智能”主要是通過人工的方式予以創(chuàng)制,其與傳統(tǒng)計算系統(tǒng)比較而言,最大的不同在于具有“智能”甚至“智慧”性[6]。1956年,達特茅斯會議正式引入人工智能概念,將人工智能按發(fā)展階段分為狹義人工智能(narrow artificial intelligence,NAI)、通用人工智能(general artificial intelligenc,GAI)和超級人工智能(super artificial intelligence,SAI)。NAI在智慧法院的主要作為體現(xiàn)為司法信息化處理;GAI可以進行多功能的綜合法律檢索、法律文書編制,提供法律咨詢、文件審查和案件預測、訴訟策略選擇等功能;SAI可以利用推理和感知等高級功能,實現(xiàn)自然的人類語言、創(chuàng)造力和情感內(nèi)容[7],能夠帶動所有領域的創(chuàng)新,并取得突飛猛進的進展。這種進步又被稱為“智能爆炸”或者“技術奇點”[8]24。早在1965年,數(shù)學家歐文·約翰·古德就寫道,“第一個超級智能機器人是人類要創(chuàng)造的最后一個發(fā)明”[9]。人工智能已然成為全球司法決策過程中的一個相關組成部分[10]。1977年,人權學者安東尼·達末亞托(Anthony D’Amato)設想計算機可能取代法官,假設“法律已經(jīng)完全確定”,自動化將消除司法決策中的自由裁量權[11]。德國社會學家馬克思·韋伯曾經(jīng)將現(xiàn)代社會的司法比喻為自動售貨:“現(xiàn)代的法官是自動售貨機,民眾投進去的是訴狀和訴訟費,吐出來的是判決和從法典上抄下來的理由。”[12]2019年,愛沙尼亞政府啟動了“機器人法官”去審理小額索賠案件,以期能夠為法官清理積壓的案件,該國也是第一個賦予算法決策權的國家。研究表明,很多國家和地區(qū)的普通人更加信任機器審判,認為機器審判可能更加準確公正,特別是更不容易腐敗[13]。
ChatGPT類生成式人工智能作為人工智能技術最新的發(fā)展,得益于優(yōu)異算法的助力,該類人工智能在許多方面都表現(xiàn)出質(zhì)的進步。與人類法官比較而言,ChatGPT類生成式人工智能在司法信息存儲、查詢與分析等方面表現(xiàn)較為優(yōu)異,能夠通過對全樣本的數(shù)據(jù)挖掘,“發(fā)現(xiàn)”司法案例背后的原理,當新案例出現(xiàn)時可以基于相同的案例元素、統(tǒng)一的算法建模和標準化的流水線操作來提取標準,為相同或相似的案例提供相同或相似的算法輸出,作出與人類法官相類似的判決[5]。
(一)可視正義:審判活動的高效化
截至2022年12月,中國庭審公開網(wǎng)累計直播庭審2億余場,訪問量超過550億次;中國裁判文書網(wǎng)累計公開裁判文書1.3億余次,訪問量超過980億次。司法大數(shù)據(jù)是經(jīng)濟社會活動的晴雨表,故人民法院建成大數(shù)據(jù)管理和服務平臺,可服務于經(jīng)濟社會治理。覆蓋審判執(zhí)行、司法人事、司法研究、司法政務、信息化管理和外部數(shù)據(jù)等六大類數(shù)據(jù)的我國國家司法審判信息資源庫已經(jīng)成為全球之最。全國法院所有案件信息實時、自動匯聚,每5分鐘自動更新;截至2022年底,已累計匯聚案件信息2.9億件,數(shù)據(jù)可信度長期穩(wěn)定在99%以上,為進一步的數(shù)據(jù)分析奠定了基礎[14]10。
庭審是法官審理辦案必不可少的環(huán)節(jié)。在傳統(tǒng)審判模式下,庭審筆錄主要依賴于書記員,因而書記員記錄質(zhì)量對庭審效率具有較大影響?,F(xiàn)在,全國各地大量法庭配備了先進的庭審及辦公語音識別系統(tǒng),由此不僅能將書記員從繁重的手動記錄方式中解放出來,而且提升了庭審筆錄的準確性。廣東、蘇州等地研發(fā)了智能語音識別系統(tǒng),以自動區(qū)分庭審發(fā)言對象及發(fā)言內(nèi)容,將語音自動轉化為文字;還采用人工智能輔助、批量修訂等技術,讓其書記員只需進行少量修改即可實現(xiàn)庭審的完整記錄。此外,庭審語音識別系統(tǒng)功能也越來越強大,不僅適用于庭審筆錄,還可運用于案件評議、裁判文書制作、日常辦公等場景,極大提高了人民法院合議及辦公效率。在此基礎上,各級人民法院積極升級改造科技法庭,不斷提升法庭科技含量??萍挤ㄍダ靡纛l、視頻采集系統(tǒng)實現(xiàn)了同步庭審錄音錄像;借助語音識別等新技術改造了證據(jù)展示平臺,并在法庭上直接通過語音就可找到需要展示的電子卷宗內(nèi)容,能對電子證據(jù)隨講隨翻,極大方便了法官當庭比對印證,查明案件事實。有的人民法院庭審中法官可全流程對電子卷宗進行查閱、批注、質(zhì)證等,通過語音識別自動生成筆錄信息,與法官和當事人實時共享筆錄信息,便于隨時對筆錄內(nèi)容進行批注;在質(zhì)證階段,還可以通過共享書記員電腦、原被告電腦、手機等方式進行質(zhì)證;庭審結束后,可通過簽名板對筆錄進行電子簽名,按壓電子指紋生成電子簽名筆錄,并將筆錄自動回傳到辦案系統(tǒng)[14]30-31。積極推進證據(jù)的數(shù)字化呈現(xiàn),確保涉案證據(jù)展示形態(tài)與實物一致化、可視化、全景化,將人工智能與證據(jù)保管、存取、展示深度融合,逐步實現(xiàn)數(shù)字化存取,通過還原現(xiàn)場以增強“親歷性”等,有利于減少司法機關人力物力消耗與證據(jù)污染風險[15]。
法律文書是法官處理審判事務的重要載體和表現(xiàn)形式,也可真實體現(xiàn)法官辦案過程。撰寫裁判文書是法官的核心工作,但制作裁判文書的過程需要花費法官大量的時間和精力,因此,法律文書智能生成也是智慧審判建設的重點和難點工程。2017年,北京市高級人民法院研發(fā)了“睿法官系統(tǒng)”。該系統(tǒng)通過自動從電子卷宗中提取文書的首部、當事人基本情況、案由、訴訟請求和審理查明部分以及部分簡單案件的裁判說理,大幅壓縮了法官制作裁判文書的時間,有效提升了裁判文書制作效率[14]32。
(二)司法為民:訴訟服務的可及性
司法為民理念在司法活動中的貫徹是對以人民為中心的發(fā)展思想的生動詮釋。在人工智能賦能下,司法機關實現(xiàn)了辦案智能化。自2016年起,人民法院電子卷宗隨案同步生成和深度應用工作全面推行;至2022年,各級人民法院已基本實現(xiàn)隨案制作電子卷宗,其法官基于電子卷宗開展閱卷、合議、執(zhí)行業(yè)務,有力保障了審理過程全程留痕;后續(xù)的電子卷宗網(wǎng)上流轉架構,使以往平均耗時10余天的上訴案件卷宗移送工作僅需幾分鐘即可完成。吉林省延邊朝鮮族自治州中級人民法院率先運用“AI+RPA(機器人流程自動化)”來優(yōu)化事務性工作,即用一套模擬人工操作進行自動流程執(zhí)行處理的軟件來代替工作人員操作電腦,自動完成各類軟件系統(tǒng)的業(yè)務處理,準確高效實現(xiàn)業(yè)務流程自動化。吉林省和龍市人民法院被吉林省高級人民法院確定為RPA試點單位,積極探索建設RPA多場景應用,目前已覆蓋司法公開、審判管理、刑事政法協(xié)同、執(zhí)行四大領域,涉及審判管理數(shù)據(jù)統(tǒng)計、文書筆錄公開、政法協(xié)同系統(tǒng)文書上傳、執(zhí)行文書制作、節(jié)點點擊等8項工作的19個節(jié)點。到2022年,人民法院信息化建設已實現(xiàn)特定案由裁判文書內(nèi)容100%高準確率自動生成目標[14]6。
GPT(Generative Pre-Training Transformer)是“生成式預訓練Transformer”模型的簡稱。Transformer是Google提出的一個引入自注意力機制來提高模型訓練速度的神經(jīng)網(wǎng)絡模型,能夠讓語言模型更好地解決大篇幅文本中的長距離依賴等問題[16],其靈感來自人腦在接受信息時會選擇性地關注信息關鍵部分的特點。如將“成年人與未成年人年齡在民法典中的規(guī)定”輸入ChatGPT中,它會迅速生成“十八周歲以上的自然人為成年人,不滿十八周歲的自然人為未成年人”。之所以能夠瞬間生成,不是因為它理解成年人與未成年人年齡的區(qū)別,而是在語料庫里,“十八周歲以上”與“成年人”同時出現(xiàn)的概率最高。ChatGPT模型工作原理首先是通過足夠多的語料庫“習得”,在預訓練階段實現(xiàn)文本生成能力;其次是通過對語料的標注,讓ChatGPT模型進行無監(jiān)督學習并掌握提問和回答的通用規(guī)律,這也是ChatGPT“一本正經(jīng)胡說八道”的原因所在,其并不理解問題與答案之間的實質(zhì)內(nèi)涵,只是根據(jù)預先模板來生成答案。在這個階段,ChatGPT并沒有展示出與傳統(tǒng)人工智能的本質(zhì)區(qū)別,之所以生成的答案更符合人類價值觀,主要是因為加入了人類反饋強化學習技術(reinforcement learning from human feedback,RLHF)。該階段是通過人工對回答進行打分排序,依打分結果訓練而得到一個獎勵函數(shù)(Reward)模型,根據(jù)這個模型ChatGPT會傾向于生成最高分的回答,這是ChatGPT“善解人意”的原因所在??梢?,ChatGPT模型只需被“喂養(yǎng)”足夠多的大數(shù)據(jù)、輔以足夠強的算法與算力,即可獲得各種驚人的智慧能力。ChatGPT具有強大的數(shù)據(jù)檢索與文本生成能力,能夠提高司法的效率和客觀性,有效預防司法腐敗與促進司法廉潔[17]。
根據(jù)國際發(fā)展組織網(wǎng)絡最近發(fā)布的一份報告,超過50億人無法有意義地獲得司法服務,超過2.53億人生活在被奴役、沖突和無國籍等極端不公正的條件下,15億人有無法解決的司法問題,超過45億人被排除在提供社會經(jīng)濟和政治安全的法律保護之外[18]。ChatGPT類生成式人工智能的賦能使得訴訟服務不僅便利、便宜,而且知識黏性下降,讓那些無法負擔訴訟費用或者無法理解法律的人有機會獲得訴訟服務。首先,就當事人而言,在ChatGPT類人工智能技術幫助下,人們不受“八小時”工作時間限制,不受地域限制,可以及時獲得訴訟服務,提高訴訟服務的智能化水平。此外,基于強大語言理解能力,通過對提問者問題的理解,結合訓練語料庫的比對,ChatGPT能為當事人提供高質(zhì)量的法律咨詢服務,最終完成司法資源的均衡分配。其次,就司法工作人員而言,ChatGPT類人工智能技術通過對全樣本司法數(shù)據(jù)的分析,可以幫助司法人員迅速檢索到類案信息,精準定位到具體法律條款,降低司法裁判過程中的不確定性與主觀性,降低同案不同判的風險,保證裁判標準的統(tǒng)一性[19]。
ChatGPT優(yōu)異的文本生成能力可以幫助司法工作人員制定文件初稿,尤其是一些法律關系明確、標的額較小的案件,可以借助ChatGPT來完成標準化文書的撰寫,將司法工作人員從重復性工作中解放出來。因此,ChatGPT類人工智能的使用不僅可以降低訴訟成本,還可以提高訴訟效率。
(三)司法價值:公平與效率的動態(tài)平衡
2023年8月15日施行的《生成式人工智能服務管理暫行辦法》(以下簡稱《辦法》)第22條第1款規(guī)定:“生成式人工智能技術是指具有文本、圖片、音頻、視頻等內(nèi)容生成能力的模型及相關技術?!盋hatGPT之前的人工智能大多屬于單一型,不具創(chuàng)造性。然而,GPT-4不同于以往機器的工具屬性,它具有內(nèi)容生成的獨立性與隨機性[20],只需要給它一個指令,即可瞬間完成音樂、小說、繪畫等作品的“創(chuàng)作”。發(fā)明“人工智能”一詞的約翰·麥肯錫堅持認為,只要是法官知道的,計算機都可以知道[8]188。例如,墨西哥的Expertius系統(tǒng)可以為法官和書記員提供法律建議,“確定原告是否有資格獲得他/她的養(yǎng)老金”[21]。在最近的一次采訪中,美國首席大法官小約翰·G.羅伯茨被問道:“你能預見有一天,由人工智能驅(qū)動的智能機器將協(xié)助法庭進行事實調(diào)查,甚至是更有爭議的司法決策嗎?”首席大法官回應說:“這一天已經(jīng)來了,它給司法部門的行事方式帶來了巨大的壓力。”[22]當案件(或許是訴訟成本過高的大量小額爭議案件)爭議并不需要傳統(tǒng)第三方介入時,人工智能進行自動化決策要比僅僅扮演輔助角色更為合適[8]186。
客觀中立的立場不僅是保證司法過程公正性的重要因素,也是司法判決獲得公眾認可的前提。實踐表明,由于法官自身存在的個人偏好、偏見、職業(yè)倦怠、腐敗等問題,期望人類法官一直保持中立、客觀、公正的態(tài)度也是一件較為困難的事情。法官的判決不僅會受制于法官自身知識水平,也會受到疲倦、勞累過度等生理因素的影響。與人類法官相比,司法人工智能更加中立客觀。首先,該算法的應用不僅提高了司法糾紛處理能力,降低了糾紛解決成本,而且在很大程度上提高了糾紛解決的自動化程度,為更接近公正奠定了現(xiàn)實基礎。司法理性是司法權威的合法性基礎,也是實踐中具有事實約束力的人工智能司法判決的要求。在程序正義、實體正義和司法效率方面,人工智能可以幫助平衡公平和效率。其次,司法人工智能的基本運行機制是以司法大數(shù)據(jù)為樣本,通過語義分析和數(shù)據(jù)分析構建模型,將數(shù)據(jù)樣本中可能影響判決結論的相關因素逐一篩選出來,然后將這些數(shù)據(jù)進行標記并整合到結構化的知識鏈中,從而實現(xiàn)精準的自動化裁決。一個注重司法各要素的可擴展性、依靠獨立的算法、可重復適用的法律體系可以有效擺脫法官基于自由裁量權的人為隨意性,促進法律適用的統(tǒng)一性,消除法官價值的主觀偏見和外界因素對可預見性的影響,最終保證司法裁判的客觀性和公正性。司法人工智能可以執(zhí)行重復性任務,有助于縮減特定案件完成的總體時間,降低司法腐敗,減輕訴訟參與人的司法訴累,使得法官更加專注于核心司法活動。
有鑒于此,考慮到人類的局限性,法律自動化的倡導者傾向于認為,將審判委托給算法,是邁向“法治,而不是人治”自然進化的下一步[23]。與受限于時間與空間的人類法官不同,算法似乎相對一致與低廉,有助于讓所有人都有能力去訴諸司法[24]。
三、ChatGPT帶給智慧法院建設的挑戰(zhàn)
ChatGPT類生成式人工智能的迅速崛起為智慧法院中的審判活動、訴訟服務、司法公平與效率之間的動態(tài)平衡,提供了全新的機遇,但同時也帶來一系列的挑戰(zhàn)。ChatGPT在單一、固定的機械化判斷中表現(xiàn)優(yōu)異,然而,并非所有的法律原則或規(guī)則都是確定的,司法活動也不僅僅只是法條的機械化適用,法官不僅是法律的適用者,更是法律的“解釋者”。當出現(xiàn)法律空白或者漏洞時,不能因為法無明文規(guī)定而拒絕裁判,正如馬克思所說:“如果法律可以自動運用,那么法官也就是多余的了?!保?5]因此,法官需要在法律事實與案件事實中予以提煉,在浩如煙海的文獻中尋找最優(yōu)裁判依據(jù),進而作出合法合理的公正裁判。對這些隱藏的法理、情理與天理的人類情感,ChatGPT并不能很好理解。
(一)一般風險:數(shù)據(jù)的“幻覺性”
ChatGPT類大語言模型工作機理是基于對大數(shù)據(jù)的處理而獲得知識,正如“垃圾進、垃圾出(garbage in,garbage out)”[26];如果預訓練數(shù)據(jù)庫被污染,那么其生成的結論也可能具有偏見與不公,甚至會生成一些虛假信息,胡編亂造法律知識、錯誤適用法條等,這些都會嚴重損害司法權威。雖然司法人工智能在提高審判效率、緩解“訴訟爆炸”壓力方面優(yōu)勢顯著,但其產(chǎn)生的判決質(zhì)量卻無法得到有效保障。此外,社會公眾對機器判斷錯誤率的苛刻要求,進一步加大了機器替代法官的難度。
第一,預訓練數(shù)據(jù)質(zhì)量決定了ChatGPT類人工智能的工作表現(xiàn)。ChatGPT類人工智能在特定領域表現(xiàn)出色,如象棋,因為其具有特定的規(guī)則,有明確的正確或錯誤答案。在司法領域,ChatGPT類人工智能的數(shù)據(jù)庫主要是先前的司法裁判文書,通過對過去裁判經(jīng)驗的總結,進而預測未來司法決策。一是就數(shù)據(jù)量而言,司法數(shù)據(jù)全樣本很難獲得。這一方面是因為司法活動難以全部數(shù)據(jù)化、結構化,更難以完全共享;另一方面由于有些法律名詞屬于不確定性法律概念,很難對適用規(guī)則進行提煉、整合與標準化[27]。二是就數(shù)據(jù)質(zhì)而言,對司法知識圖譜的構建也很難做到模型化與精細化?;谒痉ㄕZ言的多義性、模糊性,人工智能很難準確全面識別司法案例中的復雜語義,更遑論司法裁判背后所蘊含的法理、情理與天理的有機統(tǒng)一。因此,這也是ChatGPT類人工智能在司法場域下表現(xiàn)不佳的原因。更為重要的是,ChatGPT類人工智能技術緣起于人類神經(jīng)網(wǎng)絡,通過模仿神經(jīng)元之間的節(jié)點建造出來,而人類神經(jīng)元本身也具有黑箱屬性。具言之,人們經(jīng)常高估自己對事物運作的理解程度,這種現(xiàn)象被稱為解釋深度錯覺(illusion of explanatory depth,IOED)[28],這種錯覺表現(xiàn)為誤以為能夠理解其主體如何作出決策判斷[29],實質(zhì)上算法決策與人類決策兩者都具有黑箱屬性,人類決策價值偏好更明顯[30],如法官每天評估被告而不解釋他們?nèi)绾蔚贸雠袛啵?1],醫(yī)生作出醫(yī)療判斷也不會向患者作過多解釋。可見,ChatGPT類大語言模型不僅攜帶人類決策的黑箱性,而且其參數(shù)巨大,更具有顯著的黑箱屬性,這種程序與結果的不可解釋性加劇了公眾的不信任。此外,ChatGPT類大語言模型也來自于Common Crawl、WebText2、GitHub等網(wǎng)頁數(shù)據(jù)庫、維基百科、各種書籍等數(shù)據(jù)[17],對這些數(shù)據(jù)的真實性與準確性很難保障,這也是造成數(shù)據(jù)“幻覺性”的原因之一。
第二,輸出文本的“幻覺性”。訓練數(shù)據(jù)庫數(shù)據(jù)的質(zhì)與量均存在偏差,導致ChatGPT類人工智能生成文本“一本正經(jīng)地胡說八道”。2022年7月的美國律師資格考試中,ChatGPT-4以297分的總分大幅領先,幾乎達到了90%的考生水平。這個分數(shù)甚至超過了“亞利桑那州設定的273的高門檻”[32]。但是,通過了法律資格考試并不意味著即可具有從業(yè)資格,更為重要的是,ChatGPT之所以能夠通過考試,是因為在其數(shù)據(jù)庫里本身就存在這些試題與法條。因此,要注意識別人工智能的“幻覺性”,盡管ChatGPT不知道你的提問,但是它仍然會“一本正經(jīng)”在那里闡釋,且其所謂的支撐案例可能根本就不存在,尤其是面對不太熟悉的場景,其回復極具有迷惑性,容易誤導用戶的選擇,進而影響到司法公信力。此外,ChatGPT的“高情商”使得其喜歡迎合用戶,會根據(jù)提問者的問答調(diào)整回復,這也是ChatGPT爆火的原因之一,但是該特點一旦運用于司法場域,可能會使司法裁判發(fā)生偏離,增加錯案幾率。
第三,相互監(jiān)督功能難以實現(xiàn)。首先,ChatGPT類人工智能具有高智能性,如果適用到法院中,不同審級是否使用同一種算法難以統(tǒng)一;如果使用同一種算法,就會使得裁判結果完全一致,那么,審級監(jiān)督功能難被保障,難以調(diào)和不同地域經(jīng)濟、社會與文化的差異性。其次,如果不同審級使用不同算法,那么,是否會存在重復性建設的風險?更為重要的是,如果司法系統(tǒng)選擇信任這個算法決策,可能會產(chǎn)生路徑依賴,即使面對證據(jù)或裁判結果出乎自己預判時,也會傾向于選擇相信算法的決策;如果司法系統(tǒng)只是參考這個決策,可能會導致資源浪費。最后,互相制約原則難以實現(xiàn)。根據(jù)《中華人民共和國憲法》第140條規(guī)定,公、檢、法三機關分工負責,互相配合,互相制約。如果三者都使用同一套算法體系,作出的司法決策也就具有相同性,那么,三機關相互制約的效力將會減弱;如果使用不同算法系統(tǒng),那么不同部門系統(tǒng)如果發(fā)生沖突,哪個系統(tǒng)更具有優(yōu)先性,則是需要解決的問題[26]。
(二)重要風險:技術的壟斷性
2020年,OpenAI推出了GPT-3。為了讓GPT實現(xiàn)此次技術迭代,微軟為OpenAI設計了一臺超級計算機,其中包括285 000個CPU內(nèi)核、10 000個GPU和每秒400GB的網(wǎng)絡連接/CPU服務器;GPT-3被“投喂”了45TB數(shù)據(jù)量,1 750億參數(shù)、近萬億單詞,每天3億元、一年近1 000億元人民幣成本[33]。從GPT-3的配置可見,技術迭代所需要的數(shù)據(jù)、算法與算力,不僅會強化技術壟斷,還會加大數(shù)字鴻溝。
第一,ChatGPT類生成式人工智能迭代所需要的技術成本讓中小型公司難以承載。首先,對生成式人工智能所需要的數(shù)據(jù),中小型企業(yè)難以獲得,更遑論算法與算力,這意味著技術將進一步集中在超大型科技公司,甚至是某個企業(yè),中小型企業(yè)非但沒有獲得均衡發(fā)展的機會,反而被再次拉大差距,甚至是退出市場,技術壟斷得到空前集中[34]。其次,技術壟斷使得數(shù)據(jù)鴻溝進一步加大。ChatGPT類生成式人工智能不僅不能讓數(shù)字公民獲得平等數(shù)字權利,反而會導致數(shù)字偏見與歧視。一方面,由于預訓練語料大量源于Common Crawl、WebText2、GitHub等網(wǎng)頁數(shù)據(jù)庫、維基百科等,大多是以英語語言為主產(chǎn)生的數(shù)據(jù),其英語輸出質(zhì)量很高,但其他語種輸出質(zhì)量較低,這在一定程度上降低了小語種國家享受的科技紅利。另一方面,基于ChatGPT類生成式人工智能的交互性,其在不斷存儲、更新自己的數(shù)據(jù)庫,這使數(shù)據(jù)鴻溝的“馬太效應”越來越明顯。
第二,ChatGPT類生成式人工智能會產(chǎn)生司法偏見。在ChatGPT類生成式人工智能模型運行的第二個階段,通過人類反饋強化學習技術(RLHF),由人工對數(shù)據(jù)進行標注,根據(jù)打分結果訓練出了獎勵函數(shù)(reward)模型。人工智能看似技術中立,但是在該階段具有產(chǎn)生偏見的風險,如果將被污染/有偏見的數(shù)據(jù)打成高分,那么ChatGPT輸出的結果也具偏見性,但是卻會被披上“決策中立”的外衣。一方面,基于技術中立或者路徑依賴,人們會信任人工智能決策,如果未被認真印證,該系統(tǒng)偏見將會一直持續(xù)。另一方面,一旦這個偏見被運用到具體案件中,將會對當事人產(chǎn)生不公正的司法判斷,進而有損司法權威,降低社會公眾對于司法機關的信任度。更為重要的是,人工智能不同于人類法官,其不具有主體地位,因此,即使其作出錯誤決定,也很難對其追究責任。
第三,ChatGPT類生成式人工智能會加劇“信息繭房”效應。ChatGPT類生成式人工智能在帶來便利的同時,也導致知識黏性下降,使社會公眾更少思考事物的原本屬性。在ChatGPT出現(xiàn)之前,人們在尋求答案的時候,會尋求多方認證考量;但應用ChatGPT之后,基于其生成答案的專業(yè)性與迅速性,人類多元價值觀的形成將逐漸減少。ChatGPT的回復主要依賴于獎勵函數(shù),而這個函數(shù)靠少數(shù)人打分訓練而習得??梢?,這個獎勵函數(shù)模型并不具有普遍性,不能過于依賴ChatGPT回復,否則,人類的多元價值觀將會被消解,“信息繭房”效應也會進一步被加劇,我們得到看似很中立客觀的回復,或者只是標注人員讓我們看到的回復而已。具體到司法場景,其看似是對在先裁判規(guī)則的統(tǒng)一適用,但是實質(zhì)上不僅將人們困于“信息繭房”之中,而且也會導致個案正義難以實現(xiàn)。
(三)核心風險:數(shù)據(jù)的不可控
ChatGPT類生成式人工智能在海量數(shù)據(jù)、強大算力和智能算法賦能下,具有了知識“涌現(xiàn)”能力,不僅能夠“理解”自然語言,還能“記住”上下文對話知識[35],這既是ChatGPT“高情商”所在,也是其核心風險所在。ChatGPT類生成式人工智能自動收集用戶信息,而面對看似中立的機器,人們的警惕性將會下降,所交互的信息或許更具有敏感性,可能會被運用于訓練模型或者泄漏給其他用戶。
第一,ChatGPT類生成式人工智能所獲數(shù)據(jù)被泄漏的風險。
由于具有高度交互性,司法機關或者當事人在使用ChatGPT類生成式人工智能時的對話數(shù)據(jù)將會被用作下一次模型訓練,或者在遇到同樣問答時作為答案回復給第三人。尤其是法官運用ChatGPT類生成式人工智能時,為了獲得更為準確的裁判建議,可能會上傳部分案件信息,而一旦將數(shù)據(jù)上傳到ChatGPT系統(tǒng)內(nèi),法官也就失去了對該類數(shù)據(jù)信息的控制權,那么該類司法數(shù)據(jù)就具有隨時被泄漏的風險。一方面,這會對當事人的隱私或者數(shù)據(jù)安全造成泄漏風險;另一方面,司法數(shù)據(jù)尤其是正在辦理的案件數(shù)據(jù),可能會對公共利益甚至是國家利益造成侵害。
第二,ChatGPT類生成式人工智能難以防患數(shù)據(jù)跨境的風險。2022年9月1日實施的《數(shù)據(jù)出境安全評估辦法》對于數(shù)據(jù)跨境安全、自由流動作出了一系列要求,尤其要求數(shù)據(jù)出境進行事前評估、風險自評估與安全評估,以期實現(xiàn)數(shù)據(jù)依法有序自由流動。司法類數(shù)據(jù)一旦遭到泄露或者被非法獲取、非法利用等,就可能危害國家安全、經(jīng)濟運行、社會穩(wěn)定、公共健康和安全等。ChatGPT類生成式人工智能獲取到此類重要數(shù)據(jù)后,極易通過用戶與ChatGPT之間的交互而跨境傳輸,國家網(wǎng)信部門卻很難根據(jù)《數(shù)據(jù)出境安全評估辦法》第17條規(guī)定,要求數(shù)據(jù)處理者終止數(shù)據(jù)出境活動;社會公眾也很難根據(jù)《數(shù)據(jù)出境安全評估辦法》第16條規(guī)定,對數(shù)據(jù)違法違規(guī)跨境流通進行舉報。
第三,ChatGPT類生成式人工智能存在數(shù)據(jù)倫理風險。ChatGPT類生成式人工智能在給我們帶來司法便利的同時,也在助長人類的惰性。司法效率固然重要,但是司法絕不僅僅是為了追求效率,這也是為什么要開庭審理、而不是僅僅書面審理的原因。對于ChatGPT類生成式人工智能而言,雖然其具有“知識涌現(xiàn)”能力、強大的自主學習能力,能在某種程度上學會“像人類一樣思考”,但究其實質(zhì),這個“涌現(xiàn)”只是對數(shù)據(jù)庫數(shù)據(jù)的加工而已,是“從有到有”,并不具有創(chuàng)造性。其之所以能夠有效回復人類問題,是基于預訓練數(shù)據(jù)庫、人類反饋強化學習技術、獎勵函數(shù)模型等條件與技術,一旦對其輸入全新的問題,ChatGPT類生成式人工智能就能“一本正經(jīng)胡說八道”。因此,為了防止算法對司法權的侵蝕,必須確定人工智能的輔助性地位。
四、對ChatGPT在智慧法院建設中的規(guī)制
2022年12月8日,最高人民法院頒布《關于規(guī)范和加強人工智能司法應用的意見》(以下簡稱《意見》),規(guī)定司法人工智能運用的輔助審判原則,指出無論技術發(fā)展到何種水平,人工智能都不得代替法官裁判,人工智能輔助結果僅具有參考價值,必須守住“讓審理者裁判、讓裁判者負責”的司法紅線。同時,《意見》第13條也指出,要豐富拓展人工智能司法應用場景??梢?,為了更好平衡ChatGPT帶給智慧法院建設的機遇與風險,針對數(shù)據(jù)“幻覺性”,可以通過對預訓練數(shù)據(jù)庫的標準化予以規(guī)制;針對技術壟斷性,可以通過算法透明化予以規(guī)制;針對數(shù)據(jù)不可控性,可以通過對服務提供者科以義務予以規(guī)制。
(一)“幻覺性”規(guī)制:訓練數(shù)據(jù)庫的標準化
ChatGPT類生成式人工智能是否應適用到司法之中?如果適用,那么將在多大程度上予以運用?對此,理論與實務界并未達成一致意見。持反對意見者的主要理由在于數(shù)據(jù)的“幻覺性”。
司法人工智能要實現(xiàn)形式正義與實質(zhì)正義的統(tǒng)一,關鍵在于司法大數(shù)據(jù)質(zhì)量得以確保。一是在數(shù)據(jù)來源上確保專業(yè)性。《辦法》第7條對于一般預訓練數(shù)據(jù)來源與基礎模型有較為嚴苛的要求,更遑論將ChatGPT類生成式人工智能運用到司法場域,因此,對于數(shù)據(jù)的選取不應盲目追求數(shù)據(jù)的全樣本化,而是在確保數(shù)據(jù)質(zhì)量的前提下才盡可能實現(xiàn)司法數(shù)據(jù)的全樣本,即不能僅關注數(shù)據(jù)的“大”,而更應該關注數(shù)據(jù)的專業(yè)性。因此,在預訓練階段,需要建立防火墻,對于一些普通網(wǎng)站上的數(shù)據(jù)予以隔離,避免預訓練數(shù)據(jù)庫受到污染,比如可以通過“喂養(yǎng)”專業(yè)法律法規(guī)文庫、裁判文書網(wǎng)、法學專業(yè)文獻等高質(zhì)量數(shù)據(jù),確保數(shù)據(jù)輸入端的質(zhì)量。二是對于人工標注的數(shù)據(jù)予以測試。司法是維護社會公平正義的最后一道防線,公正裁判是司法的核心所在。因此,為了避免出現(xiàn)不公正裁判,可以通過對人工標注的數(shù)據(jù)予以測試,以期消除訓練庫的算法偏見。數(shù)據(jù)標注應由專業(yè)人員進行審核,通過提高標注數(shù)據(jù)的質(zhì)量,進而保障數(shù)據(jù)庫質(zhì)量,最終實現(xiàn)獎勵模型的優(yōu)化。該測試需要通過專業(yè)團隊予以完成,主要包括對于數(shù)據(jù)獲取、數(shù)據(jù)清洗、數(shù)據(jù)加工、數(shù)據(jù)更新等全生命周期式測試。三是將社會主義核心價值觀作為檢驗標準。有學者指出,司法不是法律條文的簡單適用,而要承擔弘揚社會主義核心價值觀的職責,因此,建設“有道德”的人工智能殊為必要[36]?!兑庖姟返?條規(guī)定,堅持將社會主義核心價值觀融入司法人工智能技術研發(fā)、產(chǎn)品應用和服務運行全過程,保證人工智能司法應用不得違背公序良俗,不能損害社會公共利益和秩序,不能違背社會公共道德和倫理,健全風險管控、應急處置和責任查究人工智能制度,防范化解人工智能司法應用中可能產(chǎn)生的倫理道德風險。對此,可以將社會主義核心價值觀作為檢驗標準。
(二)技術規(guī)制:輔助性原則的注入
ChatGPT類生成式人工智能給智慧法院建設帶來了全新機遇,但是基于其迭代成本、預訓練數(shù)據(jù)庫數(shù)據(jù)質(zhì)量、人工標注的專業(yè)性等要求,中小型科技公司難以攻關。正如絕對的權力導致絕對的腐敗,科技亦是如此,看似是科技中立,實質(zhì)上預訓練數(shù)據(jù)的選擇、司法知識圖譜的構建、獎懲模型的訓練等都可能成為被污染的環(huán)節(jié)?!兑庖姟返?條明確規(guī)定了輔助審判原則,第8條規(guī)定了人工智能全流程輔助辦案,第9條規(guī)定人工智能輔助事務性工作,第10條規(guī)定人工智能輔助司法管理。因此,為了防止技術壟斷所帶來的數(shù)據(jù)偏見和“信息繭房”的加劇,應在技術迭代時遵循輔助性原則。
第一,明確人的主體地位。我國的ChatGPT類生成式人工智能技術處于被動地位,原發(fā)性內(nèi)容不多,技術基礎架構多移植于國外。首先,若將ChatGPT類生成式人工智能技術賦能于智慧法院建設,需要對國外技術進行合法、合規(guī)審查。其次,對于預訓練數(shù)據(jù)庫的建設,需要“法律+技術”共同完成;尤其是面對司法知識圖譜的構建,對于數(shù)據(jù)的選擇、案例庫的建構都需要法律專家積極參與;對于數(shù)據(jù)人工標注環(huán)節(jié)的審核,也需要法律專業(yè)人士實質(zhì)意義上參與檢測。最后,在人類反饋強化學習階段,需要法律理論專家與實務專家共同參與,助力于數(shù)據(jù)打分、人工微調(diào)的高質(zhì)量實現(xiàn)。一方面,人類的積極參與反饋,不僅可以保障機器學習是在社會主義核心價值觀的引領下予以完成,還可以防止機器的無意識錯誤;另一方面,可以保障人類的主體地位,避免人類過于依賴技術、進而架空人類審查。
第二,明確人工智能生成結果的輔助地位。ChatGPT類生成式人工智能技術的優(yōu)異表現(xiàn)會進一步增強人類的技術依賴。人工智能技術從最初的只能從事單一、固定與格式化的工作,到現(xiàn)在開庭證據(jù)的可視化、裁判文書生成的自動化,其快速迭代讓我們看到了“人與機高度”的配合,甚至是人類有交出決策權的風險。ChatGPT類生成式人工智能的不斷迭代使人類容易技術成癮。如手機的發(fā)明讓我們在享受技術紅利的同時,也陷入了被手機捆綁的境遇;手機對于人類的影響,遠遠超出其最初的價值。ChatGPT類生成式人工智能技術也是如此,受制于司法知識圖譜的構建,目前其智能化水平并沒有達到技術奇點,但是,在不斷自我迭代中,很難保證其不會躍遷到新的技術奇點。當ChatGPT類生成式人工智能技術越來越智能,人類會傾向于相信技術,甚至不會去質(zhì)疑ChatGPT類模型生成答案的可信性、可知性。人類一旦技術上癮,則會弱化其主體地位??萍荚趲肀憷耐瑫r,也在侵蝕人類的決策權。
第三,堅持人類為主,機器為輔。ChatGPT類生成式人工智能時代已然到來,對其盲目抵制或者全盤接受并不符合事物發(fā)展規(guī)律。如果對技術持完全否定態(tài)度,則會導致科技落后與浪費;如果不加審查式接受,則具有架空人類決策的風險。然而,人類與人工智能技術不是相互對立的,兩者可以有機統(tǒng)一于智慧司法建設之中。因此,在技術設計時,應堅持輔助性原則,避免人類對于人工智能技術的過度依賴。一是對于重復性、可標準化的工作,可以更多地發(fā)揮人工智能技術在從事確定性事項方面的明顯優(yōu)勢。二是對于復雜類工作,人類需要運用自身知識對ChatGPT類生成式人工智能輸出結果加以判斷,因為該結果并不是其自身思考的結果,只是對訓練數(shù)據(jù)庫中知識的復現(xiàn)。雖然其形式上具有知識“涌現(xiàn)”的表現(xiàn),但究其實質(zhì)仍然只是對人類已有知識的加工處理。因此,對于其輸出的結果,需要遵循輔助性原則。
(三)數(shù)據(jù)規(guī)制:對服務提供者科以義務
ChatGPT類生成式人工智能技術帶來很多風險,如個人數(shù)據(jù)被過度爬取、敏感數(shù)據(jù)被泄漏、被技術中立所蒙蔽等。換言之,海量數(shù)據(jù)在賦能數(shù)字企業(yè)數(shù)據(jù)分析能力與提高用戶服務體驗的同時,也有可能導致數(shù)據(jù)壟斷,甚至降低消費者福利[37]。有鑒于此,為防范數(shù)據(jù)偏見、數(shù)據(jù)被泄漏風險,可以通過對人類反饋強化學習技術結果進行公開、對生成式人工智能提供者進行嚴格監(jiān)管等方式,對服務提供者科以義務。
一是人類反饋強化學習技術結果的公開性?!掇k法》第8條規(guī)定,在生成式人工智能技術研發(fā)過程中進行數(shù)據(jù)標注的,提供者應當制定符合本辦法要求的清晰、具體、可操作的標注規(guī)則;開展數(shù)據(jù)標注質(zhì)量評估,抽樣核驗標注內(nèi)容的準確性;對標注人員進行必要培訓,提升尊法守法意識,監(jiān)督指導標注人員規(guī)范開展標注工作。因此,對于ChatGPT類生成式人工智能進入司法場域,生成式人工智能提供者需要對數(shù)據(jù)標注工作予以監(jiān)管。具言之,可以將測試對象分為人類決策與人工智能決策兩組,如果專家團隊(實務部門+高校智庫)對于人類決策與人工智能決策無法區(qū)分,甚至對于人工智能決策給予更高的評價,那么,該數(shù)據(jù)標注工作則符合標準,人類反饋強化學習技術程序也會得到社會公眾的認可。
二是對生成式人工智能提供者科以嚴格的監(jiān)管義務。首先,《辦法》第7條對于生成式人工智能服務提供者開展預訓練、優(yōu)化訓練等訓練數(shù)據(jù)處理活動均有規(guī)定,因此,生成式人工智能服務提供者有義務確保數(shù)據(jù)的真實性,保證人工標注的準確性。其次,需要對生成式人工智能提供者予以培訓。基于司法知識圖譜的專業(yè)性,為了更好地提供司法人工智能服務,可以通過開展系列講座,對司法人工智能設計者、司法人工智能使用者進行培訓,以期降低專業(yè)壁壘。最后,確立應用系統(tǒng)的透明性原則?!兑庖姟返?條規(guī)定了透明可信原則,堅持技術研發(fā)、產(chǎn)品應用、服務運行的透明性,保障人工智能系統(tǒng)中的司法數(shù)據(jù)采集管理模式、法律語義認知過程、輔助裁判推定邏輯、司法服務互動機制等各個環(huán)節(jié)能夠以可解釋、可測試、可驗證的方式接受相關責任主體的審查、評估和備案。司法人工智能產(chǎn)品和服務投入應用時,應當以便于理解的方式說明和標識相應的功能、性能與局限,確保應用過程和結果可預期、可追溯、可信賴。對于司法人工智能系統(tǒng)的運用,需要確保訴訟參與人的知情權、質(zhì)證權與退出權。
五、結語
ChatGPT類生成式人工智能技術的完善不能一蹴而就,需要不斷克服技術痛點,方可實現(xiàn)由狹義人工智能到通用人工智能甚至是超級人工智能的迭代。ChatGPT類技術的爆火,為智慧法院建設提供了諸如審判活動智能化的可視正義、訴訟服務可及性的司法為民、公平與效率動態(tài)平衡等司法價值。ChatGPT類生成式人工智能技術在帶來上述紅利的同時,也引發(fā)了一般風險、重要風險與核心風險,因此,我們不能一味擁抱或者拋棄新技術,而是需要秉持包容審慎理念。一是對于數(shù)據(jù)“幻覺性”風險,可以通過對數(shù)據(jù)庫質(zhì)量的把控予以規(guī)制;二是對于技術壟斷的風險,應該堅持輔助審判原則與理念;三是對于數(shù)據(jù)不可控的風險,可以通過對人類反饋強化學習技術結果的公開、對生成式人工智能提供者進行嚴格監(jiān)管,以期實現(xiàn)對核心風險的規(guī)制。一言以蔽之,對司法人工智能不宜采取一攬子式發(fā)展模式,可以通過對上述三種風險的規(guī)制,遵循司法人工智能漸進式發(fā)展理念,助力于狹義人工智能向通用型人工智能甚至是超級人工智能的飛躍,以保障中國式司法智能化發(fā)展行穩(wěn)致遠。
參考文獻:
[1]DE MIGUEL BERIAIN I. Does the use of risk assessments in sentences respect the right to due process? A critical analysis of the Wisconsin v. Loomis ruling[J].Law,Probability and Risk,2018(1):45-53.
[2]SINGH J P, DESMARAIS S L, HURDUCAS C, et al. International perspectives on the practical application of violence risk assessment: A global survey of 44 countries[J].International Journal of Forensic Mental Health,2014(3):193-206.
[3]劉繼雁,陳彬,周鵬程.域外人工智能司法應用的特點[N].人民法院報,2023-08-18(8).
[4]VOLOKH E. Chief justice robots[J].Duke Law Journal,2019(6):1135-1192.
[5]ZOCHUN X. Human judges in the era of artificial intelligence: Challenges and opportunities[J].Applied Artificial Intelligence,2022(1):1026-1045.
[6]刁勝先,秦興翰.論人工智能生成數(shù)據(jù)法律保護的多元分層模式——兼評“菲林案”與“Dreamwriter案”[J].重慶郵電大學學報(社會科學版),2021(3):41-53.
[7]ZOCHUN X, YANG Z, ZHONGWEN D. The possibilities and limits of AI in Chinese judicial judgment[J].AI amp; Society,2022(37):1601-1611.
[8]瑞恩·艾伯特.理性機器人:人工智能未來法治圖景[M].張金平,周睿雋,譯.上海:上海人民出版社,2021.
[9]JOHN G I. Speculations concerning the first ultraintelligent" machine[J].Advances in Computers,1966(6):31-38.
[10]DOTY R A. Courts and artificial intelligence[J].International Journal for Court Administration,2020(2):2-10.
[11]D’AMATO A. Can/should computers replace judges?[J].Georgia Law Review,1977(11):1277-1301.
[12]馬克斯·韋伯.論經(jīng)濟與社會中的法律[M].張乃根,譯.北京:中國大百科全書出版社,1998:68.
[13]BENJAMIN C, STREMITZER A, TOBIA" K. Having your day in robot court[J].Harvard Journal of Law amp; Technology,2022(1):127-169.
[14]陳國平,田禾.中國法院信息化發(fā)展報告No.7(2023)[R].北京:社會科學文獻出版社,2023.
[15]江蘇省高級人民法院課題組.數(shù)字經(jīng)濟背景下人工智能的司法應用[J].法律適用,2023(5):144-151.
[16]VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need[EB/OL].(2017-12-4)[2023-08-26].https://dl.acm.org/doi/pdf/10.5555/3295222.3295349.
[17]王靜.ChatGPT技術嵌入智慧司法的倫理風險及其法治應對[J].上海政法學院學報(法治論叢),2023(4):43-62.
[18]SIMPSON B, MURPHY M. Technology, innovation and access to justice: Dialogues on the future of law [M].Scotland:Edinburgh University Press,2021:1.
[19]皮勇,張凌寒,張吉豫.“ChatGPT帶來的風險挑戰(zhàn)及法律應對”三人談[J].人民檢察,2023(7):37-44.
[20]盧榮婕,余為青.GPT-4生成物版權歸屬的反思與出路[N].民主與法制時報,2023-04-12(3).
[21]CARNEIRO D, NOVAIS P, ANDRADE F, et al. Online dspute resolution: An artificial intelligence perspective[J].Artificial Intelligence Review,2014(41):211-240.
[22]SOURDIN T. Judge v robot? Artificial intelligence and judicial decision-making[J].UNSW Law Journal,2018(4):1114-1133.
[23]JANE R M. Reconsidering the rule of law[J].Boston University Law Review,1989(4):781-819.
[24]REBECCA C. “Cyborg Justice” and the risk of technological-legal lock-in[J].Columbia Law Review,2019(7):233-251.
[25]胡玉鴻.警惕科技對司法的僭越[N].上海法治報,2023-03-17(B7).
[26]丁曉東.人機交互決策下的智慧司法[J].法律科學(西北政法大學學報),2023(4):58-68.
[27]馬長山.司法人工智能的重塑效應及其限度[J].法學研究,2020(4):23-40.
[28]ROZENBLIT L, KEIL F. The misunderstood limits of folk science: An illusion of explanatory depth[J].Cognitive Science,2002(5):521-562.
[29]BONEZZI A, OSTINELI M, MELZNER J. The human black-box: The illusion of understanding human better than algorithmic decision-kaking[J].Journal of Experimental Psychology: General,2022(9):2250-2258.
[30]歐文·費斯.如法所能[M].師帥,譯.北京:中國政法大學出版社,2008:93.
[31]VIGORITA M S. Judicial risk assessment: The impact of risks, stakes, and jurisdiction[J].Criminal Justice Policy Review,2003(3):361-376.
[32]KIMMEL L. ChatGPT passed the uniform bar examination: Is artificial intelligence smart enough to be a lawyer?[EB/OL].(2023-04-07)[2023-08-27].https://international-and-comparative-law-review.law.miami.edu/chatgpt-passed-the-uniform-bar-examination-is-artificial-intelligence-smart-enough-to-be-a-lawyer/.
[33]趙祚翔.ChatGPT“狂飆”背后的真正推動者[N].中國經(jīng)濟時報,2023-02-04(A4).
[34]張凌寒.深度合成治理的邏輯更新與體系迭代——ChatGPT等生成型人工智能治理的中國路徑[J].法律科學(西北政法大學學報),2023(3):38-51.
[35]劉艷紅.生成式人工智能的三大安全風險及法律規(guī)制——以ChatGPT為例[J].東方法學,2023(4):29-43.
[36]郭春鎮(zhèn).生成式AI的融貫性法律治理——以生成式預訓練模型(GPT)為例[J].現(xiàn)代法學,2023(3):88-107.
[37]任超,李雅瑜.數(shù)字經(jīng)濟時代數(shù)據(jù)隱私的反壟斷保護:理論證成、適用困境及破解之道[J].重慶郵電大學學報(社會科學版),2023(4):65-75.
ChatGPT-enabled smart court construction: Opportunities, challenges, and regulations
Abstract:
ChatGPT-like generative AI can achieve multiple technical empowerments with the support of massive data, high-quality algorithms, and powerful computing power. However, whether ChatGPT-like generative AI can be applied to the field of smart justice and to what extent it can be embedded, especially the boundaries of this technology in empowering the construction of smart courts, are important prerequisites for the deep construction of smart courts. ChatGPT-like generative AI technology can promote the realization of visual justice through the intelligent application of trial activities; realize the concept of justice for the people through the accessibility of litigation services; and achieve the goal of active justice through the dynamic balance of fairness and efficiency. However, while ChatGPT-like generative AI brings many technological dividends, it also raises a series of new risks, which can be specifically divided into general risks caused by the illusion of data, important risks caused by technological monopoly, and core risks caused by uncontrollable data. For these risks, corresponding regulatory paths should be adopted according to different levels of risk: data illusion regulation can be achieved through the standardized construction of training databases, technical regulation can be achieved through the injection of auxiliary principles, and data regulation can be achieved by imposing obligations on service providers to achieve uncontrollable data. That is, using data illusion regulation, technical regulation, and data regulation to prevent general risks, important risks, and core risks in the embedding of ChatGPT-like generative AI technology, with a view to minimizing the risks and maximizing the technical empowerment in the construction of smart courts, and ultimately achieving high-quality empowerment of smart courts with this technology.
Keywords:
ChatGPT; generative artificial intelligence; artificial intelligence justice; smart court