王 文 玉
(重慶大學(xué) 法學(xué)院, 重慶 400044)
以布坎南與亨德里克于1970年發(fā)表的《關(guān)于人工智能和法律推理若干問(wèn)題的考察》一文為起點(diǎn),司法人工智能的相關(guān)問(wèn)題開始進(jìn)入人們視野。近年來(lái)隨著大數(shù)據(jù)、云計(jì)算、語(yǔ)音視覺(jué)識(shí)別等技術(shù)的突破,掀起了司法人工智能應(yīng)用和研究的熱潮。對(duì)此,我國(guó)官方及時(shí)出臺(tái)了一系列文件和政策,以積極推動(dòng)人工智能技術(shù)和司法應(yīng)用實(shí)踐的深度結(jié)合。如2017年國(guó)務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》明確提出要加快智慧法庭建設(shè),實(shí)現(xiàn)法院審判體系和審判能力的智能化。2019年最高人民法院發(fā)布的《人民法院第五個(gè)五年改革綱要(2019—2023)》指出:要堅(jiān)持強(qiáng)化科技驅(qū)動(dòng),全面建設(shè)智慧法院,推動(dòng)司法改革與智能化、信息化建設(shè)兩翼齊發(fā)。與此同時(shí),學(xué)界也開始對(duì)司法人工智能的可能空間與內(nèi)在限度展開探討。然而,在對(duì)司法人工智能的前景展開討論時(shí),大多數(shù)學(xué)者或者過(guò)于消極地認(rèn)為司法人工智能只能起到輔助改善法官?zèng)Q策的作用,或者過(guò)于激進(jìn)地認(rèn)為司法人工智能將全面取代人類法官展開司法裁判工作。其原因在于多數(shù)學(xué)者僅從宏觀性、一般性角度對(duì)司法領(lǐng)域的人機(jī)共處模式展開原則性和展望性的討論,而沒(méi)有立基于司法的獨(dú)特需求以及司法人工智能的實(shí)際應(yīng)用經(jīng)驗(yàn)等具體、微觀層面展開細(xì)致的分析和探討。因而本文將以司法人工智能的應(yīng)用現(xiàn)狀為出發(fā)點(diǎn),以司法裁判的正義性追求為立足點(diǎn),對(duì)司法人工智能的可能空間和內(nèi)在限度展開梳理和評(píng)析。
依照控制論的觀點(diǎn),只要一種工具或技術(shù)能夠在某一領(lǐng)域代替人類的思考或勞動(dòng),就可以稱之為人工智能。如尼爾斯·尼爾森將人工智能定義為能夠在相對(duì)復(fù)雜的環(huán)境中展開自主感知、學(xué)習(xí)、推理、決策的機(jī)器或系統(tǒng)。是否能夠完成人類所做之事甚至比人類做得更好是界定人工智能的核心標(biāo)準(zhǔn)之一[1]。由此,本文所討論的司法人工智能便是指那些能夠在司法領(lǐng)域替代人類法官展開司法活動(dòng)的機(jī)器或者系統(tǒng)。可以看出,本文所指稱的司法人工智能是一種廣義上的、涵攝面更為寬泛的概念,“在司法領(lǐng)域中以網(wǎng)絡(luò)化、數(shù)字化和智能化融合驅(qū)動(dòng)為基礎(chǔ)的人工智能技術(shù)應(yīng)用”[2]都可歸屬此類。當(dāng)前,大量的人工智能法律系統(tǒng)開始進(jìn)入司法領(lǐng)域替代或幫助法官展開裁判工作,而且這已成為了一種無(wú)法阻擋的趨勢(shì)和潮流。因而有學(xué)者就認(rèn)為:“如若人工智能能夠得出超出人類法官的更具可接受性和說(shuō)服力的裁判文書,那么無(wú)論是可靠性還是成本效益都優(yōu)于人類的人工智能就應(yīng)當(dāng)被視作法官?!盵3]這樣的觀點(diǎn)是立基于當(dāng)前司法人工智能所表現(xiàn)出的高效性和可靠性之上的,可靠性則集中表現(xiàn)為司法人工智能可以保障同案同判、提升裁判理性、堅(jiān)持客觀中立的立場(chǎng)。
其一,與人類法官相比,司法人工智能提供了一種更加高效和便捷的裁判方式。當(dāng)前“訴訟爆炸”所帶來(lái)的案多人少的矛盾既增大了當(dāng)事人訴訟的時(shí)間、經(jīng)濟(jì)成本,也加大了法官的裁判壓力,最終有損于司法公信力的建構(gòu)。為此,我國(guó)積極推動(dòng)了一系列變革方案,如案件繁簡(jiǎn)分流制的改革、訴源治理的探索、專業(yè)化審判團(tuán)隊(duì)的建設(shè),等等。然而,這些方案本質(zhì)上仍然是通過(guò)深挖現(xiàn)有制度潛力的方式以減少案件數(shù)量、提升審判效率的,因而未能從根本上化解案多人少的矛盾。司法人工智能則能夠憑借其在存儲(chǔ)、算法和算力上的優(yōu)勢(shì),借助標(biāo)準(zhǔn)化、自動(dòng)化、流程化等特點(diǎn),為司法裁判提供一種變革性的、更具增值力和經(jīng)濟(jì)性的生產(chǎn)工具,從而有助于從根本上化解案多人少的司法困境。
從當(dāng)前的實(shí)踐經(jīng)驗(yàn)來(lái)看,司法人工智能能夠在以下幾個(gè)方面提升司法審判的效率:首先,司法人工智能在自助立案、在線審判、電子送達(dá)等方面擺脫了原有司法審判所受的時(shí)空限制,能夠有效推動(dòng)審理流程的便捷化和自動(dòng)化。如上海市浦東法院開發(fā)的二維碼自主立案系統(tǒng),將平均立案時(shí)間減少到只有15分鐘,為傳統(tǒng)立案方式所耗費(fèi)時(shí)間的三分之一左右[4]。其次,司法人工智能的高效還體現(xiàn)在電子數(shù)據(jù)的生成和審查方面。如通過(guò)文字、聲音、圖像識(shí)別技術(shù),人工智能能夠有效縮短庭審記錄時(shí)間。實(shí)踐中,蘇州中院運(yùn)行的庭審語(yǔ)音識(shí)別系統(tǒng)就將庭審時(shí)間縮短了20%~30%,甚至在一些疑難復(fù)雜案件中,可以縮短50%以上[5]。最后,在裁判文書的生成和制作方面,司法人工智能通過(guò)對(duì)電子卷宗要素的分解和結(jié)構(gòu)化管理,依照知識(shí)圖譜和深度學(xué)習(xí)建構(gòu)的知識(shí)鏈條,能夠自動(dòng)對(duì)全案數(shù)據(jù)要素展開分析、引證、歸納、組合,從而以要素或圖表的方式完成裁判文書的生成。雖然當(dāng)前裁判文書的生成和制作還需要人工的介入,但就實(shí)踐效果來(lái)看,人工智能已經(jīng)在縮短文書制作時(shí)間方面取得了良好的效果。如海南法院在量刑規(guī)范化案件中所使用的量刑規(guī)范化智能輔助系統(tǒng),可以大幅縮短裁判文書的制作時(shí)間,在一些程序性案件中,更是能將相關(guān)裁判文書制作時(shí)間縮短將近90%[6]。
其二,司法人工智能能夠充分保障同案同判司法目標(biāo)的實(shí)現(xiàn)。作為裁判正義核心內(nèi)涵的同案同判原則,既關(guān)系到司法裁判的合法性、正當(dāng)性及社會(huì)認(rèn)同性,也關(guān)系到能否通過(guò)司法裁判向社會(huì)輸出明確的是非行為規(guī)則信號(hào),推動(dòng)社會(huì)行為的規(guī)范化。司法人工智能以先例為訓(xùn)練的數(shù)據(jù)集合,通過(guò)發(fā)掘先例中的自變量(如主體身份、行為類型、損害后果)與因變量(如責(zé)任劃分、賠償數(shù)額、量刑期限等)之間的相關(guān)關(guān)系,從而建構(gòu)相應(yīng)的算法模型,對(duì)待決案件作出裁判[7]。這種算法模型的建構(gòu)保障了當(dāng)類似案件信息被輸入司法人工智能之后,其可以自動(dòng)根據(jù)依照先例所建構(gòu)的知識(shí)圖譜而關(guān)聯(lián)相應(yīng)的裁判知識(shí)鏈條,從而為克服同案不同判的頑疾提供了全新的路徑。
雖然當(dāng)前人工智能還未真正全面介入到司法決策之中,但諸如類案推送系統(tǒng)、量刑輔助系統(tǒng)、裁判偏離預(yù)警系統(tǒng)等人工智能法律系統(tǒng)在輔助保障和監(jiān)督法官遵循同案同判原則方面已經(jīng)取得了顯著效果。如貴州法院建立的辦案系統(tǒng)通過(guò)發(fā)掘先例中的標(biāo)準(zhǔn)值為比對(duì)指標(biāo),當(dāng)法官的裁判與那些標(biāo)準(zhǔn)值偏離過(guò)大時(shí)便會(huì)發(fā)出預(yù)警,從而提醒法官、合議庭及時(shí)主動(dòng)自查,同時(shí)院長(zhǎng)、庭長(zhǎng)、審執(zhí)團(tuán)隊(duì)負(fù)責(zé)人也可展開相關(guān)審查[8]。正是認(rèn)識(shí)到人工智能在保障法律統(tǒng)一適用中的作用,最高人民法院發(fā)布的《關(guān)于統(tǒng)一法律適用加強(qiáng)類案檢索的指導(dǎo)意見(試行)》《關(guān)于完善統(tǒng)一法律適用標(biāo)準(zhǔn)工作機(jī)制的意見》等都強(qiáng)調(diào)了應(yīng)當(dāng)進(jìn)一步加強(qiáng)司法大數(shù)據(jù)管理平臺(tái)、類案檢索推送系統(tǒng)、裁判偏離預(yù)警系統(tǒng)等的建設(shè),從而充分發(fā)揮人工智能在保障實(shí)現(xiàn)同案同判司法目標(biāo)中的積極作用。
其三,相較于人類法官,司法人工智能的決策立場(chǎng)更加中立和客觀,從而能夠有效避免人類法官?zèng)Q策的偏見性或肆意性風(fēng)險(xiǎn)。與以往不同,當(dāng)前人工智能通過(guò)神經(jīng)網(wǎng)絡(luò)技術(shù),使算法擁有了深度學(xué)習(xí)、自主學(xué)習(xí)、自動(dòng)迭代等特性,能夠直接對(duì)司法原始數(shù)據(jù)要素予以解構(gòu)、重組,發(fā)掘其中的關(guān)聯(lián)意義,并以此為基礎(chǔ)展開決策。這就將人情、“關(guān)系”等不當(dāng)案外因素排除于司法決策的過(guò)程之外,從而保障了決策的中立性和客觀性。對(duì)此,有學(xué)者就指出:“只要是同類相關(guān)的爭(zhēng)議都以同一的算法解決,因而司法人工智能能夠防范和消除人類法官出于對(duì)‘好法官或具有人情味的法官’的名聲的追求而任意裁斷的風(fēng)險(xiǎn)”[9]。在實(shí)踐中,司法人工智能的中立性和客觀性也受到了肯定。如面對(duì)盧米斯以法院運(yùn)用COMPAS對(duì)其量刑有違正當(dāng)性程序?yàn)橛商岢鲈V求時(shí),美國(guó)威斯康星州最高法院法官就指出:“COMPAS系統(tǒng)依照獨(dú)立子項(xiàng)和復(fù)雜算法得出的關(guān)于風(fēng)險(xiǎn)評(píng)估和量刑的1~10級(jí)的級(jí)別評(píng)定,具有中立性和客觀性,因而是符合程序正義要求的”[10]。
其四,司法人工智能還能夠基于法官群體的普遍經(jīng)驗(yàn)而作出更具穩(wěn)定性和可預(yù)測(cè)性的判決。判決的穩(wěn)定性和可預(yù)測(cè)性直接關(guān)系到裁判的公正性、社會(huì)可接受性以及通過(guò)司法裁判有效凝聚社會(huì)法治共識(shí)目標(biāo)的實(shí)現(xiàn)[11]。受益于存儲(chǔ)能力、算法和算力的優(yōu)勢(shì),司法人工智能能夠通過(guò)匯總、分析、歸類、索引等方式更加全面地掌握法律法規(guī)、裁判文書等司法數(shù)據(jù),從而擁有比法官更寬廣的視野邊界和更周全、穩(wěn)妥、融貫的裁判思維。一方面,司法人工智能的決策是以全量信息為基礎(chǔ)的,其不但在信息總量的掌握上,而且在信息規(guī)律的發(fā)掘和整理上,擁有超越人類法官的能力。這就保障了司法人工智能的決策更具全面性和理性化。另一方面,即使是在面對(duì)新型、復(fù)雜、疑難案件時(shí),司法人工智能的決策也是基于法官集體經(jīng)驗(yàn)和平均理性而展開的,相對(duì)于個(gè)別法官依照直覺(jué)或臆想而作出的裁決,其無(wú)疑更具穩(wěn)定性和可預(yù)測(cè)性[12]。
在具體實(shí)踐中,人工智能法律系統(tǒng)已經(jīng)展現(xiàn)出了優(yōu)于法律專家的裁判預(yù)測(cè)準(zhǔn)確率,如美國(guó)伊利諾伊理工大學(xué)和南德克薩斯法學(xué)院合作開發(fā)了一種算法,通過(guò)對(duì)1791—2015年美國(guó)最高法院數(shù)據(jù)庫(kù)的學(xué)習(xí)之后,研究人員將其用于對(duì)1816—2015年美國(guó)最高法院法官的28 000項(xiàng)決定和240 000次投票的預(yù)測(cè)中,相較于法學(xué)專家66%的正確率,其以70.2%和 71.9%的準(zhǔn)確率獲勝[13]。優(yōu)于人類法官的預(yù)測(cè)準(zhǔn)確性意味著司法人工智能的決策已經(jīng)擁有了更加穩(wěn)定和理性的特質(zhì),最終將有助于提升司法裁判的確定性和司法整體的公信力。
雖然司法人工智能表現(xiàn)出了優(yōu)于人類法官的諸多特質(zhì),但顯然,司法人工智能并不是完美無(wú)缺的,其在司法領(lǐng)域的全面應(yīng)用仍然面臨著諸多技術(shù)上的困境、價(jià)值上的挑戰(zhàn)、法治上的難題。只有客觀、全面地看待司法人工智能的內(nèi)在限度,才有助于我們更加理性化地探討司法人工智能發(fā)展的可能前景與努力方向。
首先,司法人工智能的優(yōu)勢(shì)在于其是對(duì)全量司法數(shù)據(jù)深度學(xué)習(xí)基礎(chǔ)之上所建構(gòu)的裁判決策模型,因而司法數(shù)據(jù)的全面性、完整性、準(zhǔn)確性關(guān)系到司法人工智能決策的可靠性。目前,絕大多數(shù)人工智能法律系統(tǒng)都是以裁判文書作為數(shù)據(jù)學(xué)習(xí)來(lái)源的,但無(wú)論是裁判文書的數(shù)量還是質(zhì)量都無(wú)法滿足司法人工智能所要求的全面且優(yōu)質(zhì)的標(biāo)準(zhǔn)。如我國(guó)雖然已經(jīng)建立起了全世界規(guī)模最大的裁判文書數(shù)據(jù)庫(kù),并收錄了超過(guò)一億份的裁判文書,但從數(shù)量上看,這些已公布的裁判文書可能僅占已審結(jié)案件數(shù)量的50%左右[14]。從質(zhì)量上看,由于裁判文書公開規(guī)定模糊、監(jiān)督制度不完善以及法院人力資源不足等原因,存在著選擇性公開、已公開的文書質(zhì)量參差不齊,甚至存在一句話文書、重復(fù)公開文書等情形[15]。此外,已經(jīng)公開的司法數(shù)據(jù)并不能完全反映司法審判的全貌,例如當(dāng)事人與法官之間的交流溝通、獨(dú)特的地域風(fēng)俗習(xí)慣、審委會(huì)的討論等等都是無(wú)法通過(guò)數(shù)據(jù)化方式展現(xiàn)的,這也就決定了司法人工智能所習(xí)得的數(shù)據(jù)是有局限性的片段化數(shù)據(jù),從而會(huì)進(jìn)一步影響其決策的科學(xué)性和可靠性。
其次,司法人工智能無(wú)法擺脫算法黑箱的困境,這與司法正義所要求的司法的公開性、透明性相沖突。詹娜·布瑞爾總結(jié)了造成算法黑箱的三種原因:一是由于算法關(guān)涉國(guó)家或商業(yè)秘密而出現(xiàn)的“有意的不透明”。二是由于對(duì)技術(shù)了解能力和程度的不同而產(chǎn)生的“技術(shù)文義上的不透明”。三是因算法本身的復(fù)雜、先進(jìn)性而造成的“固有的不透明”[16]。以上三種原因同樣也是造成司法人工智能算法缺乏透明性的因素:其一,當(dāng)前多數(shù)人工智能法律系統(tǒng)都是采取外包給相關(guān)技術(shù)公司的方式建構(gòu)的,出于對(duì)自身商業(yè)利益的考慮,其往往并不愿意甚至?xí)?qiáng)烈抵制相關(guān)算法的公開。典型的如在2018年美國(guó)紐約出臺(tái)了《自動(dòng)化決策特別工作組法》,希望全面監(jiān)管政府所應(yīng)用的諸多算法。然而這一法案卻遭到了諸多科技公司的強(qiáng)烈抵制,他們以商業(yè)秘密保護(hù)為由迫使法案不得不將和披露算法相關(guān)的規(guī)定全部取消[17]。其二,越是高效和精確的司法人工智能算法便需要越多先進(jìn)技術(shù)和復(fù)雜原理的支撐,算法知識(shí)的專業(yè)性無(wú)形中為普通人了解其運(yùn)轉(zhuǎn)原理設(shè)置了難以逾越的屏障。絕大多數(shù)沒(méi)有計(jì)算機(jī)知識(shí)背景的法官或訴訟參與人都是無(wú)法掌握和理解其設(shè)計(jì)和運(yùn)轉(zhuǎn)機(jī)理的。其三,人工智能算法的復(fù)雜之處還在于其擁有著隱藏性的自我學(xué)習(xí)、自我編程、自我更新迭代的能力,同時(shí)也可以輕松地對(duì)萬(wàn)維以上的函數(shù)進(jìn)行擬合。在經(jīng)歷了一段時(shí)間的應(yīng)用之后,即便是算法設(shè)計(jì)人員也無(wú)法對(duì)司法人工智能決策背后的算法邏輯作出準(zhǔn)確解釋。
最后,司法人工智能的主流算法多是以知識(shí)圖譜和深度學(xué)習(xí)相結(jié)合的方式建立的,在這種以知識(shí)圖譜為基礎(chǔ)的半監(jiān)督學(xué)習(xí)方式中,數(shù)據(jù)和模型的精細(xì)化程度直接關(guān)系到司法人工智能決策的準(zhǔn)確性[18]。然而知識(shí)圖譜的繪制并不是自動(dòng)的,需要大量法律專業(yè)人員對(duì)法律規(guī)范以及案件構(gòu)成的相關(guān)節(jié)點(diǎn)予以歸納、總結(jié),并打上明確的標(biāo)簽,從而為機(jī)器深度學(xué)習(xí)提供可靠的數(shù)據(jù)集合。此外,由于裁判文書數(shù)據(jù)信息的不客觀、不真實(shí)、不全面,法律術(shù)語(yǔ)的不統(tǒng)一,司法數(shù)據(jù)結(jié)構(gòu)化水平不足等問(wèn)題,對(duì)相關(guān)數(shù)據(jù)的清洗、挖掘、結(jié)構(gòu)化改造等工作也需要大量人工的介入。因而,就當(dāng)前的實(shí)踐來(lái)看,在司法人工智能領(lǐng)域,“有多少人工方能產(chǎn)出多少智能”“有多少優(yōu)秀人工才能帶來(lái)多少優(yōu)秀智能”[19]。這也就意味著司法人工智能的建設(shè)需要長(zhǎng)期和大量的人力、物力、財(cái)力投入。這一點(diǎn)從上海的智能辦案輔助系統(tǒng)僅從6大類8個(gè)民商事、行政案由的5 800余份卷宗中,就標(biāo)注了12萬(wàn)個(gè)標(biāo)注點(diǎn)的實(shí)例中可見一斑[20]。另外,由于人文社科領(lǐng)域的主觀性和不確定性,當(dāng)司法人工智能裁判準(zhǔn)確率達(dá)到一定程度之后,少許的提升就需要呈幾何倍的投入增長(zhǎng)。在司法人工智能的可靠性、高效性并未完全釋放且應(yīng)用前景并不明朗的情形下,長(zhǎng)期的高投入將考驗(yàn)著我們對(duì)司法人工智能技術(shù)發(fā)展和運(yùn)用的耐心和信心。
其一,司法人工智能決策無(wú)法避免價(jià)值偏見的風(fēng)險(xiǎn)。雖然表面上看,司法人工智能裁判能夠避免人類法官先入為主的價(jià)值偏見,但事實(shí)上,司法人工智能本身并沒(méi)有我們想像的那么中立和客觀。一方面,司法人工智能是在深度挖掘和學(xué)習(xí)先前司法裁判經(jīng)驗(yàn)與數(shù)據(jù)的基礎(chǔ)上展開裁判預(yù)測(cè)工作的。在“GIGO(garbage in,garbage out)定律”支配下,司法人工智能在習(xí)得先前法官裁判經(jīng)驗(yàn)的同時(shí),自然也會(huì)習(xí)得先例中所蘊(yùn)含的法官的價(jià)值偏見,也即“偏見進(jìn),則偏見出(bias in,bias out)”[21]。另一方面,由于法院技術(shù)能力的有限,多數(shù)人工智能法律系統(tǒng)都是通過(guò)外包給技術(shù)公司的方式建構(gòu)的。技術(shù)人員自身原有的價(jià)值偏見或出于對(duì)自身利益維護(hù)而產(chǎn)生的偏見等便有可能被寫入司法人工智能算法中。加之算法黑箱和技術(shù)壁壘的存在,這些難以被發(fā)現(xiàn)和糾正的價(jià)值偏見便有被司法人工智能持續(xù)大規(guī)模運(yùn)用于案件裁判中的風(fēng)險(xiǎn)。如美國(guó)非政府組織Propublica在對(duì)COMPAS系統(tǒng)的調(diào)查測(cè)試中就發(fā)現(xiàn),這一系統(tǒng)對(duì)待黑人的重復(fù)犯罪預(yù)測(cè)率幾乎是白人的兩倍,但實(shí)際數(shù)據(jù)表明,其所作的預(yù)測(cè)中只有20%的黑人會(huì)繼續(xù)犯罪[22]。
其二,司法人工智能無(wú)法及時(shí)根據(jù)案情或社會(huì)發(fā)展需求而展開合理的裁量或適當(dāng)發(fā)展、創(chuàng)制新的規(guī)則。司法裁判并不僅僅是簡(jiǎn)單地將法律與案件事實(shí)相結(jié)合的過(guò)程,無(wú)論是對(duì)事實(shí)的認(rèn)定還是對(duì)相關(guān)法律的理解,往往都需要裁決者發(fā)揮一定的主觀能動(dòng)性展開適當(dāng)?shù)牟昧?。此?在司法嵌入社會(huì)治理的背景下,裁決者還需要考量政治、經(jīng)濟(jì)、文化、社會(huì)心理等諸多因素,從而充分發(fā)揮司法裁判的溢出性效用,以契合與引領(lǐng)時(shí)代價(jià)值觀念和正義理念。然而以“無(wú)須滿足任何更多的條件即可生成‘是’與‘否’的二元選項(xiàng)代碼”[23]為自動(dòng)化決策基礎(chǔ)的司法人工智能雖將人情、關(guān)系、金錢等不正當(dāng)因素排除于審判決策過(guò)程之外,但同時(shí)意味著司法人工智能并不具備展開價(jià)值判斷和規(guī)則創(chuàng)新的能力。這就將司法人工智能的應(yīng)用領(lǐng)域限縮在了那些知識(shí)需求單一且特定、是非對(duì)錯(cuò)明晰、潛在模式簡(jiǎn)易可辨的場(chǎng)景之中[24]。此外,從倫理上來(lái)看,讓司法人工智能展開自主的價(jià)值衡量和規(guī)則創(chuàng)新也是人類需要警惕和遏制的。這是因?yàn)橐坏┧痉ㄈ斯ぶ悄苣軌蛱娲祟愓归_價(jià)值衡量,并為人類創(chuàng)設(shè)行為規(guī)則,那么人類的主體性地位將受到挑戰(zhàn),隨之而來(lái)的便是淪為人工智能附庸的風(fēng)險(xiǎn)[25]。
首先,司法人工智能的應(yīng)用可能會(huì)帶來(lái)司法被技術(shù)俘獲、法官被算法馴服的風(fēng)險(xiǎn)。有研究就表明,人類一般更傾向于選擇信任機(jī)器,甚至是處于緊急狀況下,人類也可能會(huì)對(duì)機(jī)器給予過(guò)度的信任[26]。因而即便在司法人工智能只是輔助法官展開裁判工作的情形下,受從眾效應(yīng)、規(guī)避責(zé)任風(fēng)險(xiǎn)等因素的影響,法官也往往更加傾向于采取司法人工智能的決策結(jié)論,而盡量避免自主性的決斷。如若司法人工智能主導(dǎo)了司法裁判,那么真正決定裁判結(jié)果的將不再是法官和司法制度,而是創(chuàng)制算法的技術(shù)公司和技術(shù)人員。這將和審判權(quán)獨(dú)占原則產(chǎn)生沖突,并引發(fā)外包科技公司不當(dāng)介入司法實(shí)踐的風(fēng)險(xiǎn)。
其次,類似于自動(dòng)售貨機(jī)的司法人工智能剝奪了當(dāng)事人全程和深度參與訴訟過(guò)程的機(jī)會(huì),并且其還無(wú)法提供決策的論證理由,這些因素影響了司法人工智能決策的可信賴和可接受性。有學(xué)者通過(guò)研究就發(fā)現(xiàn),在決定程序是否正義的相關(guān)因素中,過(guò)程控制和可信度要排在中立性之前[27]。也即當(dāng)事人的意見能否在審判程序中得以充分表達(dá)、當(dāng)事人在審判程序中是否得到尊重也是影響裁判結(jié)論可接受性的重要因素。然而司法人工智能在這些方面卻是無(wú)能為力的:“當(dāng)事人永遠(yuǎn)無(wú)法感知其與決策者之間的個(gè)人聯(lián)系,并且隨著技術(shù)的進(jìn)步,人工智能將對(duì)司法決策產(chǎn)生更大的影響力,但這同時(shí)也意味著當(dāng)事人所能感覺(jué)到的過(guò)程控制將會(huì)大幅降低,從而最終有損于司法決策的可信賴性?!盵28]司法人工智能決策形式的出現(xiàn)便意味著原有遞進(jìn)式的訴訟程序被階段化的機(jī)器論斷取代,當(dāng)事人也將失去通過(guò)溝通和辯論不斷修正和深入表達(dá)意見、通過(guò)全面參與訴訟感知決策者對(duì)不同利益訴求和價(jià)值判斷兼容并蓄的中立態(tài)度的機(jī)會(huì)。
最后,司法人工智能決策還帶來(lái)了司法責(zé)任分配的困境。當(dāng)前,人工智能的責(zé)任主體地位、責(zé)任分配方式等都是極富爭(zhēng)議的問(wèn)題。審判主體的多元化、錯(cuò)案標(biāo)準(zhǔn)的復(fù)雜性、追責(zé)方式的模糊性等因素更是使得人工智能在司法領(lǐng)域的責(zé)任分配問(wèn)題面臨著多重挑戰(zhàn):其一,由于對(duì)司法人工智能是法官的“替身”還是“助手”的角色定位上存在爭(zhēng)議,能否將司法人工智能當(dāng)作法律上的擔(dān)責(zé)主體一直未有定論。即便是對(duì)還在猜想之中的強(qiáng)人工智能,也有諸多學(xué)者堅(jiān)持否定其法律主體地位的觀點(diǎn)[29]。其二,在現(xiàn)有錯(cuò)案標(biāo)準(zhǔn)模糊、司法追責(zé)制度運(yùn)行不暢的背景下,司法人工智能斷案的追責(zé)條件以及追責(zé)方式的建構(gòu)也面臨著較大的挑戰(zhàn)。其三,司法人工智能的出現(xiàn)還挑戰(zhàn)了原有的“讓審理者裁判,讓裁判者負(fù)責(zé)”的責(zé)任分配原則。在責(zé)任的承擔(dān)方式上,是由司法人工智能擔(dān)責(zé)還是由法院、政府擔(dān)責(zé)抑或由科技公司擔(dān)責(zé)也存在一定的爭(zhēng)議。
綜上,基于對(duì)司法人工智能在技術(shù)、價(jià)值以及法治上的缺陷的反思,就有學(xué)者認(rèn)為,在司法領(lǐng)域,人工智能只能作為法官的“助手”而存在,其無(wú)法展開自由裁量工作,也無(wú)法自主思考,只是一種更為高級(jí)的輔助提升司法效率和公正性的工具。如巴赫曼等人就指出:“包括證據(jù)審查、裁判偏離預(yù)警、文書糾錯(cuò)等,都只能承擔(dān)法官?zèng)Q策的輔助工作。對(duì)于關(guān)鍵問(wèn)題,還是要由法官來(lái)?yè)?dān)任最終的決策者?!盵30]
通過(guò)上文對(duì)司法人工智能的可能空間與內(nèi)在限度的分析,我們便可以較為全面和理性地看待司法人工智能的發(fā)展前景:如何充分發(fā)揮司法人工智能在提升司法公正性和效率性上的優(yōu)勢(shì)的同時(shí),最大限度克服司法人工智能的技術(shù)缺陷、倫理困境等難題。
對(duì)司法人工智能發(fā)展前景展開探討時(shí),我們首先便需要明確司法領(lǐng)域內(nèi)的人機(jī)關(guān)系。顯然,單純地將司法人工智能視為法官的“助手”或“替身”的觀點(diǎn)都存在一定的片面性。當(dāng)前學(xué)界較為一致的觀點(diǎn)是將事務(wù)性工作交由司法人工智能承擔(dān),而將疑難復(fù)雜案件交由法官裁決[31]。其主要爭(zhēng)議點(diǎn)在于司法人工智能是否能夠裁決簡(jiǎn)單案件這一問(wèn)題上[32],對(duì)此,本文持肯定意見。其理由主要有以下幾點(diǎn)。
其一,將簡(jiǎn)單案件交由司法人工智能處理具有技術(shù)上的可行性。有學(xué)者指出:“之所以人們對(duì)人工智能在司法領(lǐng)域的應(yīng)用有著高漲的熱情,是因?yàn)樽鳛樗痉ú门袑?duì)象的案件相對(duì)明晰,作為裁判前提的事實(shí)和法律規(guī)則具有明確性,而且需要得出的結(jié)論也是確定的。這些特性契合了人工智能的形式邏輯內(nèi)核,自然成為人工智能研究的最佳樣本和理想對(duì)象?!盵33]將這一論斷適用于所有類型的案件顯得有失偏頗,但將其應(yīng)用到簡(jiǎn)單案件之中則相對(duì)合適。對(duì)于簡(jiǎn)單案件的裁決而言,其避開了事實(shí)認(rèn)定中復(fù)雜的證據(jù)推理,以及需要發(fā)揮主觀能動(dòng)性的法律解釋過(guò)程,從而為司法人工智能提供了較為清晰、明確的適用對(duì)象和前提。人工智能法律系統(tǒng)只需依照結(jié)構(gòu)化的知識(shí)圖譜將類案予以關(guān)聯(lián),并“對(duì)號(hào)入座”適用法律得出裁判結(jié)論即可。當(dāng)前已經(jīng)有實(shí)踐表明,司法人工智能在一些可類型化的簡(jiǎn)單案件中替代人類法官展開審判工作具有技術(shù)上的可行性。如2019年12月,杭州互聯(lián)網(wǎng)法院就將區(qū)塊鏈智能合約技術(shù)應(yīng)用于“深圳某企業(yè)訴被告高某網(wǎng)絡(luò)購(gòu)物合同糾紛案”中,在國(guó)內(nèi)首次嘗試并實(shí)現(xiàn)了全程“無(wú)人工干預(yù)、無(wú)外部因素干擾”的司法人工智能斷案[34]。
其二,簡(jiǎn)單案件交由司法人工智能處理,并沒(méi)有否定人類法官的主導(dǎo)性地位。簡(jiǎn)單案件之所以簡(jiǎn)單,在于案件事實(shí)和法律規(guī)定都是明確的,因而決策者只需要依照法律和案件事實(shí)為糾紛提供一個(gè)明確的裁決結(jié)論即可。而能夠體現(xiàn)人類法官主導(dǎo)性地位的則往往是那些需要法官展開價(jià)值判斷或者創(chuàng)設(shè)新規(guī)則的疑難、復(fù)雜案件。從根本上而言,司法人工智能處理簡(jiǎn)單案件只是在重復(fù)人類法官的經(jīng)驗(yàn),而將疑難、復(fù)雜案件交由人類法官裁決則保障了人類法官對(duì)經(jīng)驗(yàn)創(chuàng)制的主導(dǎo)地位。只要價(jià)值判斷以及規(guī)則創(chuàng)制的權(quán)力還掌握在法官手中,我們便不能斷言司法人工智能會(huì)危及到人類法官在司法中的主導(dǎo)性地位。
其三,在科學(xué)技術(shù)進(jìn)入到“自反性科學(xué)化”階段之后,我們還需要對(duì)科學(xué)“自我招致”的錯(cuò)誤和風(fēng)險(xiǎn)的界定與分配問(wèn)題予以足夠重視[35]。成本—收益分析法無(wú)疑是當(dāng)前幫助我們思考如何正確處理科技與風(fēng)險(xiǎn)之間關(guān)系的最基本方法。對(duì)于司法人工智能而言,將其應(yīng)用于簡(jiǎn)單案件的風(fēng)險(xiǎn)在于可能會(huì)出現(xiàn)大規(guī)模錯(cuò)判、誤判的后果,但由于簡(jiǎn)單案件有著明晰的案件事實(shí)和明確的法律規(guī)定,因而發(fā)現(xiàn)以及糾正錯(cuò)判的成本往往很低,只需在法院建立相應(yīng)的算法審查機(jī)構(gòu),及時(shí)、隨機(jī)地對(duì)人工智能算法展開審查并積極受理當(dāng)事人的申訴意見即可。然而,其收益則是相當(dāng)可觀的:如李少平大法官所言,在訴訟上存在“二八定律”,簡(jiǎn)單案件占到了將近80%[36],將這些案件交由司法人工智能處理也就意味著大量削減了法官審理案件的數(shù)量,進(jìn)而將會(huì)節(jié)省法院大量的人力、物力支出。與此同時(shí),法官也可以將更多精力投入到疑難、復(fù)雜案件的審判之中,進(jìn)而促進(jìn)裁判質(zhì)量、司法權(quán)威和公信力的提升。
算法是司法人工智能系統(tǒng)運(yùn)作的核心,因而有效應(yīng)對(duì)算法黑箱、算法歧視、算法漏洞等算法規(guī)制難題,是實(shí)現(xiàn)司法人工智能決策正當(dāng)性和可靠性的基礎(chǔ)和前提。結(jié)合現(xiàn)有研究成果以及司法人工智能本身的司法特質(zhì),本文認(rèn)為可以從以下幾個(gè)方面應(yīng)對(duì)司法人工智能所面臨的算法難題。
其一,建立完善的案例篩選機(jī)制,從而為算法提供優(yōu)良的數(shù)據(jù)學(xué)習(xí)集合。首先,由于司法人工智能決策主要集中于類型化的簡(jiǎn)單案件,因而可以借助現(xiàn)有的案例指導(dǎo)制度、優(yōu)秀案例評(píng)選制度等選擇出優(yōu)質(zhì)的相關(guān)案件作為司法人工智能法律系統(tǒng)建模的基礎(chǔ)數(shù)據(jù)來(lái)源。其次,我們還需要進(jìn)一步完善現(xiàn)有的司法信息記錄以及裁判文書公開制度,從而保障作為司法人工智能學(xué)習(xí)素材的大樣本的全面性。我們可以通過(guò)提升司法信息記錄的電子化和自動(dòng)化程度,實(shí)現(xiàn)簡(jiǎn)單類案司法過(guò)程的全面數(shù)據(jù)化,從而為保障司法人工智能全面習(xí)得法官的裁決信息打下基礎(chǔ)。再次,完善的案例退出機(jī)制建設(shè)對(duì)于優(yōu)化司法人工智能決策的科學(xué)性也有著積極意義。在具體實(shí)踐中,可以通過(guò)機(jī)器自主清洗、法官在司法實(shí)踐中標(biāo)注以及審查機(jī)構(gòu)定期審查等方式,及時(shí)清理那些過(guò)時(shí)、劣質(zhì)的案例。最后,在對(duì)案例的選擇以及數(shù)據(jù)的標(biāo)注過(guò)程中,我們還應(yīng)當(dāng)讓經(jīng)驗(yàn)豐富的法律專家參與并主導(dǎo)這一過(guò)程,從而保障標(biāo)注節(jié)點(diǎn)的合理性以及數(shù)據(jù)集合的準(zhǔn)確性和代表性。
其二,在算法設(shè)計(jì)時(shí)應(yīng)當(dāng)將正義這一基本價(jià)值倫理預(yù)設(shè)嵌入算法之中,從而保障算法決策符合公正性的價(jià)值導(dǎo)向。如同凱西·奧尼爾所言,算法是沒(méi)有道德想象力的,為了保障算法的有益性,將更好的價(jià)值嵌入其中從而建構(gòu)出符合人類道德準(zhǔn)則的大數(shù)據(jù)模型是必要的[37]。算法設(shè)計(jì)人員將基本的正義價(jià)值嵌入算法之中的路徑主要有以下兩種:一方面,可以通過(guò)確立價(jià)值函數(shù)和權(quán)重的方式將司法人工智能的價(jià)值判斷體系化和客觀化。我們可以依照不同案件類型對(duì)不同價(jià)值的重視程度確定相應(yīng)的權(quán)重比值,從而幫助司法人工智能擁有基本的價(jià)值選擇和判斷能力。依照此種思路,匹茲堡大學(xué)的托馬斯·薩蒂就提出了等級(jí)層次和網(wǎng)絡(luò)層次分析法,這一算法可以通過(guò)定量分析和定性分析相結(jié)合的方式,幫助人工智能有效應(yīng)對(duì)價(jià)值選擇難題[38]。另一方面,我們還可以通過(guò)建構(gòu)“價(jià)值判斷論證預(yù)測(cè)模型”以優(yōu)化司法人工智能的價(jià)值判斷?!皟r(jià)值判斷論證預(yù)測(cè)模型”的運(yùn)作原理是通過(guò)檢索當(dāng)前案件與先例之間是否有共享的局部或交叉的價(jià)值判斷區(qū)間,并通過(guò)權(quán)衡這些共享價(jià)值判斷在先例判決中所占有的比重,從而以類比方式確立當(dāng)前案件價(jià)值選擇的論證模型。在具體實(shí)踐中,格拉布梅爾就對(duì)其開發(fā)的預(yù)測(cè)模型在商業(yè)秘密法領(lǐng)域進(jìn)行了相關(guān)測(cè)試,正確率已經(jīng)高達(dá)75%以上[39]。
其三,通過(guò)提升算法的公開性和可解釋性以滿足司法公開的要求。當(dāng)前算法的可解釋性面臨著和商業(yè)秘密以及算法先進(jìn)性相抵牾的問(wèn)題。由于司法人工智能多是通過(guò)法院外包購(gòu)買的方式建構(gòu)的,而且這一算法涉及到公共利益,因而法院在和技術(shù)公司簽訂合同時(shí)就應(yīng)當(dāng)事先將算法代碼的交付和公開作為合同內(nèi)容的一部分,從而保障公眾對(duì)司法人工智能算法的知情權(quán)。然而,代碼的開源并不意味著公眾就可以掌握算法決策的邏輯架構(gòu),實(shí)踐表明,越是強(qiáng)大和準(zhǔn)確的預(yù)測(cè)模型也往往越是復(fù)雜和難以理解,加之機(jī)器自我學(xué)習(xí)、自我迭代能力的強(qiáng)化,許多算法邏輯甚至連專業(yè)的技術(shù)人員都無(wú)法掌握。據(jù)此,有學(xué)者認(rèn)為我們不應(yīng)奢求算法的完全透明,能夠?qū)λ惴康?、設(shè)計(jì)以及運(yùn)行的基本原理作出合理解釋和說(shuō)明即可認(rèn)為是達(dá)到了法律要求的公開性[40]。對(duì)此,有研究者就開發(fā)了一種“概念激活向量定量測(cè)試”的算法,其能夠以量化的方式顯示不同案件要素對(duì)裁判結(jié)論的影響程度,從而以一種對(duì)人類友好的方式解釋司法人工智能算法的內(nèi)部運(yùn)行狀態(tài)[41]。
其四,建立完善的算法審查機(jī)制是有效消除算法歧視、保障司法人工智能算法公正性的重要方式。鑒于人工智能在各個(gè)領(lǐng)域被全面應(yīng)用的現(xiàn)狀,建立獨(dú)立的算法審查機(jī)構(gòu)重點(diǎn)對(duì)涉及公共利益的算法展開監(jiān)督和審查已經(jīng)顯得十分必要。這樣,獨(dú)立的審查機(jī)構(gòu)也可以對(duì)司法人工智能的算法展開全面審查:在司法人工智能算法建構(gòu)時(shí),審計(jì)機(jī)構(gòu)可以要求開發(fā)人員將審計(jì)線索事先嵌入算法之中,以記錄司法人工智能算法決策的依據(jù)及過(guò)程,從而有助于審計(jì)人員開展算法審查工作。例如可以運(yùn)用以哈希函數(shù)為基礎(chǔ)的可編輯區(qū)塊鏈技術(shù),將司法人工智能算法決策的關(guān)鍵節(jié)點(diǎn)予以留存和記錄,從而為相關(guān)算法審計(jì)工作的開展提供便捷的技術(shù)接口。在司法人工智能法律系統(tǒng)交付使用前,審計(jì)機(jī)構(gòu)應(yīng)當(dāng)通過(guò)數(shù)據(jù)測(cè)試的方式,針對(duì)算法是否存在偏見、漏洞等問(wèn)題展開審查。在司法人工智能系統(tǒng)交付使用后,審計(jì)機(jī)構(gòu)也可采取隨機(jī)抽查、依申請(qǐng)審查等方式,建立起完善的司法人工智能算法審查機(jī)制。
人工智能技術(shù)的發(fā)展需要遵循個(gè)人自主和個(gè)人優(yōu)先的原則,因而司法人工智能的應(yīng)用應(yīng)當(dāng)充分尊重當(dāng)事人的自主選擇、提出異議、獲得解釋和救濟(jì)等權(quán)利。首先,即使是對(duì)于簡(jiǎn)單案件,任何一方當(dāng)事人也都擁有選擇是否運(yùn)用人工智能對(duì)案件展開審理裁判的決定權(quán)。如若當(dāng)事人拒絕,則法院就應(yīng)當(dāng)將案件的審理判決工作交由法官展開。其次,在司法人工智能作出裁決之后,當(dāng)事人有選擇上訴至上一層級(jí)法院的權(quán)利,此時(shí),案件的審判應(yīng)當(dāng)依照二審或再審等程序,交由人類法官來(lái)處理。這樣,由于上訴機(jī)制的存在,便意味著作為守門人的法官仍然在人機(jī)關(guān)系之中占據(jù)著中心和主導(dǎo)地位,從而避免了算法對(duì)司法的統(tǒng)治風(fēng)險(xiǎn)。最后,當(dāng)事人還有獲得技術(shù)支持的權(quán)利,尤其是在刑事或行政案件的裁決中,為了避免公權(quán)力主體等憑借技術(shù)優(yōu)勢(shì)取得不合理的訴訟地位,可以借鑒當(dāng)前的法律援助制度,在當(dāng)事人處于技術(shù)弱勢(shì)地位且經(jīng)濟(jì)困難時(shí),可以申請(qǐng)獲得專家在數(shù)據(jù)和技術(shù)上的公益性支持,以保障其獲得相對(duì)平等的訴訟能力。
人工智能法律系統(tǒng)的專業(yè)化、完備化以及精細(xì)化有賴于精通法律和精通計(jì)算機(jī)技術(shù)的專業(yè)人員通力合作。首先,應(yīng)當(dāng)由法官以及相關(guān)法律專家全程參與到司法人工智能系統(tǒng)的設(shè)計(jì)、測(cè)試、應(yīng)用以及改良等流程之中,從而為司法人工智能法律系統(tǒng)更加契合司法需求、符合司法規(guī)律、遵循司法倫理提供保障,同時(shí)也能夠有效防范科技公司不當(dāng)介入審判權(quán)力的風(fēng)險(xiǎn)。其次,司法人工智能技術(shù)開發(fā)人員在設(shè)計(jì)之初應(yīng)當(dāng)采取蹲點(diǎn)調(diào)研、發(fā)放問(wèn)卷等方式,深入了解司法的運(yùn)轉(zhuǎn)方式、追求目標(biāo)等司法特質(zhì),從而設(shè)計(jì)出更加契合司法正義需求的人工智能法律系統(tǒng)。最后,從長(zhǎng)遠(yuǎn)來(lái)看,培養(yǎng)既懂技術(shù)又懂法律的復(fù)合型人才將是建構(gòu)可靠的司法人工智能系統(tǒng)的前提和保障。當(dāng)前已經(jīng)有一些院校(如西南政法大學(xué)、清華大學(xué)法學(xué)院等)開始探索培育掌握相關(guān)人工智能技術(shù)的法律人才。需要我們注意的是,這些院校還應(yīng)當(dāng)將倫理教育作為復(fù)合型人才培養(yǎng)的重要組成部分,從而從根本上保障司法人工智能朝著更加正義、更加可靠的方向發(fā)展。
司法人工智能的責(zé)任分配問(wèn)題應(yīng)當(dāng)分為兩種情形予以探討。第一種是司法人工智能只是為法官裁判提供數(shù)據(jù)、材料等輔助性支持工作的情形。這種情形下出現(xiàn)錯(cuò)判、誤判時(shí),應(yīng)當(dāng)依照“誰(shuí)審理,誰(shuí)負(fù)責(zé)”的原則,由法官承擔(dān)枉法裁判的主要責(zé)任,并根據(jù)司法人工智能系統(tǒng)提供的數(shù)據(jù)、材料在輔助法官裁判中的作用,依照“浮動(dòng)比例原則”確定司法人工智能系統(tǒng)開發(fā)和設(shè)計(jì)人員的責(zé)任[42]。第二種情形是司法人工智能自主決策簡(jiǎn)單案件出現(xiàn)錯(cuò)判、誤判時(shí)的責(zé)任承擔(dān)問(wèn)題。當(dāng)前,無(wú)論是讓司法人工智能的最大獲益者(法院)來(lái)承擔(dān)責(zé)任,還是讓司法人工智能偏誤的直接設(shè)計(jì)者承擔(dān)責(zé)任的觀點(diǎn),都有一定的道理。此時(shí),我們認(rèn)為可以從錯(cuò)判、誤判受害者的角度對(duì)這一問(wèn)題展開思考:案件當(dāng)事人將糾紛交由法院裁決是出于對(duì)法院、司法制度的認(rèn)可和信任,無(wú)論是司法人工智能還是法官作出的裁決都是以法院的名義展開的,因而由法院承當(dāng)相應(yīng)的責(zé)任更加符合當(dāng)前的訴訟機(jī)制構(gòu)造,也更具政治上的合法性。此外,讓當(dāng)事人起訴算法設(shè)計(jì)人員或公司不但會(huì)增大其獲得救濟(jì)的成本,還會(huì)增大絕大多數(shù)不懂技術(shù)的當(dāng)事人的敗訴率。因而從司法人工智能決策受害者的角度來(lái)看,讓法院承擔(dān)司法人工智能決策的偏誤責(zé)任無(wú)疑更具合理性。當(dāng)然,法院在承擔(dān)責(zé)任之后,可以作為追責(zé)主體繼續(xù)追究算法設(shè)計(jì)人員或公司的責(zé)任,從而合理約束司法人工智能算法設(shè)計(jì)人員或公司的開發(fā)行為。
面對(duì)著新興的司法人工智能,我們應(yīng)當(dāng)以一種理性的眼光看待其所帶來(lái)的機(jī)遇和挑戰(zhàn):在充分發(fā)揮司法人工智能在提升司法效率以及保障司法裁判可靠性上的優(yōu)勢(shì)的同時(shí),也要積極預(yù)防和克服其所面臨的技術(shù)困境、價(jià)值挑戰(zhàn)和法治難題。當(dāng)然,本文針對(duì)司法人工智能應(yīng)用困境所提出的建議方案也存在一定的局限性:如在具體的實(shí)踐操作中,如何區(qū)分什么是疑難案件,什么是可以使用司法人工智能裁決的簡(jiǎn)單案件的問(wèn)題;算法規(guī)制的制度設(shè)計(jì)是否會(huì)過(guò)度增加司法人工智能的應(yīng)用成本,等等。因而,對(duì)于司法人工智能發(fā)展前景的討論并不是一勞永逸的,這需要我們根據(jù)司法人工智能的應(yīng)用實(shí)踐而不斷細(xì)化和明確與之相關(guān)的制度構(gòu)造,從而努力推動(dòng)司法人工智能的健康發(fā)展以及“讓人民群眾在每一個(gè)司法案件中都感受到公平正義”的司法目標(biāo)的實(shí)現(xiàn)。
東北大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)2022年3期