程 龍
(云南大學(xué) 法學(xué)院, 云南 昆明 650032)
法律人工智能是當(dāng)下業(yè)界與學(xué)界最為火爆的研究熱點之一。在刑事司法領(lǐng)域,人工智能的大面積應(yīng)用幾乎涉及了刑事訴訟的所有階段[1]。在實踐層面,人工智能輔助量刑已廣為接受。所謂人工智能輔助量刑,是指在大數(shù)據(jù)、云計算的技術(shù)支撐下構(gòu)建法律圖譜,通過提取法律文書要素,進(jìn)行類案識別和模型訓(xùn)練,用機器學(xué)習(xí)等人工智能方法形成量刑算法,在此基礎(chǔ)上實現(xiàn)量刑預(yù)測和偏離度測算[2]。值得注意的是,人工智能輔助量刑不等于電腦量刑。所謂電腦量刑只是根據(jù)小數(shù)據(jù)、部分法官經(jīng)驗和法律法規(guī)數(shù)據(jù)化后的簡單推理判斷[3],更多呈現(xiàn)為“自動化”量刑而非“人工智能”量刑。開宗明義,本文研究對象僅為人工智能輔助量刑。
目前, 我國人工智能輔助量刑發(fā)展正盛。 海南省的“量刑規(guī)范化智能輔助系統(tǒng)”、 貴州省的“法鏡系統(tǒng)”、 上海市的“智能輔助辦案系統(tǒng)”等都包含了人工智能輔助量刑的核心功能。 上述應(yīng)用盡管有所差別, 系統(tǒng)開發(fā)的科技公司也不盡相同, 但是底層邏輯基本一致, 即法官輸入案件基本信息(在一定條件下也可以通過OCR識別), 人工智能輔助系統(tǒng)對案件信息進(jìn)行分析、 評價, 進(jìn)而生成量刑建議參考值; 法官根據(jù)該參考值進(jìn)行量刑。 然而, 由于種種原因, 當(dāng)下“法律+人工智能”的研究還存在一定局限。 左衛(wèi)民教授曾指出, 法律人工智能呈現(xiàn)出理論話語與司法實踐中“冷與熱”的差別, 原因在于法律人工智能在前期準(zhǔn)備條件、 研究方法、 法律數(shù)據(jù)充分性上的不同以及法律人工智能的技術(shù)瓶頸等[4]。 還有研究發(fā)現(xiàn), 既往法律人工智能應(yīng)用中, 重管理輕服務(wù), 導(dǎo)致系統(tǒng)林立,“數(shù)據(jù)孤島”現(xiàn)象突出, 難以發(fā)揮各人工智能司法輔助系統(tǒng)間“1+1大于2”的預(yù)期效果[5]。 另有研究認(rèn)為, 目前刑事司法中人工智能的應(yīng)用在于追求效率而非絕對精確, 追求裁判與案件的相關(guān)性而非因果性[6]。 也正因如此, 目前絕大多數(shù)人工智能系統(tǒng)在處理不確定性上尚顯不足, 也存在一定的可解釋性風(fēng)險, 使得裁判的不確定性風(fēng)險增加[7]。
上述研究均在不同層面揭示了實踐中人工智能輔助司法——特別是刑事司法的深層次問題。具體在量刑領(lǐng)域,此次人工智能輔助量刑的風(fēng)潮正好伴隨著量刑規(guī)范化改革的推進(jìn),而量刑規(guī)范化與量刑科技化、智能化有著密切聯(lián)系。有學(xué)者已經(jīng)發(fā)現(xiàn),過去單一的實體法研究進(jìn)路或程序法研究進(jìn)路并不能完全適應(yīng)量刑規(guī)范化的要求,為解決量刑失衡和量刑公信力低兩大問題,有必要通過實體與程序的復(fù)合治理模式構(gòu)建量刑規(guī)范化制度理論[8]。有鑒于此,本文依循量刑中實體與程序兩個維度,系統(tǒng)梳理人工智能輔助量刑存在的深層理論與實踐問題,進(jìn)而為規(guī)范其應(yīng)用和發(fā)展提出對策建言。
人工智能輔助量刑首先是一個實體法問題。無論何種量刑技術(shù),都應(yīng)當(dāng)遵循刑法的基本要求,符合刑法的基本原理。引入人工智能輔助量刑,會對既有刑法理論與刑事司法實踐產(chǎn)生一定的沖擊,其中,突出表現(xiàn)在量刑機械主義傾向、量刑要素抽取困難、共犯量刑障礙等方面。
有研究指出,目前人工智能輔助量刑領(lǐng)域存在三大問題:其一,量刑科技化取代量刑規(guī)范化,以人工智能輔助量刑作為規(guī)范化的唯一抓手;其二,量刑具體化取代量刑規(guī)范化,過于依賴量刑指導(dǎo)意見,不敢突破、質(zhì)疑;其三,量刑劃一化取代量刑規(guī)范化,片面追求同案同判[9]。是否應(yīng)當(dāng)并且可以通過人工智能輔助量刑,其中涉及的關(guān)鍵性前置問題即為:量刑究竟是一個機械過程,還是機器無法理解的裁量過程?這就是量刑機械主義與裁量主義的爭論。
首先,量刑規(guī)范化的目標(biāo)并不是實現(xiàn)量刑的科技化。司法裁判的關(guān)鍵在于獲取公信力,量刑亦復(fù)如是。量刑失衡是量刑規(guī)范化希望解決的首要問題。過去很長一段時間里,量刑“因人而異”甚至“看人下菜”現(xiàn)象較為突出,個別刑事判決中出現(xiàn)的量刑失準(zhǔn),違背了社會公眾樸素的“同罪同罰”正義觀,民眾反映強烈。人工智能輔助量刑的優(yōu)點在于其客觀性較好、智能化水平較高,能夠彌補裁判者主觀判斷的不足,實現(xiàn)量刑的標(biāo)準(zhǔn)化。基于當(dāng)代人類的“科技信仰”,逐漸出現(xiàn)以量刑科技化取代量刑規(guī)范化的傾向;同時,人工智能技術(shù)裝備的引入,部分增強了量刑裁判在民眾中的可信賴度。然而,科技化并不等于科學(xué)化、規(guī)范化。法律人工智能必須堅持以法為據(jù)、依法運行的基本取向,不能將科技凌駕于法律規(guī)范之上??萍蓟⒉荒茏晕艺撟C其正確性、科學(xué)性,特別是在法律領(lǐng)域,合乎法理的科學(xué)性相較于單純技術(shù)上的科技化更為重要,因此,解決量刑失衡的要點應(yīng)當(dāng)是量刑的科學(xué)化而非科技化。所謂量刑科學(xué)化,強調(diào)通過規(guī)范化的約束,使法官在量刑過程中充分考慮案件的具體情況,作出審慎、合法且合理的量刑。至于是否通過科技化的方式達(dá)致量刑科學(xué)化,只是手段與目的間的關(guān)系。如果以“高科技”取代法官在司法審判中的主體地位,那么,不僅難以做到量刑科學(xué)化,更難以達(dá)到量刑規(guī)范化的目的。
其次,量刑權(quán)是審判權(quán)的重要組成部分,人工智能系統(tǒng)不能僭越審判權(quán)主體的憲法地位?!吨腥A人民共和國憲法》(以下簡稱《憲法》)第128條規(guī)定:“中華人民共和國人民法院是國家的審判機關(guān)”;《中華人民共和國刑事訴訟法》第3條第1款則規(guī)定審判由人民法院負(fù)責(zé),除非法律特別規(guī)定,其他任何機關(guān)、團(tuán)體和個人都無權(quán)行使審判權(quán)力。這充分表明,刑事司法中的審判權(quán)力為法院所獨享。眾所周知,定罪與量刑系刑事訴訟的主要內(nèi)容,廣義的刑事訴訟就是指國家為實現(xiàn)刑罰權(quán)的全部訴訟行為[10]3。量刑顯然在審判權(quán)行使的核心范圍之內(nèi)。法律人工智能大規(guī)模進(jìn)入量刑領(lǐng)域,進(jìn)而以是否符合人工智能量刑系統(tǒng)的模擬裁判為依據(jù),考核、衡量法官刑事裁判的正確與否,有可能侵奪裁判者的量刑裁判權(quán)。雖然從規(guī)范話語上看,人工智能輔助量刑只是“輔助”而非“決定”司法裁判,但是,在“科技信仰”乃至“科技迷信”的當(dāng)下,加之司法責(zé)任制的影響,我們很難期待法官敢于質(zhì)疑甚至反對法律人工智能的判斷。設(shè)若任由人工智能左右量刑工作,將會使“算法”不斷侵入審判權(quán)運行之中,導(dǎo)致司法裁判者復(fù)數(shù)化:法官、程序員、數(shù)據(jù)商、信息公司等都成為司法裁判事實上的做出者與決定者,一旦發(fā)生錯案責(zé)任,則可能導(dǎo)致權(quán)責(zé)不明,進(jìn)而使法官自由心證失去了制度和技術(shù)上的保障[11]。
再次,排除地方性知識的絕對機械主義量刑,意味著絕對的法律實證主義,拒斥了“意義之網(wǎng)”對于量刑的重要性。筆者曾經(jīng)就人工智能輔助量刑相關(guān)問題進(jìn)行實地調(diào)研。在S省L自治州調(diào)研過程中,當(dāng)?shù)胤ü倥e出實例用以說明量刑機械主義的弊端。L自治州H縣是一個貧窮、多民族聚居的農(nóng)業(yè)縣。當(dāng)?shù)仡l發(fā)偷盜耕牛案件,如果按照量刑指導(dǎo)意見和人工智能輔助量刑系統(tǒng)的評估,偷盜耕牛往往只能處以一年左右有期徒刑。但是,當(dāng)?shù)孛癖妼@樣較輕的量刑感到不滿,因為耕牛的滅失意味著一戶人家一年口糧的短缺。衡量盜竊耕牛的危害程度,不能完全以單純的交換價值(價格)為標(biāo)準(zhǔn)。法官坦言,在此情況下他們只能“違法”判決,作出遠(yuǎn)高于指導(dǎo)意見和人工智能系統(tǒng)提示的量刑判決。中國地域遼闊、地區(qū)間發(fā)展并不平衡,倘若以整齊劃一的量刑標(biāo)準(zhǔn)指導(dǎo)全國的刑事裁判,使工具理性驅(qū)逐價值理性,易使法官產(chǎn)生思維惰性,凡事均向人工智能意見“看齊”,進(jìn)而以“唯工具論”的指導(dǎo)思想進(jìn)一步影響司法公正的實現(xiàn)。
最后,所謂“同案同判”已經(jīng)遭到法學(xué)界一定的質(zhì)疑,以此為基礎(chǔ)建立的人工智能輔助量刑邏輯需要進(jìn)一步證成其合理性。所謂“同案同判”其實是一種樸素的司法正義感,即要求相同的案件作出相同的裁判,以絕對的法律平等與法律安定實現(xiàn)正義[12]。然而,絕對意義的“同案”是不可能存在的。正如“人不可能兩次進(jìn)入同一條河流”,司法意義上的案件不可能在主體、事實、時空等要素上尋找到完全一致的復(fù)制品。相反,差異化的判決在某種程度上更可能是一種實質(zhì)上的公平。前述“偷盜耕牛案”的處理深刻體現(xiàn)了差異化判決反而有可能成就個案的正義;尤其刑法規(guī)范本身就不是一個完全封閉的體系,只要承認(rèn)司法具有能動性,則所謂的“正確答案”就不具有唯一性[13]。因此,“同案同判”與其說是一項法律義務(wù),毋寧認(rèn)為是一項道德要求。盡管在大多數(shù)時候“同案同判”的另一版本——“類案類判”具有正當(dāng)性,但如若出現(xiàn)更高位階的價值追求,這一道德要求也不是不可以逾越[14]。此外,“同案同判”的思維與人工智能的數(shù)學(xué)邏輯也甚為契合,即強調(diào)待決案件與司法判決間的函數(shù)映射關(guān)系。人工智能輔助量刑意圖通過在海量裁判數(shù)據(jù)庫中找尋與法官待決案件最相似的案件,繼而提出近似的量刑建議,其工作邏輯實質(zhì)是前述“同案同判”的思維,自然也就面臨著法理上深刻的質(zhì)疑。
人工智能輔助量刑系統(tǒng)的建立,仰賴機器學(xué)習(xí)形成量刑算法,而喂養(yǎng)機器學(xué)習(xí)的素材來源于所謂量刑情節(jié)(要素)的支持。在機器學(xué)習(xí)過程中,往往需要利用大量人力手工標(biāo)記案件中的量刑情節(jié)或要素,以使機器在訓(xùn)練過程中能夠正確識別相關(guān)判斷因素,進(jìn)而生成并不斷修改量刑算法。在技術(shù)領(lǐng)域,似乎難點只在于如何通過抽取訴訟文書中的量刑情節(jié)(要素),將自然語言轉(zhuǎn)化為系統(tǒng)可以識別的機器語言。研發(fā)者通常認(rèn)為量刑情節(jié)(要素)可以從復(fù)雜的案件事實中類型化地抽取出來,似乎量刑要素的可分離性、可識別性和可類型化并不存在問題。但是,對于法律人而言,或許最應(yīng)該思考的恰恰是我們究竟能不能從案件中抽離出獨立的量刑要素?如果不能,抑或雖然能,但是量刑要素?zé)o法獨立于定罪要素,那么,是否會產(chǎn)生同一要素在定罪與量刑中重復(fù)評價的不合理現(xiàn)象?
首先,并合主義視角下的量刑,并非是簡單的案件事實加總后的判斷,而是一種綜合判斷。所謂并合主義是指“刑罰既要滿足報應(yīng)的要求,與責(zé)任相適應(yīng),又要有某種合理的必要性(論理積)……報應(yīng)為刑罰奠定基礎(chǔ),預(yù)防目的是一種‘外在的’附加?!盵15]72-73目前,此種并合主義觀點成為量刑根據(jù)的主流學(xué)說,因此,量刑中需考慮責(zé)任與預(yù)防雙重要素。然而,責(zé)任要素與預(yù)防要素在量刑中絕非簡單的加總求和。正如并合主義中的“論理積”所表示的那樣,責(zé)任要素與預(yù)防要素在量刑裁判中是“乘積”的非線性關(guān)系。同時,在適用上還具有階層性:即先通過確定犯罪責(zé)任以確定量刑基準(zhǔn),再通過預(yù)防刑進(jìn)行調(diào)整以最終確定宣告刑[16]546-551。在人工智能輔助量刑領(lǐng)域,可能存在的問題是它確定的不是量刑基準(zhǔn),而是量刑起點,在此基礎(chǔ)上簡單地把法律規(guī)范自動化地應(yīng)用于具體案件。其工作流程往往不注意區(qū)分責(zé)任刑與預(yù)防刑,在模糊學(xué)習(xí)海量案件的基礎(chǔ)上形成算法,以此計算待決案件的量刑起點;再根據(jù)案件具有的特殊情況對宣告刑加減調(diào)整。這一過程缺乏層次性,一來無法體現(xiàn)出責(zé)任刑與預(yù)防刑的區(qū)分以及階層化的量刑思維,致使刑事訴訟中難以針對責(zé)任或預(yù)防部分進(jìn)行有效控辯;二來也無法體現(xiàn)量刑的綜合性判斷思維,只是片面、孤立的量刑因素匯聚。
其次,大多數(shù)量刑要素?zé)o法與定罪要素相區(qū)分,可能導(dǎo)致重復(fù)評價的問題。人工智能輔助量刑的法理前提在于能夠提取獨立的量刑情節(jié)(要素)專門應(yīng)用于量刑裁判。然而,量刑情節(jié)必須是在某種行為已經(jīng)構(gòu)成犯罪之后,才會在量刑中予以考慮[16]553,而不可能既在定罪階段評價,又在量刑階段重復(fù)評價。如果一個情節(jié)(要素)本身屬于犯罪構(gòu)成的內(nèi)容,那么它就不可能是量刑情節(jié)(要素)。例如大量的“情節(jié)嚴(yán)重”“數(shù)額巨大”等整體評價要素,又如大量客觀處罰條件等(1)客觀處罰條件又稱“刑事可罰性的客觀條件”,是指脫離于犯罪構(gòu)成之外,不需行為人對其出現(xiàn)、產(chǎn)生有責(zé),但又決定犯罪是否成立的條件。雖然客觀處罰條件不屬于犯罪構(gòu)成,但其能夠確定犯罪是否成立。參見克勞斯·羅克辛《德國刑法學(xué)總論》(第1卷),王世洲譯,法律出版社,2005年,第690-691頁。,它們表面上看是決定刑罰的要素,但實際上與犯罪是否成立息息相關(guān)。學(xué)理上,一個情節(jié)如果既在定罪又在量刑中反復(fù)評價,則有違“禁止二重處罰”的基本原則[17]65-74。例如,過失致人死亡罪中,“致人死亡”就是定罪要素,不能以此定罪后又在量刑階段再一次評價“致人死亡”,以致科以法定刑內(nèi)較重的刑罰。又如“交通肇事后逃逸”已經(jīng)在定罪層面構(gòu)成了結(jié)果加重犯,就不能在量刑時又將逃逸視為量刑情節(jié),進(jìn)一步適用結(jié)果加重犯刑檔下更重的刑罰。有研究已經(jīng)發(fā)現(xiàn),目前我國量刑規(guī)范化改革中,出現(xiàn)了在量刑時將構(gòu)成要件性事實作為量刑事實重復(fù)評價的問題[18]。同樣的問題也反映在人工智能輔助量刑的工作邏輯之中,尤其是在結(jié)果加重犯的處理上。一方面,在定罪時已經(jīng)將結(jié)果加重情節(jié)予以考慮,適用結(jié)果加重的法定刑;另一方面,又在量刑時再一次評價這一情節(jié),在結(jié)果加重的刑檔內(nèi)從重量刑,對被告人施加過高的、不均衡的刑罰。
再次,量刑要素的識別與抽取難以窮盡可能性。有學(xué)者明確指出,無論人類如何竭盡才智,仍然無法將量刑的一切情形一一列舉,那么給出一個對確定最終刑罰量刑的精確的基準(zhǔn)也就是不可能的[19]。從人工智能輔助量刑的算法生成過程來看,機器學(xué)習(xí)離不開人類對量刑要素的標(biāo)識。如果不可能窮盡量刑要素的識別,則意味著機器學(xué)習(xí)的基礎(chǔ)是不牢靠且不精確的。再精密的計算也不可能完全模擬法律實踐的復(fù)雜性與法律規(guī)則的模糊性,這就會導(dǎo)致人工智能領(lǐng)域經(jīng)典悖論的出現(xiàn):人類智能的程度決定了人工智能的程度,人工智能最終無法對抗人類的不智能。由此看來,量刑要素難以被窮舉,也難以類型化地被機器所識別、學(xué)習(xí),將會導(dǎo)致量刑算法生成的不周延。
最后,人工智能目前尚不能實現(xiàn)人類經(jīng)驗的完整植入或模擬[20]。量刑的思維過程是一種蓋然性、似真性的推理過程;不完全是純粹理性的形式邏輯推理?!吨腥A人民共和國刑法》(以下簡稱《刑法》)第61條規(guī)定:“對于犯罪分子決定刑罰的時候,應(yīng)當(dāng)根據(jù)犯罪的事實、犯罪的性質(zhì)、情節(jié)和對于社會的危害程度,依照本法的有關(guān)規(guī)定判處。”對于事實、性質(zhì)、情節(jié)和社會危害程度的判斷需要相應(yīng)的證據(jù)證明,從而進(jìn)行綜合性、實質(zhì)性的判斷,但這需要人類的直覺、想象和感覺,此即為量刑過程中的實踐理性。但是,“實踐理性并非某種單一的分析方法,甚至也不是一組相關(guān)聯(lián)的方法。它是一個雜貨箱,里面有掌故、內(nèi)省、思想、常識、設(shè)身處地、動機考察、言說者的權(quán)威、隱喻、類推、先例、習(xí)慣、記憶、‘經(jīng)歷’、直覺以及歸納……”[21]92法官進(jìn)行量刑裁判時,還有諸多實踐理性難以為機器學(xué)習(xí)所把握。況且,目前機器學(xué)習(xí)的材料來源大多是裁判文書,而我國一些至關(guān)重要的裁判形成過程并不會直接在訴訟文書中體現(xiàn)(2)例如審判委員會的內(nèi)部討論就不會直接在訴訟文書中體現(xiàn),但卻往往是裁判的重要依據(jù)與來源。。量刑中難以準(zhǔn)確標(biāo)記和計量的實踐理性不可能精確表達(dá)為機器語言,致使機器學(xué)習(xí)難以準(zhǔn)確理解和反映量刑的實際運作邏輯,在此基礎(chǔ)上生成的量刑算法是否能正確輔助人類量刑,值得深思。
從法理上看,原本共犯的量刑并不存在理論難題,但是人工智能輔助量刑本身的局限性使其對共犯人的量刑也存在一定障礙。
一般而言,幫助犯、教唆犯的量刑應(yīng)比照正犯進(jìn)行裁量。盡管我國對于共犯人的分類是以其在共同犯罪中的功能及地位,劃分為主犯、從犯、脅從犯、教唆犯。但除主犯以外的共犯人均以主犯量刑為基準(zhǔn),規(guī)定了相應(yīng)的處罰原則。具體來看,根據(jù)《刑法》第27條第2款的規(guī)定,“對于從犯,應(yīng)當(dāng)從輕、減輕處罰或者免除處罰”;根據(jù)《刑法》第28條的規(guī)定,“對于被脅迫參加犯罪的,應(yīng)當(dāng)按照他的犯罪情節(jié)減輕處罰或者免除處罰”。由于教唆犯并非是與主犯、從犯、脅從犯相并列的概念[16]450,所以《刑法》第29條對教唆犯量刑區(qū)分為三種不同的情形:(1)“教唆他人犯罪的,應(yīng)當(dāng)按照他在共同犯罪中所起的作用處罰?!?2)“教唆不滿十八周歲的人犯罪的,應(yīng)當(dāng)從重處罰。”(3)“如果被教唆的人沒有犯被教唆的罪,對于教唆犯,可以從輕或者減輕處罰。”由此,共犯的量刑一般依照如下步驟進(jìn)行:首先,確定共同犯罪中共犯人的地位;然后,確定主犯的量刑;最后,在主犯量刑的基礎(chǔ)上對共犯人依照法定的量刑情節(jié)進(jìn)行量刑。
但是,在人工智能輔助量刑中,共犯的量刑存在如下障礙。其一,共犯的量刑與定罪密切相關(guān),難以單獨從量刑層面進(jìn)行機器學(xué)習(xí)與計算。我國對于共犯的量刑必須在犯罪論層面對共犯人在具體犯罪中的功能、地位進(jìn)行實質(zhì)評價后,方可確定其具體量刑規(guī)則。這就導(dǎo)致共犯人的量刑要素不可避免地嵌入定罪要素之中,難以單獨抽取共犯人的量刑要素。而人工智能輔助量刑系統(tǒng)的機理如前所述,建立在量刑要素能夠獨立識別、抽取、學(xué)習(xí)的基礎(chǔ)之上,但在共犯人的量刑上,這樣的技術(shù)前提并不存在。其二,共犯的量刑是以主犯為基準(zhǔn)的裁量,這與基于類案學(xué)習(xí)的人工智能輔助量刑邏輯不匹配。對于共犯人的量刑除了受制于其本身的罪行情節(jié)之外,還受制于對主犯的量刑。人工智能輔助量刑系統(tǒng)在機器學(xué)習(xí)時的數(shù)據(jù)集,是以單人犯罪或正犯為模板建立的;即便承認(rèn)機器學(xué)習(xí)的有效性,但這一專家系統(tǒng)所能解決的也主要是單人犯罪或正犯的量刑問題。由于具體共同犯罪案件中,共犯人參與的形式多樣、姿態(tài)萬千,究竟在多大程度上比照主犯從重、從輕、減輕處罰,有賴于對具體、個別的案件進(jìn)行實質(zhì)的逐案判斷,難以在數(shù)理層面給出一個穩(wěn)定、統(tǒng)一的數(shù)學(xué)模型概括共犯量刑規(guī)則。在實踐中,基于正犯模板的人工智能輔助量刑系統(tǒng)在面對共犯人的量刑時顯得有些力不從心。
如前所述,量刑是一個實體與程序兼具的復(fù)合型問題。一方面,量刑的規(guī)范化、科學(xué)化需要實體法提供明確、完備、合理的量刑規(guī)范;另一方面,量刑同樣需要滿足正當(dāng)程序的要求,使量刑不僅正確,而且要以合法的、可檢驗的程序?qū)崿F(xiàn)正確。然而,人工智能輔助量刑在程序上也會產(chǎn)生與庭審實質(zhì)化相矛盾、“算法黑盒”缺乏司法透明、人工智能輔助量刑意見難以作為證據(jù)使用并進(jìn)行檢驗等問題。同時,量刑輔助系統(tǒng)設(shè)置裁量比例也有僭越量刑裁量權(quán)的質(zhì)疑。在評價人工智能輔助量刑準(zhǔn)確度時,也存在判斷標(biāo)準(zhǔn)不明確、不科學(xué)等困境。
1.與庭審實質(zhì)化相矛盾 庭審實質(zhì)化是目前刑事司法方面正如火如荼推進(jìn)的重大改革舉措?!八^庭審實質(zhì)化,是指應(yīng)通過庭審的方式認(rèn)定案件事實并在此基礎(chǔ)上決定被告人的定罪、量刑。”[21]從規(guī)范層面看,庭審實質(zhì)化要求決定被告人命運的關(guān)鍵階段應(yīng)當(dāng)在庭審活動中,即“審判案件應(yīng)當(dāng)以庭審為中心。事實證據(jù)調(diào)查在法庭,定罪量刑辯護(hù)在法庭,裁判結(jié)果形成于法庭”(3)《最高人民法院關(guān)于建立健全防范刑事冤假錯案工作機制的意見》第11條。。過去我國庭審實質(zhì)化的主要阻礙在于“案卷中心主義”的審判模式,對此,權(quán)威研究認(rèn)為,推進(jìn)庭審實質(zhì)化關(guān)鍵在于廢棄“案卷中心主義”,落實直接言詞原則[22]。學(xué)理上,直接言詞原則體現(xiàn)在證據(jù)原則與形式原則兩個方面。其中,證據(jù)原則中的直接原則是指“法官以從對被告之訊問及證據(jù)調(diào)查中所得之結(jié)果、印象,才得做為其裁判之基礎(chǔ)”[23]117;而形式原則中的言詞原則是指“所有發(fā)生在訴訟程序中的事項均需用言詞表達(dá)之”[23]129-130。概言之,直接言詞原則要求所有刑事訴訟之行為應(yīng)以口頭作出,排斥庭前與庭外的書面審理;審判者必須親歷訴訟,未親自審理案件者不得對案件裁判發(fā)表意見。
量刑是刑事訴訟中的關(guān)鍵環(huán)節(jié),量刑審判也毫無疑問地成為庭審實質(zhì)化的主要內(nèi)容,并且接受直接言詞原則的約束。禁止以未經(jīng)庭審辯論、質(zhì)證的信息與證據(jù)作為量刑依據(jù),也禁止沒有參與庭審的庭外人員影響量刑決策。然而,在刑事訴訟中,法官若過度信賴乃至依賴人工智能輔助量刑系統(tǒng),則會形成一個強大的“庭外審判者”左右量刑裁判。雖然在規(guī)范上,人工智能輔助系統(tǒng)僅為“定罪量刑的參照”,然而,在對科技深度信賴的當(dāng)下,這種話語上的“參照”往往會異化為實踐中的“奉行”。與此同時,對人工智能的信賴會進(jìn)一步強化法官對待決案件的“錨定效應(yīng)”[7],以強烈的司法前見影響法官對具體案件的裁斷,甚至還有可能出現(xiàn)算法支配審判的問題。對人工智能的過度期待和正確性誤解可能會導(dǎo)致現(xiàn)代法治制度逐漸解構(gòu),法官的審判主體地位遭到動搖[11]。
事實上,在過度依賴人工智能輔助量刑的情形下,可以認(rèn)為,在量刑環(huán)節(jié)法官實質(zhì)上部分放棄了刑事審判權(quán),將其委任于人工智能系統(tǒng)。但人工智能系統(tǒng)一方面并不是案件的親歷者,缺乏對案件審理的親歷性,由其進(jìn)行量刑裁判違反了直接原則。另一方面,人工智能系統(tǒng)的機器學(xué)習(xí)、算法生成和對于具體案件的判斷,完全依靠書面材料的分析,人工智能沒有、也不可能以言詞審理的方式進(jìn)行量刑裁判,這又有違言詞原則。于是,在量刑領(lǐng)域,不過是從“案卷中心主義”轉(zhuǎn)向了“科技中心主義”,并不能有助于——反而可能阻礙了庭審實質(zhì)化的實現(xiàn)。
2.“算法黑盒”缺乏司法透明 “算法黑盒”是指人工智能輔助量刑中的算法不具有透明性,其量刑決策生成本質(zhì)上是一個“黑箱判斷”過程,只能控制輸入端,然后查看輸出端,至于決策程序和數(shù)理邏輯則難以呈現(xiàn)?!八惴ê诤小迸c機器學(xué)習(xí)本身的特性直接相關(guān),機器學(xué)習(xí)的原理就在于通過不斷的數(shù)據(jù)訓(xùn)練與分析整理,實現(xiàn)對算法的生成與迭代,在不斷的迭代中又進(jìn)一步實現(xiàn)算法的升級與修正,最終生成的算法本身是由機器學(xué)習(xí)后自發(fā)產(chǎn)生的一個模糊決策工具,甚至編制系統(tǒng)的信息技術(shù)專家也難以有效闡明算法本身的數(shù)理結(jié)構(gòu)。
“算法黑盒”在技術(shù)端不是一個問題,甚至還有可能是一種優(yōu)勢,因為模糊決策本身有利于克服數(shù)理判斷所導(dǎo)致的過分機械化的弊端。但是,在司法應(yīng)用端,“算法黑盒”的不透明性則成了一個嚴(yán)重的問題。在美國,“算法黑盒”由于缺乏司法透明,被質(zhì)疑侵害了刑事被告人的知情權(quán)和正當(dāng)程序權(quán)利,被告人本應(yīng)有權(quán)檢查算法,但卻因技術(shù)困境而無法實現(xiàn)[24]。更為關(guān)鍵的是,“算法黑盒”的治理,也不能通過所謂的“可視化”加以解決,因為算法本身是一種非線性的模糊決策,難以通過直觀可感知的方法予以呈現(xiàn)[2]。
“算法黑盒”問題直接導(dǎo)致被告人及其辯護(hù)人難以了解量刑決策的形成過程,繼而難以在量刑程序中實施有效辯護(hù),將會帶來如下三個方面的問題。
第一,難以實現(xiàn)量刑程序中的辯審互動。自2010年起的量刑程序改革致力于將量刑納入法庭審理程序,構(gòu)建“相對獨立”的量刑程序,這必然要求量刑辯護(hù)與量刑審判的有效互動。正如陳瑞華教授所指出的那樣:“在量刑辯護(hù)中,律師通常提出本方的量刑信息和量刑情節(jié)……從而最終提出對被告人從輕、減輕或者免除刑罰的意見,以說服法院作出對有罪被告人寬大處罰的裁決?!盵25]164可是,在人工智能輔助量刑的背景下,一方面,辯護(hù)人提出的量刑信息和量刑情節(jié)與算法本身所依循的邏輯并無關(guān)系,難以得到系統(tǒng)的有效回應(yīng)與重視;另一方面,法院作出量刑裁決又基本依靠人工智能系統(tǒng)對“類案”的判斷,難以實現(xiàn)辯護(hù)權(quán)與審判權(quán)的有效互動,這就很可能實際剝奪了被告人的量刑辯護(hù)權(quán)。
第二,難以實現(xiàn)量刑中的有效辯護(hù)。有效辯護(hù)的前提在于對事實的充分了解,刑事訴訟中賦予被告人及其辯護(hù)人閱卷權(quán),正是為了保障審判階段辯方充分獲悉資訊,并據(jù)以調(diào)整辯護(hù)方向。但是,如果被告人及其辯護(hù)人難以了解量刑決策的依據(jù)與原理,也就不可能實現(xiàn)真正有效的辯護(hù)。而“提供稱職的辯護(hù)律師是政府義務(wù)”[26]57,如果不能在量刑階段為辯護(hù)人的有效辯護(hù)提供必要的信息支持,則或可認(rèn)為政府沒有盡到正當(dāng)程序的義務(wù)。
第三,難以有效保障辯護(hù)權(quán)的實現(xiàn)。辯護(hù)權(quán)是被告人的憲法性權(quán)利,不容克減?!稇椃ā返?30條規(guī)定“被告人有權(quán)獲得辯護(hù)”,這在憲法層面確立了辯護(hù)權(quán)的基本權(quán)利地位。正當(dāng)程序是辯護(hù)權(quán)的學(xué)理基礎(chǔ),一方面要求國家刑事追訴必須依循嚴(yán)格的規(guī)范;另一方面也為辯護(hù)權(quán)提供了載體,正因“正當(dāng)程序”不容克減的本質(zhì),決定了作為基本權(quán)利的辯護(hù)權(quán)是無法消絕的、絕對不可克減的程序性權(quán)利[27]251-254。如果人工智能輔助量刑中存有不可克服的非透明性,必然會減損被告人及其辯護(hù)人的辯護(hù)權(quán),進(jìn)而有侵犯被追訴人基本權(quán)利之虞。
3.人工智能輔助量刑意見難以作為證據(jù)進(jìn)入刑事訴訟加以檢驗 人工智能輔助量刑意見顯然不屬于我國刑事訴訟法規(guī)定的任何一種證據(jù)類型。
第一,人工智能輔助量刑意見不是鑒定意見,也不是勘驗、檢查、辨認(rèn)、偵查實驗等筆錄。它不是對客觀事實的反映,而是基于算法的分析結(jié)果;它分析的對象也不是待決案件事實,而是既往案件的審判規(guī)律。
第二,人工智能輔助量刑意見不屬于電子數(shù)據(jù),因為人工智能輔助量刑意見不是靜態(tài)的、客觀的數(shù)據(jù)本身,它是對既存電子數(shù)據(jù)、海量判決文書的學(xué)習(xí)與計算。
第三,人工智能輔助量刑本身不是偵查(取證)行為,它只是司法輔助,所以,它所生成的判斷意見自然也就不可能成為刑事訴訟中的證據(jù)。
在實踐中,不僅人工智能輔助量刑意見存在是否是證據(jù)、是什么證據(jù)的疑問;在偵查中,利用人工智能技術(shù)進(jìn)行犯罪偵查得到的相關(guān)結(jié)果、意見和判斷同樣面臨著類似的問題。例如,“基于大數(shù)據(jù)的偵查行為”的屬性與所得材料的法律定位仍存有諸多疑問[28]。刑事訴訟法學(xué)界還未能對此作出有效回應(yīng)。但至少可以確定的是,人工智能輔助量刑所得材料目前暫不可能成為證據(jù)出現(xiàn)在刑事訴訟中,也就不可能通過規(guī)范化的證據(jù)收集、固定、保管、出示、質(zhì)證、認(rèn)證等程序進(jìn)行充分的檢驗。但是,這種未經(jīng)充分檢驗的“意見”卻又往往作為“結(jié)論”影響量刑裁判,則有侵蝕刑事訴訟中證據(jù)裁判原則之嫌。
為了避免科技產(chǎn)品影響乃至主宰司法裁判的質(zhì)疑與批評,人工智能輔助量刑系統(tǒng)在具體案件中計算出最優(yōu)量刑結(jié)果后,并不強制要求法官遵守,而是賦予了一定幅度的自由裁量空間,供法官酌情處理。具體而言,通常允許法官在系統(tǒng)給出量刑結(jié)果的一定百分比范圍內(nèi)予以量刑,這一百分比根據(jù)量刑要素的不同,被量刑輔助系統(tǒng)生產(chǎn)商預(yù)設(shè)為5%~30%之間。學(xué)界和實務(wù)界對這一比例設(shè)置普遍持肯定、接受態(tài)度,原因是這一比例符合司法裁判的實際,在量刑裁量權(quán)的“放與控”之間達(dá)成了科學(xué)的平衡。
對此,本文的總體看法是否定的。問題的關(guān)鍵不在于量刑輔助系統(tǒng)設(shè)置的自由裁量比例是否合適,而是人工智能系統(tǒng)及其生產(chǎn)商是否有權(quán)通過技術(shù)化方式限制法官的量刑裁量權(quán)。
首先,從法理上看,量刑裁量權(quán)的存在是必要的。一方面,量刑裁量權(quán)并不與罪刑法定原則相沖突,恰恰是量刑裁量權(quán)才使僵硬的刑法條文能夠不斷適應(yīng)時代對于打擊犯罪的差異化需求;另一方面,罪責(zé)刑相一致原則也需要量刑裁量權(quán)的保障,現(xiàn)代刑事司法在量刑問題上采取的是個別化、具體化的量刑策略,強調(diào)根據(jù)犯罪人本身的責(zé)任及預(yù)防需求,設(shè)定不同的刑罰以實現(xiàn)具體犯罪中的罪責(zé)刑相一致,這就要求法官享有一定的量刑裁量權(quán)以進(jìn)行精確化的刑罰裁斷[29]。
其次,量刑裁量權(quán)有多種規(guī)范形式。誠然,法官的量刑裁量權(quán)并非是無邊無際的,相反,為貫徹國家刑罰權(quán)的順利正確行使,裁量權(quán)有必要受到某種程度的規(guī)范[30]。但是,這并不必然意味著只能通過科技化手段進(jìn)行限制。相反,正如有研究指出,規(guī)范量刑裁量權(quán)完全可以采取諸如(1)完善刑事立法和司法解釋;(2)制定統(tǒng)一的量刑基準(zhǔn)與量刑指南;(3)刑事判例制度化;(4)法官量刑理由展示制度化;(5)建立量刑評價體系和完善法官考評制度等“法內(nèi)”方式達(dá)致[31]。尤其是法官量刑理由展示制度化對于規(guī)范量刑裁量權(quán)更具實踐價值。法官在多大程度上享有量刑的自由并不特別重要,重要的是這種量刑裁量必須通過可以復(fù)盤、復(fù)檢的方式予以記錄和展現(xiàn)。易言之,規(guī)范法官量刑裁量權(quán)的關(guān)鍵在于必須重視對這一裁量權(quán)正確行使的過程性論證,而非數(shù)學(xué)意義上對它予以武斷限制。
最后,即便需要在數(shù)學(xué)意義上對量刑裁量權(quán)進(jìn)行限制,有權(quán)的限制主體也并非科技公司。盡管科技公司設(shè)定的量刑調(diào)整幅度一方面是依據(jù)具體的法律、司法解釋、指導(dǎo)意見和指導(dǎo)性案例確定的;另一方面,這一比例設(shè)定在實踐中也得到了普遍的認(rèn)可。但是,問題在于科技公司是否有權(quán)進(jìn)行這一比例設(shè)置?換言之,結(jié)果意義上的正確不能論證程序意義上的合法。筆者認(rèn)為,如果認(rèn)可科技公司在其交付的面向法官量刑的智能系統(tǒng)中自行設(shè)置量刑裁量比例,則實際上是科技公司部分占有了本應(yīng)由國家司法權(quán)力壟斷的刑罰權(quán),只有如此,才能理解為何本應(yīng)由國家司法權(quán)力專屬的刑罰裁量權(quán),可以被科技公司的產(chǎn)品設(shè)定所控制。顯然這樣的預(yù)設(shè)是有問題的,一方面,國家無權(quán)通過所謂技術(shù)改造、信息化建設(shè)乃至司法改革的名義,非經(jīng)法定程序讓渡其專屬的刑罰權(quán);另一方面,科技公司作為量刑系統(tǒng)生產(chǎn)商,通過技術(shù)手段將其量刑主張“暗度陳倉”式地植入系統(tǒng)設(shè)定中,嚴(yán)格來看,實有僭越國家司法權(quán)力之嫌。
盡管對于人工智能輔助量刑的判斷能夠進(jìn)行有效的感知進(jìn)而加以辯論、 質(zhì)證, 但是, 也會出現(xiàn)難以對人工智能輔助量刑判斷結(jié)果進(jìn)行有效、 合理的科學(xué)評價的問題, 以致難以提出具有說服力的質(zhì)疑意見。
如何評價人工智能輔助量刑判斷的正誤?技術(shù)界與實務(wù)界往往使用“偏離度”概念作為評價標(biāo)準(zhǔn)。所謂“偏離度”,就是以人工智能輔助量刑判斷結(jié)果與“正確的”判斷結(jié)果進(jìn)行對比,驗證在量刑幅度上偏離“正確答案”的程度。然而,這樣的評價標(biāo)準(zhǔn)難謂科學(xué)。首先如何確定對比組?即如何確定所謂“正確答案”的組別。在人工智能輔助量刑系統(tǒng)訓(xùn)練時,往往以真實判決作為對照,以檢驗人工智能輔助量刑系統(tǒng)是否符合真實判決。在實踐中,一般以“有豐富審判經(jīng)驗”的法官的判決結(jié)果作為對比組,對人工智能量刑結(jié)果進(jìn)行偏離度評價。然而,這樣的評判具有一定的局限性。一方面,我們難以確定真實的判決、“有經(jīng)驗”的法官判決就一定是正確答案。在機器學(xué)習(xí)領(lǐng)域,最大的隱憂在于機器學(xué)習(xí)需要大量的“數(shù)據(jù)投喂”,但是,如果用于學(xué)習(xí)訓(xùn)練的數(shù)據(jù)本身有錯誤,則會不可避免地導(dǎo)致算法錯誤,即“垃圾(數(shù)據(jù))進(jìn),垃圾(結(jié)果)出(Garbage in, garbage out)”。另一方面,我們又如何確定人工智能算法給出的結(jié)果一旦偏離人類長期經(jīng)驗判斷,就一定是人工智能出錯?事實上,人工智能更深度的發(fā)展完全有可能改變?nèi)祟惖闹R結(jié)構(gòu),進(jìn)而帶來新的“知識進(jìn)化”,改變?nèi)祟愰L久以來的思維習(xí)慣[32]。如果我們評價人類智能輔助量刑不可避免地返回到人類經(jīng)驗本身,那么,為什么我們還要建立這套不如司法傳統(tǒng)經(jīng)驗的判斷系統(tǒng)呢?顯然,這一評價基準(zhǔn)存有不可克服的邏輯矛盾。
即便肯定以人的經(jīng)驗為標(biāo)準(zhǔn)可以正確評價人工智能輔助量刑系統(tǒng)的正誤,那么,“偏離度”如何測算仍然是一個充滿爭議的話題。目前,在評價“偏離度”時主要是“量的偏離”(4)如要求人工智能輔助量刑的判斷結(jié)果的偏離度在若干百分比之下,顯然只能進(jìn)行量的比較而不可能進(jìn)行質(zhì)的比較。。即從罰金數(shù)量、限制自由時間(刑期)等客觀量上進(jìn)行偏離度評價??蓡栴}是,刑罰不僅僅是量的計算,還有質(zhì)的計算。首先,刑種之間是難以計算“量的偏離”的。例如六個月的有期徒刑與六個月的拘役,在量的比較上甚至在刑罰本身的執(zhí)行上都沒有太大區(qū)別,但是,在刑法意義上卻有天壤之別。其次,同一刑種內(nèi)部由于緩刑的存在,也難以衡量“量的偏離”。比如三年有期徒刑和四年有期徒刑真的只是一年時間的“量”上差別嗎?前者可以適用緩刑而后者不可能適用,這一區(qū)別可能從“量”上看并不顯著,但是對于具體犯罪人而言則是云泥之別。最后,有些刑罰本身不具備“量”的比較可能性。例如,死刑作為剝奪生命的最嚴(yán)厲刑罰,它不可能與任何刑罰進(jìn)行“量”的比較,事實上也不可能進(jìn)行“質(zhì)”的比較。而死刑緩期兩年執(zhí)行也不可能與無期徒刑、有期徒刑進(jìn)行簡單的“量”的比較。
綜上所述,由于對人工智能輔助量刑系統(tǒng)的判斷結(jié)果難以進(jìn)行科學(xué)的評價,這導(dǎo)致對其糾錯與救濟(jì)難以提供有效憑據(jù),直接影響著人工智能輔助量刑在實踐中的規(guī)范應(yīng)用,增加了司法錯誤的可能性。
梳理、分析人工智能輔助量刑在實體、程序與評價上的諸多問題,并不意味著對它的全面否定。事實上,法律人工智能仍大有可為,只是需要進(jìn)行一定的修正與規(guī)范。據(jù)前所論,本文提出如下對策建議,以期保障人工智能輔助量刑未來健康、合法發(fā)展。
在理論上,由于難以明確劃分定罪要素與量刑要素,甚或出現(xiàn)量刑要素重復(fù)評價、“二重懲罰”的問題,在人工智能輔助量刑中應(yīng)予避免。人工智能輔助量刑的邏輯基礎(chǔ)在于“類案類判”,其判斷思維本身也是在海量案件中抽取最相似案件進(jìn)行分析,為待決案件提供量刑參考意見。這也就意味著只要有了“類案系統(tǒng)”,也就能大部分實現(xiàn)人工智能輔助量刑的功能。在實踐中,如上海“206工程”推出的全國首個智能輔助刑事辦案系統(tǒng),其量刑部分的原理也是自動推送相似案例,有效抓取案件核心要素,為辦案人員提供合理的量刑建議??梢钥闯?人工智能輔助量刑是類案系統(tǒng)應(yīng)用的一個主要方面,而非獨立方面。
依附于類案系統(tǒng)而非獨立設(shè)置、獨立運行的人工智能輔助量刑系統(tǒng),可以避免重復(fù)評價的問題。類案推送本身是對案件定罪與量刑的綜合分析,可以滿足前述量刑中“乘積式”的非線性思維模式的要求,避免僅僅通過簡單區(qū)分定罪與量刑、責(zé)任與預(yù)防進(jìn)行線性運算從而得出量刑結(jié)果。同時,也可以淡化人工智能輔助量刑建議的“錨定效應(yīng)”,讓司法人員的判斷重心在于“類案”而非“類判”。類案系統(tǒng)提示的也只是一種概率而非定值,更有助于充分發(fā)揮審判者的裁量權(quán)。申言之,類案系統(tǒng)最終推送給審判者的并非一個確定的刑罰數(shù)值或均值,而是一種全國審判的概率性趨勢,意即類似的案件在其他法官那里大概率會如此判決。提示概率相較提示確定值的優(yōu)越性在于,概率只是一種趨勢,趨勢本身只能表明一種總體分布狀況,而不能證成這一分布的正確性。如前所述,目前人工智能輔助量刑的正誤評價還難以尋求科學(xué)的判斷標(biāo)準(zhǔn),其正確性仍然存有疑問。此時,不妨轉(zhuǎn)換思維,不再強求人工智能輔助量刑的絕對正確,而只令其提示量刑的概率分布,最終的量刑決策權(quán)仍然交由法官獨立行使,將作出正確裁判的權(quán)力交還給審判者。與此同時,司法人員也要充分意識到,包括人工智能輔助量刑系統(tǒng)在內(nèi)的所有法律人工智能都只是一個服務(wù)者、參謀者和建議者,它只能表達(dá)可能的概率而非正確的概率。正確裁判的榮耀與錯誤裁判的責(zé)任最終仍由審判者本人承擔(dān)。
現(xiàn)有調(diào)研資料表明,盡管從官方層面看,人工智能輔助量刑系統(tǒng)只是一種輔助手段,法官仍應(yīng)充分研判案件,最終量刑裁判權(quán)仍由法官掌握。但是,實際上很難如此。一方面,部分司法機關(guān)將量刑輔助系統(tǒng)的量刑建議視為“標(biāo)準(zhǔn)答案”,并將其應(yīng)用于錯案追究、司法責(zé)任承擔(dān)等方面,導(dǎo)致司法人員不敢輕易修正量刑系統(tǒng)所給出的結(jié)論。另一方面,出于現(xiàn)代人類對科學(xué)技術(shù)的“迷信”,被視為現(xiàn)代科技前沿的人工智能,它所作出的判斷對于司法人員也具有一定的“心理強制力”。
如前所述,將人工智能輔助量刑定位于強制裁判機制是不妥當(dāng)?shù)?。在未?量刑輔助應(yīng)重新定位為司法人員的注意力提示機制。
首先,量刑輔助所給出的結(jié)論并不具有強制效力,也不應(yīng)在錯案追究中以此為判斷依據(jù)。在個案處理中量刑輔助僅具有提示性、建議性功能。
其次,在案件裁斷上,量刑輔助用以提示司法人員注意其量刑的整體偏差,但這一偏差并不當(dāng)然意味著當(dāng)下具體司法裁判的錯誤。
最后,在具體量刑情節(jié)的處理中,量刑輔助用以提示司法人員注意各量刑情節(jié)的存在,避免司法人員不當(dāng)遺漏量刑情節(jié),或?qū)α啃糖楣?jié)作出過分偏離司法常態(tài)的處理。
由于目前技術(shù)的限制,“算法黑盒”短期內(nèi)還無法實現(xiàn)有效的透明化,但人工智能輔助量刑與類案系統(tǒng)的應(yīng)用又不可能按下暫停鍵,于是,我們必須在現(xiàn)實中尋求技術(shù)性的平衡。確立人工智能輔助量刑應(yīng)用的可識別性與商談性,為暫時性地解決“算法黑盒”困境提供了一種可能路徑。
可識別性與商談性就是強調(diào)在刑事審判中,如果意圖使用人工智能輔助量刑,則必須提示刑事訴訟中的當(dāng)事人——尤其是被告人及其辯護(hù)人,并且征得他們的同意。換言之,是否使用人工智能輔助量刑,一方面必須令訴訟雙方可識別;另一方面,在可識別的基礎(chǔ)上,決定是否使用人工智能輔助量刑的權(quán)利應(yīng)當(dāng)由訴訟當(dāng)事人而非審判者享有。在司法實踐中,由于公訴機關(guān)也大面積使用人工智能輔助量刑系統(tǒng),借此生成量刑建議。而公訴機關(guān)和審判機關(guān)的系統(tǒng)底層設(shè)計往往一致,雙方的量刑結(jié)果可能具有高度重合性,可以預(yù)見公訴機關(guān)對于是否使用系統(tǒng)量刑不會產(chǎn)生太多質(zhì)疑。但從審判參與的角度看,量刑后果的實際承擔(dān)者是被告人,因此,從程序權(quán)利合理分配的角度看,決定是否使用人工智能輔助量刑的權(quán)利主要應(yīng)由被告人享有。在規(guī)范層面,首先,公訴機關(guān)在使用人工智能輔助量刑系統(tǒng)生產(chǎn)量刑建議時,應(yīng)當(dāng)向被告人及其辯護(hù)人告知,讓他們能夠充分了解系統(tǒng)量刑的可能結(jié)果。其次,在審判中,如果法官希望使用人工智能輔助量刑系統(tǒng),應(yīng)當(dāng)告知被告人及其辯護(hù)人,他們享有使用與否的決定權(quán)。最后,對于不認(rèn)罪的犯罪嫌疑人、被告人,一律不得預(yù)先使用人工智能輔助量刑系統(tǒng),必須先進(jìn)行罪與非罪的判斷后再進(jìn)行量刑,以免法官受到不當(dāng)信息的干擾,避免出現(xiàn)“以刑制罪”的情形。
由于可能存在人工智能輔助量刑錯誤,故必須確保對它的可救濟(jì)性。換言之,就是必須建立規(guī)范化的糾錯機制以發(fā)現(xiàn)并糾正人工智能輔助量刑可能出現(xiàn)的錯誤。規(guī)范化的人工智能輔助量刑救濟(jì)措施應(yīng)當(dāng)包括以下內(nèi)容:
首先, 在刑事審判中如果使用人工智能輔助量刑, 必須記錄在裁判文書之中, 并且闡明裁判者依據(jù)系統(tǒng)作出量刑裁判的心證過程。 不得以簡單的“系統(tǒng)告訴我怎么做, 我就怎么做”的機械思維進(jìn)行量刑, 也不能以任何理由不對量刑進(jìn)行裁判說理。 如果能闡明量刑系統(tǒng)原理和推送的參考類案, 應(yīng)當(dāng)將系統(tǒng)原理和以供參考的類案一并附錄于裁判文書之中, 供被告人、 辯護(hù)人及救濟(jì)程序中的審查人員復(fù)核檢驗。
其次,必須載明所使用的人工智能輔助量刑系統(tǒng)及其開發(fā)商,在對量刑系統(tǒng)的科學(xué)性產(chǎn)生合理懷疑時,可以通過鑒定或?qū)<逸o助人的方式對系統(tǒng)原理進(jìn)行查驗、質(zhì)詢和作證;系統(tǒng)開發(fā)商有義務(wù)對其量刑系統(tǒng)的工作原理、邏輯和科學(xué)性提供證明,以免部分技術(shù)精英有意牽引司法運作,企圖重塑我國司法權(quán)力分布[7]。同時,建立法律人工智能企業(yè)“黑名單”制度。對于開發(fā)不合格法律人工智能系統(tǒng)、導(dǎo)致冤假錯案等嚴(yán)重后果發(fā)生的開發(fā)商,除追究系統(tǒng)開發(fā)商相應(yīng)責(zé)任以外,還應(yīng)將其載入“黑名單”,全國司法系統(tǒng)在一定時期內(nèi)或永久不再采購該開發(fā)商的產(chǎn)品。
最后, 被告人可以就不合理使用法律人工智能系統(tǒng)提出專門的二審審查請求; 同時, 也應(yīng)當(dāng)將“可能存在不合理使用法律人工智能系統(tǒng)的情形”列為刑事再審事由, 在相應(yīng)的救濟(jì)程序中予以審查、 救濟(jì)。