鄭 曦 顧佳浩
人工智能“忽如一夜春風(fēng)來”般地在司法領(lǐng)域成了高頻熱搜詞,運(yùn)用人工智能技術(shù)似乎成了一種潮流甚至?xí)r尚,許多國家和地區(qū)的法院都對司法智能化的議題充滿熱忱。所謂人工智能,其核心內(nèi)容一是令機(jī)器做人類所能做之事,甚至比人類做得更好,二是令機(jī)器理解由人類或機(jī)器甚至其他動(dòng)物做出的智能化行為,(1)Nils J. Nilsson, Artificial Intelligence: A New Synthesis, Morgan Kaufmann Publisher, Inc., 1998, p.1-2.然而當(dāng)前司法實(shí)踐領(lǐng)域所運(yùn)用的“人工智能”技術(shù)是否能夠?qū)崿F(xiàn)這兩方面的內(nèi)容尚值得研究。即便其達(dá)到此種智能化水平,運(yùn)用人工智能技術(shù)也會(huì)給司法裁判帶來一系列難題,特別是當(dāng)其被用于刑事案件的量刑時(shí),不但影響法官行使裁判權(quán),更直接關(guān)系到被告人的生命、自由、財(cái)產(chǎn)等最重要法益,豈可不慎?面對人工智能量刑給原有的刑事司法制度帶來的沖擊和挑戰(zhàn),雖不必抵觸抗拒,卻需細(xì)致考慮人工智能量刑是否能實(shí)現(xiàn)目的與效果的同一、是否存在技術(shù)障礙和法律風(fēng)險(xiǎn)等具體問題,從而依照司法的基本規(guī)律和原則規(guī)制人工智能量刑,實(shí)現(xiàn)對司法公正、權(quán)利保障等核心價(jià)值的正向保障。
在刑事量刑中引入人工智能的直接目的在于應(yīng)對案件積壓問題,并以人工智能技術(shù)的選擇性替代和智能優(yōu)化幫助法官及時(shí)地定紛止?fàn)?,以提升司法?shí)踐的效率和便捷性。而在美國盧米斯訴威斯康星州案中,法院對于借助人工智能技術(shù)進(jìn)行量刑采取了謹(jǐn)慎保守的態(tài)度。(2)Loomisv.Wisconsin,881N.W.2d749(2016).該案的核心在于法院在量刑時(shí)使用的一種基于證據(jù)的風(fēng)險(xiǎn)評(píng)估工具COMPAS是否侵犯了被告人享有正當(dāng)程序的權(quán)利。州法院認(rèn)為,在決定適用刑罰時(shí)應(yīng)該使用COMPAS的報(bào)告,主要基于以下三個(gè)主要因素:犯罪的嚴(yán)重性、犯罪的性質(zhì)和保護(hù)公眾的需要。然而,法院對于評(píng)估如何分析風(fēng)險(xiǎn)的信息掌握有限,無法滿足COMPAS的適用前提。此外,盧米斯指出,法院在判決時(shí)使用COMPAS風(fēng)險(xiǎn)評(píng)估,侵犯了被告的正當(dāng)程序權(quán)利,理由有三:第一,非基于準(zhǔn)確信息判處刑罰,剝奪了被告的正當(dāng)權(quán)利,此與風(fēng)險(xiǎn)評(píng)估工具的專營性不無關(guān)系;第二,巡回法院對COMPAS風(fēng)險(xiǎn)評(píng)估的考慮,相當(dāng)于根據(jù)群體數(shù)據(jù)作出判決,而不是根據(jù)指控和被告的獨(dú)特性格作出個(gè)別判決,侵犯被告獲得個(gè)別化量刑的權(quán)利;第三,在量刑中不當(dāng)使用性別評(píng)估,嚴(yán)重違反了被告不以性別為基礎(chǔ)進(jìn)行判刑的正當(dāng)程序權(quán)利。盡管如此,法院在最終的裁判結(jié)論中仍然堅(jiān)持認(rèn)為量刑時(shí)對COMPAS風(fēng)險(xiǎn)評(píng)估的考慮不會(huì)侵犯被告的正當(dāng)程序權(quán)利。該案的判決引發(fā)了許多爭議,有學(xué)者認(rèn)為:一方面,人工智能在量刑中的運(yùn)用仍可能侵犯被告知情、不受偏見、有效辯護(hù)、平等對抗等權(quán)利;另一方面,人工智能在使司法高效便捷的同時(shí),也再次敲響了司法裁判保障被告人憲法性權(quán)利、呵護(hù)公平正義的警音。
我國法院在量刑中積極運(yùn)用人工智能技術(shù)。2017年,上海高院研發(fā)了一套智能輔助辦案系統(tǒng),又名“206系統(tǒng)”。(3)嚴(yán)劍漪:《揭秘“206”:法院未來的人工智能圖景——上海刑事案件智能輔助辦案系統(tǒng)164天研發(fā)實(shí)錄》,《人民法治》,2018年第2期,第38頁。作為一套推進(jìn)以審判為中心的訴訟制度改革軟件,“206系統(tǒng)”吸取了以往重大冤假錯(cuò)案中普遍存在的事實(shí)不清、證據(jù)不足等教訓(xùn),既能解決刑事案件證據(jù)標(biāo)準(zhǔn)適用不統(tǒng)一、辦案程序不規(guī)范等問題,又可充分發(fā)揮系統(tǒng)自身的校驗(yàn)、把關(guān)和監(jiān)督功能,確保證據(jù)鏈的印證和各訴訟階段的程序合規(guī),提升辦案質(zhì)量,減少司法任意性。此外,隨著“智慧法院”和互聯(lián)網(wǎng)法院的逐步建成,各地的人工智能辦案輔助工具亦紛紛涌現(xiàn)。(4)例如北京的“睿法官”、江蘇的“法務(wù)云”、河北的“智審”、重慶的“法治云”等。在文書導(dǎo)出、證據(jù)相似情況案件推送、辦案程序監(jiān)督、社會(huì)危險(xiǎn)性審查、檢查監(jiān)督、量刑建議參考乃至未來的證據(jù)校驗(yàn)、非法言詞證據(jù)排除等司法實(shí)踐中,都離不開人工智能的輔助。我國積極開發(fā)和運(yùn)用人工智能辦案輔助系統(tǒng),不論在推進(jìn)案件繁簡分流、提高審判效率方面,還是在幫助法官采信證據(jù)、促進(jìn)裁判公平正義方面,人工智能都具有舉足輕重的作用。盡管如此,此前早就有學(xué)者指出,電腦量刑固然能在很大程度上排除在行使自由裁量權(quán)方面的主觀任意性,同時(shí)也會(huì)排除諸如自然法、人權(quán)保障、“有恥且格”、預(yù)防為主之類的思辨性要素,還傾向于排除對各種不同利益進(jìn)行權(quán)衡、考量等的政策性調(diào)整機(jī)制。(5)季衛(wèi)東:《電腦量刑辯證觀》,《中國政法大學(xué)學(xué)報(bào)》,2007年第1期,第126頁。因此,對于人工智能取代人類司法職能的固有風(fēng)險(xiǎn)須予以警惕。
值得注意的是,上述智能輔助辦案系統(tǒng)、“智慧法院”和互聯(lián)網(wǎng)法院建設(shè)等概念是人工智能在司法中的具體表現(xiàn),兩者是一般與個(gè)別、抽象與具象的關(guān)系,而人工智能量刑又是前述概念在量刑方面的具體運(yùn)用,兩者是整體與部分、系統(tǒng)與要素的關(guān)系。因此,只有在對人工智能量刑的內(nèi)涵和外延合理界定的基礎(chǔ)上,才能更精準(zhǔn)地把握人工智能在司法運(yùn)用中的脈絡(luò)和初衷。
人工智能量刑的目的在于:其一,公正是人工智能量刑的根本追求。通過人工智能辦案輔助系統(tǒng)的類案推送等功能,法官可以有效對比個(gè)案事實(shí)下的證據(jù)鏈完整度和印證情況,并酌情考量人工智能提供的類案情況下相似的量刑參考依據(jù),從而解決實(shí)踐中普遍存在的“同案不同判”情形,最終促進(jìn)和增強(qiáng)司法裁判的公正性和社會(huì)可接受性。其二,效率是人工智能量刑的首要著眼點(diǎn)。隨著“以數(shù)據(jù)為中心的人民法院信息化3.0版本”(6)根據(jù)2016年2月22日最高人民法院召開專題會(huì)議研究通過的《人民法院信息化建設(shè)五年發(fā)展規(guī)劃(2016—2020)》《最高人民法院信息化建設(shè)五年發(fā)展規(guī)劃(2016—2020)》。的智慧型法院時(shí)代的到來,加之司法實(shí)踐中“案多人少”的矛盾日益凸顯,法院在內(nèi)生動(dòng)力和外生動(dòng)力的共同作用下,尤需借助人工智能的辦案輔助功能來處理法官在審理案件前和裁判過程中的技術(shù)性操作活動(dòng),從而節(jié)省更多的時(shí)間和精力來進(jìn)行審判中心環(huán)節(jié)的自由裁量,并實(shí)施更加精準(zhǔn)的量刑推算,最終達(dá)到相同時(shí)間下處理更多、更高質(zhì)量的案件糾紛之目的,有效緩和人案矛盾。
然而,從司法實(shí)踐的實(shí)際效果來看,良善的初衷并非能夠順利地如愿以償。如同前述盧米斯案所示,一方面,COMPAS工具確然在幫助法官評(píng)估被告的量刑和人身危險(xiǎn)性方面具有一定的科學(xué)性、便捷性和可操作性,從而在一定程度上提高了法官作出司法判決的效率。但在另一方面,正是由于技術(shù)尚欠成熟的人工智能風(fēng)險(xiǎn)評(píng)估工具在裁判量刑中的使用而引發(fā)了新一輪的訴訟,從訴訟過程整體的周期和損耗的人力、物力、財(cái)力來看,又損害了案件爭議解決的效率。此外,人工智能量刑技術(shù)背后的算法不公開、采樣不均衡、偏見性植入等因素,都會(huì)直接或間接地影響被告人辯護(hù)權(quán)的有效實(shí)現(xiàn),乃至克減其憲法性權(quán)利,并容易致使法官忽略個(gè)案中的特殊性,僅僅根據(jù)人工智能推送的一般大數(shù)據(jù)樣本草率定論,最終有損實(shí)質(zhì)意義上的公平正義。在我國對人工智能量刑推崇備至的當(dāng)下,更是容易催生出唯“人工智能”是瞻的反客為主現(xiàn)象,顛倒法官裁判是主、人工智能是輔的職能配置關(guān)系。因此,面對人工智能量刑在應(yīng)然目標(biāo)和實(shí)然走向之間的鴻溝,我們尤其要警惕當(dāng)前人工智能量刑的技術(shù)障礙與法律風(fēng)險(xiǎn)。
透視當(dāng)前司法實(shí)踐中的人工智能量刑現(xiàn)狀,可發(fā)現(xiàn)其背后的技術(shù)障礙和法律風(fēng)險(xiǎn)。這些障礙和風(fēng)險(xiǎn)會(huì)對法官的審判權(quán)和當(dāng)事人的合法權(quán)利等產(chǎn)生重大影響。因此,有必要對此進(jìn)行深入分析,并對人工智能技術(shù)在量刑領(lǐng)域的研發(fā)與運(yùn)用持更加審慎的態(tài)度。
首先,人工智能量刑存在“低智能”障礙。人工智能技術(shù)已經(jīng)駛?cè)肟燔嚨?,但這并不意味著其足以與人類理性頭腦等同并驅(qū),乃至取代法官的裁判量刑職能,并與之相提并論。相反,當(dāng)前的人工智能在很多方面仍然表現(xiàn)為“低智能”,而這種人工“低智能”量刑或?qū)⒃斐傻腻e(cuò)誤判決不僅反映著自身技術(shù)意義上的不完全可靠,它還意味著以公民的生命、自由、財(cái)產(chǎn)、隱私等重要法益為代價(jià),影響量刑裁判本身的公平正義。正如有學(xué)者指出,司法大數(shù)據(jù)和人工智能開發(fā)還存在圖譜構(gòu)建、情節(jié)提取、模型訓(xùn)練等技術(shù)性障礙,應(yīng)當(dāng)冷靜反思當(dāng)前過熱的司法技術(shù)主義熱潮。(7)王祿生:《司法大數(shù)據(jù)與人工智能開發(fā)的技術(shù)障礙》,《中國法律評(píng)論》,2018年第2期,第50-52頁。具體而言,第一,從法律知識(shí)圖譜的構(gòu)建來看,人工智能辦案輔助系統(tǒng)尚不足以涵蓋所有的法律案件類型。盡管人工智能可以通過深度學(xué)習(xí)將但凡可獲取的案件都納入自己的數(shù)據(jù)庫中,但是,案件類型紛繁復(fù)雜,實(shí)在難以窮盡式地學(xué)習(xí),而且目前尚有許多裁判文書不上網(wǎng),因而并沒有進(jìn)入人工智能深度學(xué)習(xí)的視野之中。第二,從法律語言的情節(jié)提取來看,由于文義表達(dá)的多樣性,人工智能不熟悉法律語言的一詞多義表達(dá)習(xí)慣,往往會(huì)在案件情節(jié)檢索過程中發(fā)生遺漏。例如犯罪嫌疑人、被告人認(rèn)罪認(rèn)罰,除了“認(rèn)罪”“認(rèn)罰”等字眼表述,還可以有“主動(dòng)供述”“接受刑罰”“達(dá)成協(xié)議”“簽署具結(jié)書”等陳述方式,而人工智能目前尚難以自動(dòng)在這些詞語之間架起關(guān)聯(lián)。第三,從司法人工智能的既有模擬訓(xùn)練來看,其能夠正確輔助司法量刑的前提在于樣本文書的實(shí)質(zhì)正確。即使人工智能可以對當(dāng)前所有的樣本文書進(jìn)行窮盡式學(xué)習(xí),但由于冤假錯(cuò)案樣本文書的必然存在,而人工智能只能進(jìn)行機(jī)械式的輸入和輸出,無法對樣本文書自身的正確與否采取價(jià)值上的考量和判斷。既然其無法做到對錯(cuò)案的識(shí)別,那么在類案推送的情況下,就極有可能釀成“復(fù)使舊冤造新冤”的局面。
其次,人工智能量刑存在封閉性和秘密性的不足。人工智能工具雖被賦予“辦案輔助系統(tǒng)”之定位,但在實(shí)際的司法操作過程中,由于算法“暗箱”的存在,往往難以同法官的審判職能進(jìn)行分工疏離。具言之,第一,人工智能量刑具有不公開的特點(diǎn)。由于人工智能量刑的技術(shù)研發(fā)往往都被外包給專業(yè)的科技公司來完成,因而自身具有專營性,涉及各個(gè)科技公司的商業(yè)秘密,其背后所代表的商業(yè)利益和專利權(quán)直接決定了算法公開的不可行性。而人工智能量刑技術(shù)研發(fā)所依賴的算法代碼如同司法制度中現(xiàn)存的“二元副卷”、庭審評(píng)議、審委會(huì)審判等制度悖論一樣,但凡不經(jīng)法定的公開和監(jiān)督,那么借以作出的量刑裁判的可接受性就勢必會(huì)受到質(zhì)疑,最終損害司法權(quán)威和裁判的公平正義。第二,裁判的不公開性可能衍生出科技公司在商業(yè)利益驅(qū)使下對法官的欺騙性。既然人工智能量刑的算法代碼不能被公之于眾,甚至連法官自己也無從知曉,那么類案推送和量刑的依據(jù)又是什么?如若不能打開這一“黑匣子”,法官又何以能作出令人信服的量刑裁判?甚至有理由懷疑,人工智能量刑只是一個(gè)巧立名目的商業(yè)幌子,科技公司極有可能只是為了包裝自己的人工智能產(chǎn)品而造了個(gè)噱頭,最終蒙蔽了法官的眼睛,也扭曲了民眾心目中正義的天平。
最后,人工智能量刑存在群體數(shù)據(jù)缺陷。大數(shù)據(jù)和算法是人工智能得以運(yùn)用于裁判量刑的邏輯前提,而算法的基礎(chǔ)是數(shù)據(jù),基于錯(cuò)誤的或者不準(zhǔn)確的數(shù)據(jù),進(jìn)行算法決策,得出的結(jié)論自然是錯(cuò)誤的、有偏差的,(8)周游:《我國亟待建立人工智能算法審查機(jī)制》,《中國計(jì)算機(jī)報(bào)》,2018年5月14日。因而采樣的范圍和方法直接決定了人工智能量刑的質(zhì)量和效果。質(zhì)言之,一旦人工智能辦案輔助系統(tǒng)的數(shù)據(jù)庫中充斥著帶有倫理性、制度性偏見的樣本,那么對于法官來說,其一,在依靠人工智能進(jìn)行量刑裁判的過程中,勢必會(huì)受到數(shù)據(jù)庫中預(yù)采樣本的影響,從而偏離對本案被告的個(gè)別化判斷,相當(dāng)于通過數(shù)據(jù)樣本的選擇架空了個(gè)案裁量,間接剝奪了法官的專屬定罪量刑權(quán)。其二,對于被告人來說,根據(jù)群體數(shù)據(jù)而非根據(jù)指控和被告的獨(dú)特性作出個(gè)別化的量刑判決,極有可能會(huì)產(chǎn)生潛在的誤解。例如,一個(gè)從未有過暴力犯罪的人,僅僅因?yàn)槿斯ぶ悄芄ぞ咭罁?jù)一般群體特征所得出的結(jié)論,認(rèn)定該被告的人格特質(zhì)具有暴力犯罪的高度人身危險(xiǎn)性,忽略該案被告人所在案件的特殊性、案情的復(fù)雜性、證據(jù)的多樣性等因素,就會(huì)造成對被告人量刑裁判的實(shí)質(zhì)性不公,客觀上強(qiáng)令其為多數(shù)人之“惡”埋單。因此,從這個(gè)角度來看,法官對被告作出量刑裁判仍需倚仗控辯雙方向法庭提供更加完整的信息,人工智能量刑在尚未克服其群體數(shù)據(jù)這一缺陷之前,只是作為一個(gè)必要但不充分的判斷要素存在。
首先,人工智能量刑會(huì)沖擊公正價(jià)值。法院一方面積極地卷入追求人工智能的司法狂熱,享受人工智能量刑帶來的智能便捷,另一方面恰因這種狂熱而愈發(fā)陷入對高效司法的片面追求之中,因而量刑裁判的公正價(jià)值正面臨來自效率價(jià)值的風(fēng)險(xiǎn)沖擊,增加了審判的不確定性。除此之外,更值得警惕的是,人工智能內(nèi)含的算法代碼本身就可能損害公正。盡管算法是一套客觀獨(dú)立出來的規(guī)則程式,但其在誕生之初不免帶有代碼設(shè)計(jì)者的主觀價(jià)值預(yù)斷,而這種主觀預(yù)斷所衍生出來的或隱或顯的偏見或歧視,一旦加入特定人工智能程序而運(yùn)用于量刑判斷,則可能在運(yùn)用此種模式化程序大大加快案件審理進(jìn)程的同時(shí)導(dǎo)致對實(shí)體公正的損害,甚至導(dǎo)致錯(cuò)誤裁判,最終影響司法權(quán)威。
其次,人工智能量刑會(huì)影響法官的自由心證。其一,量刑是一個(gè)由法官來動(dòng)態(tài)權(quán)衡的過程,包含大量的邏輯推導(dǎo)和論證說理等思維過程。但是,一旦將量刑的重任呈交給機(jī)器,那么,人工智能量刑勢必會(huì)走向機(jī)械化,其模式類似于中世紀(jì)的法定證據(jù)制度。因而,法官在進(jìn)行心證的過程中,難免會(huì)受到機(jī)器刻度化量刑的影響,進(jìn)而向這一機(jī)械式結(jié)果靠攏。其二,雖然人工智能辦案輔助系統(tǒng)是一個(gè)沒有感情的機(jī)器,但是程序員在編寫算法代碼的過程中,難免會(huì)植入自身的情感、倫理、價(jià)值觀等主觀因素,進(jìn)而在某種程度上形成一種偏見,而這種偏見會(huì)影響乃至取代法官的心證判斷,最終造成附著在算法代碼上的第三方偏見僭越法官的專屬審判權(quán)。其三,對于被告人來說,可能受到二次傷害。其量刑要先受到來自算法代碼的偏見審視,后經(jīng)法官有意無意的裁斷肯認(rèn),使得先前的歧視得到鞏固,進(jìn)而以算法決策的方式損害規(guī)則適用的公正性,最終甚至擴(kuò)大刑事司法的不公正。(9)黃京平:《刑事司法人工智能的負(fù)面清單》,《探索與爭鳴》,2017年第10期,第88頁。其四,由于法院不具備研發(fā)人工智能量刑工具的能力,因此在實(shí)踐中只能采取大量外包的做法,由科技公司或程序員來負(fù)責(zé)研發(fā)并投入使用,至此便產(chǎn)生了機(jī)器量刑和法官量刑之間的博弈,甚至法官心證所受人工智能的影響只能是單向性的,既使得人工智能量刑的影響力更勝一籌,亦造成法官無法對電腦量刑采取有效的監(jiān)督。(10)程凡卿:《我國司法人工智能建設(shè)的問題與應(yīng)對》,《東方法學(xué)》,2018年第3期,第121頁。
最后,人工智能量刑會(huì)減損當(dāng)事人的訴訟權(quán)利、隱私權(quán)和個(gè)人信息權(quán)。算法“黑匣子”的存在使得法官成為了一個(gè)“強(qiáng)橫”的裁判者,特別是在法官自己也無從知曉人工智能算法為何的情形下,保障被告人的知情權(quán)更是天方夜譚。一旦被告人無從得知人工智能量刑的計(jì)算和判別依據(jù),那么被告的不知情將會(huì)直接導(dǎo)致辯方無法進(jìn)行有效的辯護(hù),進(jìn)而庭審的控辯審三角結(jié)構(gòu)發(fā)生失衡,最終損害被告人的一系列訴訟權(quán)利,乃至影響量刑裁判的公平正義和可接受性。此外,對于被人工智能量刑工具收集個(gè)人信息的被告人而言,還存在著隱私權(quán)和信息權(quán)被侵犯的隱患。隱私強(qiáng)調(diào)的是一種私生活的安寧,而個(gè)人信息更強(qiáng)調(diào)姓名、身份證、住址等身份信息的可供識(shí)別,(11)李永軍:《論〈民法總則〉中個(gè)人隱私與信息的“二元制”保護(hù)及請求權(quán)基礎(chǔ)》,《浙江工商大學(xué)學(xué)報(bào)》,2017年第3期,第14頁。此為根據(jù)兩者不同的請求權(quán)基礎(chǔ)而作二元?jiǎng)澐?。因此,人工智能量刑工具在司法適用的過程中,既有可能因?yàn)樗鸭⑹褂孟惹鞍讣桓嫒说纳矸菪畔⒍址钙鋫€(gè)人信息權(quán),亦有可能因?yàn)闄z索到的案件情節(jié)、內(nèi)容涉及個(gè)人私生活而侵犯其隱私權(quán),尤其發(fā)生在當(dāng)前被告人不存在對涉刑案件所搜集的個(gè)人信息主張救濟(jì)權(quán)利的情況之下。
人工智能用于量刑,和其他任何科技手段運(yùn)用于司法一樣,必然會(huì)對既有的司法制度造成影響。針對上文所述的問題和挑戰(zhàn),可以就客觀地看待人工智能量刑的技術(shù)局限和價(jià)值追求,妥善處理人工智能與法官量刑權(quán)的關(guān)系,嚴(yán)格保障被告人的正當(dāng)程序權(quán)利,適當(dāng)兼顧當(dāng)事人隱私權(quán)和個(gè)人信息權(quán)等幾方面著手進(jìn)行解決。
在科技快速發(fā)展的今天,人工智能等新技術(shù)運(yùn)用于量刑等刑事司法活動(dòng),從某種意義上看是一種必然趨勢,如果運(yùn)用得當(dāng)則能夠幫助法官作出迅速、準(zhǔn)確的量刑。因此,在量刑的問題上大可不必“閉關(guān)自守”而排斥人工智能等新技術(shù)的使用。但是另一方面,當(dāng)前的人工智能技術(shù)畢竟處在“低智能”“弱智能”的發(fā)展階段,甚至有一些“偽智能”產(chǎn)品充斥其中。此外,人工智能技術(shù)的開發(fā)與其他任何科學(xué)技術(shù)的發(fā)展一樣,是以一定的錯(cuò)誤率或失敗率為代價(jià)的,但是如上文所述,刑事案件的量刑直接涉及被告人的生命、自由、財(cái)產(chǎn)等最重要法益,也關(guān)系到刑事司法能否守住“社會(huì)公平正義的最后一道防線”,(12)習(xí)近平:《關(guān)于〈中共中央關(guān)于全面推進(jìn)依法治國若干重大問題的決定〉的說明》,《人民日報(bào)》,2014年10月29日。而司法制度是無法承受與科技開發(fā)一樣的錯(cuò)誤率和失敗率的。因此,對于人工智能量刑仍應(yīng)保持審慎的態(tài)度,在運(yùn)用人工智能量刑時(shí),不但要認(rèn)真甄別不同產(chǎn)品的智能化程度,而且應(yīng)謹(jǐn)慎選擇經(jīng)過嚴(yán)格科學(xué)檢驗(yàn)且技術(shù)成熟的人工智能產(chǎn)品。
在確保用于量刑的人工智能產(chǎn)品技術(shù)層面的可靠性之外,在運(yùn)用人工智能量刑的價(jià)值取向上,除了承認(rèn)其具有提高司法效率的功利性價(jià)值之外,更需強(qiáng)調(diào)對于保障司法公正和保護(hù)公民權(quán)利的追求。公正是司法的生命線,是司法制度存在的根本正當(dāng)性基礎(chǔ)。對于刑事司法而言,公正永遠(yuǎn)是高于效率的第一價(jià)值,即便是以追求司法效率為驅(qū)動(dòng)力的人工智能量刑也不能違背“公正優(yōu)先、兼顧效率”的司法原理。倘若在個(gè)案的量刑中運(yùn)用人工智能技術(shù)可能導(dǎo)致對司法公正的威脅,特別是可能導(dǎo)致實(shí)體方面顯失公正的錯(cuò)誤量刑或者程序方面的嚴(yán)重違法時(shí),則應(yīng)毫不吝惜地放棄人工智能的運(yùn)用。而對司法公正的追求必然要求“尊重和保障人權(quán)”,(13)《中華人民共和國憲法》第33條。因?yàn)閷駲?quán)利的保護(hù)程度已經(jīng)是現(xiàn)代法治國家判斷司法公正是否得以實(shí)現(xiàn)的重要標(biāo)桿,這在刑事量刑中亦不例外。當(dāng)以具備普遍性、非人格性為特征之形式合理性品格(14)徐駿:《智慧法院的法理審思》,《法學(xué)》,2017年第3期,第59頁。的人工智能技術(shù)運(yùn)用于量刑時(shí),可能因其技術(shù)特征和品性導(dǎo)致與人權(quán)保障的要求發(fā)生沖突,從而出現(xiàn)上文所述對當(dāng)事人的正當(dāng)程序權(quán)利和隱私權(quán)或個(gè)人信息權(quán)利的影響。當(dāng)此種情形出現(xiàn)時(shí),應(yīng)當(dāng)“以保護(hù)人的權(quán)利和福祉為其倫理基礎(chǔ)”,(15)鄭曦:《人工智能技術(shù)在司法裁判中的運(yùn)用及規(guī)制》,《中外法學(xué)》,2020年第3期,第687頁。運(yùn)用價(jià)值位階分析法,優(yōu)先保障當(dāng)事人的高位階訴訟權(quán)利,(16)鄭曦:《作為刑事訴訟權(quán)利的個(gè)人信息權(quán)》,《政法論壇》,2020年第5期,第139-140頁。從而消解人工智能量刑引發(fā)的工具理性與價(jià)值理性的沖突。
針對上文所述的在刑事案件量刑中運(yùn)用人工智能技術(shù)給法官量刑權(quán)帶來的影響,可以從明確人工智能技術(shù)在量刑中的職司、適度分離技術(shù)人員與司法人員、強(qiáng)調(diào)法官的裁判權(quán)責(zé)和貫徹“以審判為中心”的司法改革目標(biāo)進(jìn)而依法采納量刑證據(jù)四個(gè)方面著手加以解決。
首先,人工智能運(yùn)用于量刑應(yīng)被明確定位為輔助工具。當(dāng)前,人工智能技術(shù)的低智能化現(xiàn)狀使得由人工智能替代法官量刑在技術(shù)上不可行,但退一步而言,即便日后人工智能技術(shù)取得了重大突破,實(shí)現(xiàn)了對人類智能化行為的模仿和理解,但由于其固有的去情感化特征,也無法勝任量刑工作中的情感投入、價(jià)值權(quán)衡。因此,“人的糾紛只能由人來解決”,(17)潘庸魯:《人工智能介入司法領(lǐng)域的價(jià)值與定位》,《探索與爭鳴》,2017年第10期,第106頁。量刑中,人工智能只能扮演輔助工具的角色,主要從事信息收集、數(shù)據(jù)分析、類案推送的工作,至多允許其提出量刑建議供法官參考,而不得使其主導(dǎo)量刑。
其次,在運(yùn)用人工智能量刑過程中,技術(shù)人員與司法要有適度的職司分離。為防止技術(shù)人員將其特定利益或觀念加入人工智能量刑工具中,或者技術(shù)人員與司法人員交往過密導(dǎo)致職能混淆或利益交換,應(yīng)在二者之間劃定職司界限。技術(shù)人員的工作應(yīng)限定于人工智能量刑工具的研發(fā)、維護(hù)和修繕等方面,而不得介入具體案件的量刑;法官在量刑中使用人工智能工具遇到技術(shù)障礙時(shí)可以就技術(shù)問題求助于技術(shù)人員,但應(yīng)按照特定的程序進(jìn)行,例如通過法院后勤保障或?qū)徟泄芾聿块T統(tǒng)一協(xié)調(diào)安排,一般情況下不宜由法官直接接觸技術(shù)人員,從而對二者之間的交往形成一定程度的阻斷和監(jiān)管。
再次,強(qiáng)調(diào)法官針對量刑問題之主導(dǎo)權(quán)和司法責(zé)任。黨的十八屆三中全會(huì)要求貫徹落實(shí)“讓審理者裁判、由裁判者負(fù)責(zé)”的司法責(zé)任制,其核心在于實(shí)現(xiàn)裁判者的權(quán)責(zé)統(tǒng)一。在量刑問題上也需要強(qiáng)調(diào)此種權(quán)責(zé)一致,厘清主體與工具的權(quán)責(zé)關(guān)系。一方面,作為裁判者的法官必須對量刑有主導(dǎo)的權(quán)力,且其量刑裁判權(quán)具有最終性,作為量刑輔助工具,人工智能的運(yùn)用不得侵犯此種法官的主導(dǎo)權(quán);另一方面,法官必須對其量刑裁判承擔(dān)相應(yīng)的司法責(zé)任,即一旦發(fā)生錯(cuò)誤裁判,法官應(yīng)按照司法責(zé)任制的要求受到追責(zé),其量刑裁判是否依據(jù)人工智能工具之量刑建議作出,不能成為其推卸責(zé)任之借口。
最后,應(yīng)進(jìn)一步貫徹“以審判為中心”的司法改革目標(biāo),依法采納量刑證據(jù)。黨的十八屆四中全會(huì)提出推進(jìn)“以審判為中心”的司法改革,其核心內(nèi)容在于強(qiáng)化審判權(quán)在司法權(quán)力配置和運(yùn)行中的核心地位,(18)卞建林:《以審判為中心:刑事訴訟制度的重大改革》,《紫光閣》,2016年第12期,第46頁。從而理順偵查權(quán)、起訴權(quán)和審判權(quán)的關(guān)系。在刑事案件量刑中,人工智能技術(shù)的運(yùn)用也需要以此目標(biāo)作為基點(diǎn),在公檢法信息化系統(tǒng)逐步走向互聯(lián)互通的現(xiàn)實(shí)下,人工智能工具會(huì)從公檢法系統(tǒng)中獲得相關(guān)數(shù)據(jù),其中的一些數(shù)據(jù)未必具有刑事訴訟法所規(guī)定的審判階段作為定案依據(jù)的證據(jù)能力,在我國定罪和量刑程序合一的現(xiàn)實(shí)前提下,不應(yīng)作為量刑的依據(jù)。因此,運(yùn)用人工智能輔助量刑時(shí)所運(yùn)用的證據(jù),仍需按照“以審判為中心”的要求,遵循審判的證據(jù)運(yùn)用規(guī)則加以審查判斷,保證證據(jù)的合法性。
為避免人工智能量刑給被告人權(quán)利帶來過度的負(fù)面影響,從嚴(yán)格保障公民正當(dāng)程序權(quán)利的思路出發(fā),可以針對以下三方面問題進(jìn)行調(diào)整和完善。
第一,以辯方的數(shù)據(jù)訪問權(quán)替代閱卷權(quán)。我國《刑事訴訟法》第40條規(guī)定:“辯護(hù)律師自人民檢察院對案件審查起訴之日起,可以查閱、摘抄、復(fù)制本案的案卷材料。其他辯護(hù)人經(jīng)人民法院、人民檢察院許可,也可以查閱、摘抄、復(fù)制上述材料。”此即辯護(hù)人閱卷權(quán)的規(guī)定,該規(guī)定不但引發(fā)了閱卷權(quán)之權(quán)利主體爭議,而且因其將閱卷范圍限于“案卷材料”即訴訟文書和證據(jù)材料,已經(jīng)無法應(yīng)對司法信息化的現(xiàn)實(shí)需求,也無法回應(yīng)人工智能量刑帶來的挑戰(zhàn),因此宜以數(shù)據(jù)訪問權(quán)代替閱卷權(quán)。(19)鄭曦:《超越閱卷:司法信息化背景下的刑事被告人數(shù)據(jù)訪問權(quán)研究》,《河南大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》,2020年第2期,第60-61頁。所謂數(shù)據(jù)訪問權(quán)是指數(shù)據(jù)主體可以從數(shù)據(jù)控制者處確認(rèn)其個(gè)人數(shù)據(jù)是否正被處理,并在此種情形下可以訪問個(gè)人數(shù)據(jù)及獲得相關(guān)信息的權(quán)利,(20)京東法律研究院:《歐盟數(shù)據(jù)憲章:〈一般數(shù)據(jù)保護(hù)條例〉GDPR評(píng)述及實(shí)務(wù)指引》,北京:法律出版社,2018年,第238-239頁。賦予辯方此種權(quán)利,不但將辯方得以知悉的范圍由“案卷材料”擴(kuò)展至涉案個(gè)人數(shù)據(jù),從而應(yīng)對人工智能量刑工具海量收集個(gè)人數(shù)據(jù)而帶來的控辯雙方在量刑數(shù)據(jù)運(yùn)用力量失衡方面的困難,使得辯方在進(jìn)行辯護(hù)時(shí)對其被用于量刑的個(gè)人數(shù)據(jù)充分知情。
第二,人工智能量刑工具的算法適度向辯方和法官公開。人工智能技術(shù)用于量刑的一大技術(shù)障礙即在于算法的不公開,此種不公開既包括不向辯方公開,也包括不向法官公開。人工智能算法的不公開,主要是基于專利保護(hù)、商業(yè)秘密等方面的利益考慮,并非毫無道理。然而刑事量刑涉及上文所述的公民生命、自由、財(cái)產(chǎn)等更為重要的法益,較之商業(yè)利益具有價(jià)值位階上的優(yōu)先性,因此人工智能量刑工具開發(fā)商和運(yùn)營商完全拒絕向辯方和法官公開其算法,可能導(dǎo)致這些更重要的法益受損。倫奎斯特大法官曾言:“在我們國家,貫穿政治理論長期歷史和憲法發(fā)展歷程的最難以裁決的案件是存在兩種相互沖突的價(jià)值的案件,每一價(jià)值都應(yīng)當(dāng)?shù)玫綉?yīng)有的尊重,但它們卻相遇在此消彼長的競爭當(dāng)中?!?21)Rehnquist W H,Is an Expanded Right of Privacy Consistent with Fair and Effective Law Enforcement?, 23 U. Kan. L. Rev. 1, 2(1974).那么基于價(jià)值平衡的理念,商業(yè)利益應(yīng)當(dāng)向公民的生命、自由、財(cái)產(chǎn)權(quán)作適當(dāng)妥協(xié),將人工智能工具中直接關(guān)系到量刑準(zhǔn)確性和公正性的關(guān)鍵算法向辯方和法官作出適度公開,使得辯方能夠有效準(zhǔn)備辯護(hù),也令法官對人工智能工具如何得出量刑建議有充分理解。當(dāng)然,此種公開并不要求人工智能量刑工具開發(fā)商和運(yùn)營商徹底放棄其商業(yè)利益,否則必然削減其維護(hù)和開發(fā)此類人工智能量刑工具的動(dòng)力,對此可以通過各方簽署協(xié)議的方式,確保算法公開只被用于刑事量刑之目的,從而兼顧開發(fā)商和運(yùn)營商的商業(yè)利益。
第三,充分發(fā)揮專家輔助人的作用。我國《刑事訴訟法》第197條規(guī)定:“公訴人、當(dāng)事人和辯護(hù)人、訴訟代理人可以申請法庭通知有專門知識(shí)的人出庭,就鑒定人作出的鑒定意見提出意見?!狈蓪<逸o助人制度的規(guī)定為其參與人工智能量刑奠定了基礎(chǔ):在我國刑事訴訟定罪程序與量刑程序合一的現(xiàn)實(shí)下,專家輔助人出庭提出的意見不但可以針對定罪也可以針對量刑,于是在上文所述的辯方行使數(shù)據(jù)訪問權(quán)、人工智能算法適度公開的前提下,能夠就人工智能量刑工具在收集數(shù)據(jù)、算法運(yùn)行、作出量刑建議等技術(shù)方面問題提出專家意見,從而協(xié)助法官確保人工智能量刑的科學(xué)性。
較之于生命、自由、財(cái)產(chǎn),個(gè)人隱私和個(gè)人信息保護(hù)的價(jià)值位階雖然較低,但在信息時(shí)代下亦是重要議題,在人工智能量刑的背景下,應(yīng)當(dāng)兼顧公民的隱私權(quán)和個(gè)人信息權(quán),以免受上文所述之負(fù)面影響。
一方面,應(yīng)當(dāng)從僅肯認(rèn)隱私權(quán)轉(zhuǎn)向隱私權(quán)與個(gè)人信息權(quán)“二元化”保護(hù)。傳統(tǒng)上刑事司法對隱私權(quán)的保護(hù)歷史較長,如美國在卡茨案后即確立隱私權(quán)的主客觀雙重判斷標(biāo)準(zhǔn)。(22)Katz v. United States, 389 U.S. 347 (1967).隱私權(quán)保護(hù)路徑的優(yōu)勢在于其不必對原有制度進(jìn)行大幅修改,例如可以利用刑事訴訟對搜查扣押制度的既有規(guī)定實(shí)現(xiàn)權(quán)利保護(hù)。然而此種隱私權(quán)保護(hù)路徑存在天然缺陷,其著眼點(diǎn)通常在于取證之時(shí)刻,對證據(jù)及其承載信息的后續(xù)使用關(guān)注不足,且往往忽視相對人的主觀意愿。隨著個(gè)人信息權(quán)從隱私權(quán)中獨(dú)立,發(fā)展出隱私權(quán)和個(gè)人信息權(quán)“二元化”保護(hù)的模式,(23)李永軍:《論〈民法總則〉中個(gè)人隱私與信息的“二元制”保護(hù)及請求權(quán)基礎(chǔ)》,《浙江工商大學(xué)學(xué)報(bào)》,2017年第3期,第11頁。這同樣適用于刑事司法領(lǐng)域的量刑中。在人工智能被運(yùn)用于刑事案件量刑的背景下,對于人工智能收集的用于量刑的數(shù)據(jù)和信息,不但要經(jīng)受隱私權(quán)保護(hù)路徑下的取證合法性的考量,還要遵守個(gè)人信息保護(hù)的一些基本原則。第一,應(yīng)當(dāng)區(qū)分一般個(gè)人信息和敏感個(gè)人信息,對于敏感個(gè)人信息,其收集使用應(yīng)有較一般個(gè)人信息更為嚴(yán)格的審批和監(jiān)管程序。第二,可以適當(dāng)引入“知情同意”的個(gè)人信息使用原則,在使用個(gè)人信息時(shí)應(yīng)先向信息主體告知并取得其同意,在其拒絕同意而該個(gè)人信息對于量刑公正有重大意義時(shí)再考慮依照法定程序強(qiáng)制取得。第三,明確個(gè)人信息監(jiān)管職責(zé),通過信息加密、設(shè)置加密授權(quán)觸發(fā)機(jī)制、設(shè)定泄密報(bào)告機(jī)制等,確保被收集的個(gè)人信息僅用于量刑之目的,保障其運(yùn)用的安全性。
另一方面,應(yīng)當(dāng)肯認(rèn)當(dāng)事人的被遺忘權(quán)。被遺忘權(quán)是信息主體在個(gè)人信息不再有合法使用之需時(shí)要求刪除或停止使用該個(gè)人信息的權(quán)利,這項(xiàng)權(quán)利不但源于刑事司法,在刑事司法中也有適用的空間和必要性。(24)鄭曦:《“被遺忘”的權(quán)利:刑事司法視野下被遺忘權(quán)的適用》,《學(xué)習(xí)與探索》,2016年第4期,第62-63頁。人工智能量刑必然收集大量個(gè)人信息,這些信息在量刑目的完成后是否還有繼續(xù)存儲(chǔ)、使用的必要性,值得研究。在此情形下,應(yīng)當(dāng)允許當(dāng)事人特別是已被定罪量刑的罪犯和被害人主張其被遺忘權(quán),向法院申請刪除用于人工智能量刑而收集的個(gè)人信息,至于實(shí)際是否許可該行使被遺忘權(quán)之主張,由法院判斷。法院可以根據(jù)立法者設(shè)立相關(guān)的標(biāo)準(zhǔn)進(jìn)行審查,例如,對性侵未成年人罪犯一律拒絕其被遺忘權(quán)主張,對嚴(yán)重貪賄之職務(wù)犯罪罪犯原則上拒絕其被遺忘權(quán)主張,對被害人通常許可其被遺忘權(quán)主張,也可以賦予法院適度的自由裁量權(quán),由其在個(gè)案中根據(jù)案件具體情況加以判斷。如此一來,人工智能量刑收集大量個(gè)人信息后,可以為當(dāng)事人提供事后救濟(jì)的路徑,從而兼顧量刑公正的目標(biāo)和個(gè)人信息保護(hù)的需求。
未來已來,人工智能在刑事案件量刑中的使用已是必然趨勢,這是科技運(yùn)用于刑事司法這一歷史潮流下不可對抗的產(chǎn)物,因此對于人工智能量刑應(yīng)抱持開放而謹(jǐn)慎的態(tài)度。人工智能量刑,核心的問題在于人工智能是否會(huì)成為強(qiáng)橫的“阿爾法法官”(25)何帆:《我們離“阿爾法法官”還有多遠(yuǎn)?》,《浙江人大》,2017年第5期,第47頁。而侵犯法官的審判權(quán),以及其對于當(dāng)事人的權(quán)利是否會(huì)造成負(fù)面影響。針對這些問題,通過擺正法律對待人工智能量刑的心態(tài),客觀看待其技術(shù)現(xiàn)實(shí)并明確應(yīng)然之價(jià)值追求,理順人工智能工具與法官在量刑問題上的角色分配和權(quán)限劃分,堅(jiān)決保障當(dāng)事人特別是被告人在量刑中的正當(dāng)程序權(quán)利,并兼顧其隱私權(quán)和個(gè)人信息權(quán),可以發(fā)揮人工智能工具對法官量刑的輔助作用,并在其中協(xié)助實(shí)現(xiàn)量刑的公平正義,從而實(shí)現(xiàn)科技運(yùn)用與法治發(fā)展的相向而行。
(作者分工:顧佳浩負(fù)責(zé)第一、二章節(jié)初稿,鄭曦負(fù)責(zé)論文選題制定、其余部分的寫作及最后統(tǒng)稿、潤色等工作。)