国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能司法決策的合法性辨疑

2021-11-29 23:49孫慶春
關(guān)鍵詞:司法權(quán)合法性法官

陳 銳,孫慶春

(重慶大學(xué) 法學(xué)院,重慶 400045)

人工智能技術(shù)的發(fā)展使一些原本被認(rèn)為只能由人類(lèi)才能完成的工作開(kāi)始由人工物來(lái)補(bǔ)充或替代,這種情形不斷地將人們對(duì)人工智能的認(rèn)知向更加確信的方向推進(jìn)。在司法領(lǐng)域亦是如此,人工智能技術(shù)方法的改進(jìn)使得人們對(duì)司法人工智能有了更多的期待——使用人工智能進(jìn)行司法決策。然而,人工智能參與司法決策不可避免地會(huì)面臨這樣一個(gè)問(wèn)題,即其應(yīng)否被允許?這關(guān)涉到司法人工智能與社會(huì)合法性(legitimacy)判斷系統(tǒng)的兼容性問(wèn)題,是人工智能參與司法決策首先需要解決的問(wèn)題。對(duì)此,學(xué)界往往從道德主體性、權(quán)力合法性、司法錯(cuò)誤歸責(zé)以及程序正義等方面質(zhì)疑其合法性,進(jìn)而反對(duì)人工智能參與實(shí)質(zhì)性的司法決策。那么,人工智能參與司法決策不具有合法性嗎?本文旨在對(duì)這種論斷進(jìn)行反思,以澄清一些關(guān)于司法人工智能的認(rèn)識(shí)誤區(qū),從而為司法人工智能參與司法決策掃清理論上的障礙。

一、人工智能司法決策的合法性質(zhì)疑

從司法人工智能的簡(jiǎn)史來(lái)看,合法性追問(wèn)幾乎與人工智能的司法應(yīng)用是同步的,并伴隨著人工智能技術(shù)的發(fā)展而起伏。在法律專(zhuān)家系統(tǒng)階段,雖有學(xué)者持續(xù)致力于司法人工智能的建模工作,但皆沒(méi)有達(dá)到與其初衷相匹配的法律論證系統(tǒng)。在這樣的技術(shù)水平上,人們普遍認(rèn)為,司法人工智能是不可能的也是不被允許的。近年來(lái),在大數(shù)據(jù)與機(jī)器學(xué)習(xí)技術(shù)的支持下,新一代的司法人工智能逐漸克服了規(guī)則推理與小數(shù)據(jù)時(shí)代案例推理的技術(shù)局限,通過(guò)將原有的司法經(jīng)驗(yàn)應(yīng)用于待決案件,使得“基于不完全、不確定或不一致的知識(shí)而進(jìn)行的法律推理”變得可能與有效起來(lái)。在法律實(shí)踐領(lǐng)域,法律人工智能系統(tǒng)的層出不窮便是一個(gè)證明。

然而,這并沒(méi)有改變學(xué)界對(duì)人工智能司法決策合法性判斷的結(jié)論。從現(xiàn)有文獻(xiàn)來(lái)看,學(xué)者們對(duì)于人工智能參與司法決策仍表達(dá)了一種普遍的質(zhì)疑與擔(dān)憂,即人工智能不應(yīng)被用于實(shí)質(zhì)性的司法決策,即使其具備了相應(yīng)的司法能力[1-3]。這種否定性觀點(diǎn)無(wú)疑為司法人工智能的應(yīng)用設(shè)置了一道“先驗(yàn)”屏障,使得人工智能參與司法決策無(wú)論如何都不被允許??紤]到司法人工智能合法性判斷的兩個(gè)特性:一是技術(shù)指向性,即合法性判斷的對(duì)象是人工智能技術(shù)及其方法論,技術(shù)方法在一定程度上決定了合法性判斷的結(jié)果;二是認(rèn)識(shí)導(dǎo)向性,即不同的認(rèn)識(shí)論前提會(huì)導(dǎo)致不同的合法性判斷結(jié)果。本文認(rèn)為,在新的技術(shù)時(shí)代條件下,這種論斷不僅缺乏對(duì)司法人工智能技術(shù)方法的考察,而且存在一種錯(cuò)誤的認(rèn)識(shí)論指導(dǎo)。因此,無(wú)論是從致知還是從致用的角度看,都應(yīng)認(rèn)真對(duì)待。

在詳細(xì)評(píng)判之前,有必要簡(jiǎn)單介紹支持該論斷的理由及其理論假設(shè)。約略而言,這種論斷主要包括以下四個(gè)方面的論證:(1)若準(zhǔn)許人工智能進(jìn)行司法決策,將引起人類(lèi)法官的主體性危機(jī)。該論證假定了在司法決策的可能性與道德主體性之間存在可通約性,即認(rèn)為若肯定人工智能可進(jìn)行司法決策,則實(shí)質(zhì)上等于肯定了人工智能的道德主體地位,那必然會(huì)引起法官的主體性危機(jī)。有學(xué)者甚至憂心忡忡地提醒人們:人工智能司法決策可能意味著機(jī)器的統(tǒng)治與人類(lèi)文明的終結(jié),其無(wú)異于“開(kāi)門(mén)揖盜、引狼入室”[2]。(2)若準(zhǔn)許人工智能進(jìn)行司法決策,會(huì)產(chǎn)生權(quán)力的合法性危機(jī)。該類(lèi)論證大多從“權(quán)力論”出發(fā),質(zhì)疑人工智能司法決策的權(quán)力淵源與權(quán)力運(yùn)行的合法性。它認(rèn)為,從權(quán)力的來(lái)源看,法官的司法權(quán)有明確的法律授權(quán),而人工智能司法決策卻沒(méi)有法律上的根據(jù),故其合法性高度成疑;就權(quán)力的運(yùn)行而言,若由人工智能取代法官進(jìn)行司法決策,可能會(huì)偏離司法的公共屬性,并影響司法權(quán)的獨(dú)立運(yùn)行[4]。(3)若準(zhǔn)許人工智能進(jìn)行司法決策,在出現(xiàn)司法錯(cuò)誤時(shí),會(huì)帶來(lái)歸責(zé)難的問(wèn)題,甚至?xí)鹈黠@的責(zé)任真空。由于人工智能進(jìn)行司法決策,遵循的是一種相關(guān)性與概率論的邏輯,因此,它不僅無(wú)法確保個(gè)案裁判的“穩(wěn)當(dāng)熨帖”,而且會(huì)產(chǎn)生概率性錯(cuò)誤[5-6],此時(shí)就會(huì)面臨司法錯(cuò)誤無(wú)法歸責(zé)的窘境[7]。(4)若準(zhǔn)許人工智能司法決策,會(huì)危及程序正義的實(shí)現(xiàn)。持這種觀點(diǎn)的學(xué)者傾向于將司法人工智能的算法解釋為“黑箱”,認(rèn)為其因缺乏透明性而極易產(chǎn)生“先天”或“人為”的偏見(jiàn)[8-9],或因形式上的不透明而減損了必要的司法程序[6],進(jìn)而損害程序正義。

上述論證顯然延續(xù)了人文主義看待技術(shù)哲學(xué)問(wèn)題的一貫路徑,帶有濃厚的倫理論色彩。不可否認(rèn),在這種人文或倫理的批判中包含有真理的成分,它極大地深化了人們對(duì)科學(xué)技術(shù)意義的思考。但人工智能司法決策并不是一個(gè)純理論的思辨性問(wèn)題,它更多的是一個(gè)工程實(shí)現(xiàn)的問(wèn)題,單純的倫理批判并不會(huì)產(chǎn)生有效的建議?;诖?本文將重點(diǎn)對(duì)上述四個(gè)論證進(jìn)行逐條辨疑,并探討一種有關(guān)人工智能司法決策的可能路徑,以破除上述否定性觀點(diǎn)為人工智能司法決策設(shè)置的“先驗(yàn)屏障”。

二、人工智能司法決策會(huì)引起人類(lèi)法官的主體性危機(jī)嗎?

反對(duì)或批判人工智能司法決策的大多數(shù)論證首先是從倫理的層面展開(kāi)的,它們主張,若準(zhǔn)許由人工智能進(jìn)行司法決策,實(shí)質(zhì)上等于肯定了人工智能的道德主體地位,進(jìn)而會(huì)危及人類(lèi)法官的主體性地位。

持上述反對(duì)意見(jiàn)者大多傾向于將人工智能視為一種威脅人類(lèi)主體性的“類(lèi)人”的存在。這一理解顯然受到了心靈哲學(xué)(例如Searle的“中文屋論證”)對(duì)人工智能批判的影響,以及早期人工智能學(xué)家對(duì)人工智能模糊定義的影響。Turing在著名的“圖靈測(cè)試”中,將一個(gè)系統(tǒng)具有智能性的標(biāo)準(zhǔn)定義為:如果該系統(tǒng)的回答和反應(yīng)與人類(lèi)的無(wú)法區(qū)別,那么,該系統(tǒng)便是智能的??陀^地說(shuō),該定義不僅無(wú)法反映人工智能的真正本質(zhì),而且因其模糊性而制造了一個(gè)理解的誤區(qū),即人工智能是對(duì)人類(lèi)智能的模仿或復(fù)制。根據(jù)這一理解,人工智能就是一種人類(lèi)模仿計(jì)劃,以期在機(jī)器上再現(xiàn)人類(lèi)的自然能力,其結(jié)果就是:人們必然會(huì)追溯到心靈、意識(shí)與主觀性來(lái)認(rèn)識(shí)與評(píng)價(jià)人工智能。

但實(shí)際上,作為工程科學(xué)的分支,人工智能的研究很少與人類(lèi)思維的運(yùn)作有關(guān),它“與生物有機(jī)體的關(guān)系主要是隱喻性或啟發(fā)性的”[10]16,因此,理應(yīng)更多地從工程技術(shù)哲學(xué)的角度對(duì)其進(jìn)行認(rèn)識(shí)與評(píng)價(jià)。工程技術(shù)哲學(xué)主張從工程學(xué)的角度認(rèn)識(shí)技術(shù),從抽象的理論知識(shí)回歸到具體的技術(shù)實(shí)踐。工程技術(shù)哲學(xué)認(rèn)為,技術(shù)本質(zhì)上是一套改造自然世界以滿足人類(lèi)需要的方法或產(chǎn)物。根據(jù)這種解釋,人工智能只不過(guò)是一個(gè)通過(guò)工程技術(shù)有效而自動(dòng)地解決問(wèn)題的方法或系統(tǒng)。作為人類(lèi)制造活動(dòng)的產(chǎn)物,人工智能系統(tǒng)并未超出人工物的范疇,它的存在完全是心智依賴性的,它是什么或即將成為什么完全取決于人類(lèi)[11]225。這決定了人工智能對(duì)人類(lèi)的依附關(guān)系,也決定了司法人工智能不可能成為一種“類(lèi)人”的存在。

一些學(xué)者可能會(huì)以“人工智能的自主性日益加強(qiáng)”為據(jù)而反對(duì)上述觀點(diǎn)。由于人工智能的自主性日益增強(qiáng),使得人工智能的行動(dòng)范圍會(huì)超出人類(lèi)意向的范圍,因此存在擺脫對(duì)人的依附、進(jìn)而成長(zhǎng)為獨(dú)立道德主體的可能性。但這一觀點(diǎn)明顯建立在對(duì)“自主性”的多義解釋或隱喻性修辭之上。當(dāng)我們使用“自主性”一詞時(shí),通常意味一種完全的自由、獨(dú)立或主導(dǎo),其不僅體現(xiàn)在計(jì)劃的執(zhí)行方面,更體現(xiàn)在計(jì)劃的制定與目的的自我確立方面。盡管人工智能已超越那種對(duì)具體行動(dòng)進(jìn)行直接編程的技術(shù)階段,但所謂的人工智能“自主性”仍只是在計(jì)劃執(zhí)行的意義上而言的,與目的生成、行動(dòng)規(guī)劃無(wú)涉。也就是說(shuō),人工智能只能在人類(lèi)預(yù)先設(shè)定的程序或算法規(guī)則內(nèi)運(yùn)行,就像僵住癥患者需要借助別人的意識(shí)來(lái)行動(dòng)一樣,對(duì)于這種意義上的“自主性”,更合適的表述或許是“自動(dòng)性”。即使人工智能借助所謂的自主學(xué)習(xí)獲得了一定的環(huán)境自適應(yīng)性——根據(jù)不同的經(jīng)驗(yàn)數(shù)據(jù)生成不同的規(guī)則前提,但它不會(huì)產(chǎn)生超出經(jīng)驗(yàn)數(shù)據(jù)范圍之外的規(guī)則,更不會(huì)改變“加工數(shù)據(jù)”的目的本身。這種意義上的“自主性”并不構(gòu)成對(duì)人工智能工具本質(zhì)的真正挑戰(zhàn),更不會(huì)派生出所謂的“主體性”擔(dān)憂。

仍有學(xué)者會(huì)質(zhì)疑為什么作為工具的人工智能可以進(jìn)行司法決策?尤其是在這些司法決策關(guān)涉人類(lèi)主體該如何行動(dòng)之類(lèi)的問(wèn)題時(shí),這一質(zhì)疑就變得特別嚴(yán)肅起來(lái)。正如本文論證的,人類(lèi)與司法人工智能的關(guān)系只是一種使用與被使用關(guān)系,人們之所以設(shè)計(jì)出司法人工智能,有著明確的目的,那就是服務(wù)于人類(lèi)的司法需要。在上述關(guān)系中,人工智能只是在司法事務(wù)上分擔(dān)了法官的負(fù)擔(dān),是對(duì)法官的一種功能強(qiáng)化,就像工業(yè)機(jī)器人分擔(dān)工人的勞動(dòng)一樣,我們并不會(huì)由于工業(yè)機(jī)器人逐漸分擔(dān)了人的勞動(dòng),將人從繁重的勞動(dòng)中解放出來(lái),而擔(dān)憂人的主體性會(huì)喪失。盡管司法人工智能從事的是腦力勞動(dòng),其本質(zhì)及其與人類(lèi)的關(guān)系并未從根本上改變,其存在的意義在于擴(kuò)展人類(lèi)的能力。因此,人工智能只是強(qiáng)化了人類(lèi)的主體性,而非削弱更非危及其主體性。

三、人工智能司法決策存在權(quán)力合法性危機(jī)嗎?

質(zhì)疑人工智能司法決策合法性的第二類(lèi)論證意在表明人工智能不具備權(quán)力上的合法性。這一合法性質(zhì)疑主要包括兩方面內(nèi)容:其一,在權(quán)力的淵源方面,人工智能司法決策未獲得公共授權(quán),若準(zhǔn)許人工智能司法決策,將會(huì)與人民主權(quán)原則相抵觸;其二,在權(quán)力運(yùn)行方面,若準(zhǔn)許人工智能進(jìn)行司法決策,由人工智能所代表的技術(shù)權(quán)力將侵蝕或重構(gòu)司法權(quán)力,并因而可能會(huì)從根本上消解司法的獨(dú)立運(yùn)行。下文將對(duì)上述兩方面內(nèi)容進(jìn)行剖析。

(一)權(quán)力淵源的合法性問(wèn)題

現(xiàn)代法治國(guó)家是以人民主權(quán)為基礎(chǔ)的,人民授權(quán)是一切權(quán)力的根據(jù),同時(shí)也是司法權(quán)的合法性源泉。在對(duì)人工智能司法決策表示質(zhì)疑的人看來(lái),若準(zhǔn)許人工智能進(jìn)行司法決策,就存在權(quán)力淵源的合法性問(wèn)題,因?yàn)槿斯ぶ悄芪茨塬@得人民的公共授權(quán)。而且,若由人工智能取代法官進(jìn)行司法決策,無(wú)異于變相地為公民強(qiáng)加了“服從于人工智能的法律義務(wù)”,繼而會(huì)偏離司法的公共屬性[4]。

這一質(zhì)疑明顯混淆了“作為國(guó)家職能的司法權(quán)”與“法官的司法職權(quán)”。雖然二者在權(quán)力淵源上都可追溯到人民主權(quán),但法官的司法職權(quán)與作為國(guó)家職能的司法權(quán)存在本質(zhì)區(qū)別:與立法權(quán)、行政權(quán)相對(duì)的司法權(quán)是國(guó)家職能劃分的結(jié)果,具有明顯的外部性;而法官行使的司法職權(quán)更多的是法院內(nèi)部分工的結(jié)果,具有明顯的內(nèi)部性。作為國(guó)家職能之司法權(quán)通常由法院來(lái)行使,其直接淵源為憲法或組織法;而作為法官之司法職權(quán)則通常由法官個(gè)體來(lái)行使,其直接淵源為法官法。若從公共授權(quán)的角度看,審判權(quán)應(yīng)屬于國(guó)家審判機(jī)關(guān)——法院,而非法官個(gè)人,法官只是具體行使而已。例如,我國(guó)憲法與法院組織法均明確規(guī)定,人民法院依照法律規(guī)定獨(dú)立行使審判權(quán)。這種權(quán)力隸屬關(guān)系也表現(xiàn)在司法責(zé)任的分配方面,即司法錯(cuò)誤的責(zé)任主體主要是法院(或國(guó)家)。由此可見(jiàn),司法權(quán)的直接主體是法院,法官的職權(quán)及其合法性均源于法院的內(nèi)部分工,司法人工智能并不會(huì)改變這種權(quán)力隸屬關(guān)系。在這個(gè)意義上講,即使由人工智能替代法官進(jìn)行司法決策,也不會(huì)破壞司法權(quán)的公共屬性,更不會(huì)引起司法權(quán)的合法性危機(jī)。

顯然,在這種權(quán)力結(jié)構(gòu)與隸屬關(guān)系中,人工智能司法決策并不會(huì)將“服從人工智能的法律義務(wù)”強(qiáng)加給公民。司法裁判的權(quán)力屬于法院,其直接表現(xiàn)就是:裁判文書(shū)只能以法院的名義進(jìn)行制作、發(fā)布,且因此具有法律效力。因此,在司法裁判中,是擁有司法權(quán)的法院而非法官個(gè)體賦予司法裁判以權(quán)威性的,在某種意義上講,公民服從的是法院的權(quán)威、法律的權(quán)威,而非法官個(gè)人的權(quán)威,因此,所謂的“服從人工智能的法律義務(wù)”只不過(guò)是危言聳聽(tīng)罷了。

(二)權(quán)力運(yùn)行的合法性問(wèn)題

運(yùn)用人工智能進(jìn)行司法決策會(huì)威脅司法權(quán)的獨(dú)立運(yùn)行嗎?一些學(xué)者質(zhì)疑人工智能司法決策會(huì)威脅司法權(quán)的獨(dú)立運(yùn)行:一方面是私權(quán)力(技術(shù)平臺(tái))對(duì)司法獨(dú)立的影響;另一方面是一般國(guó)家權(quán)力對(duì)司法權(quán)的控制或消解[12]。但本文認(rèn)為,在合理的規(guī)制框架下,運(yùn)用人工智能進(jìn)行司法決策不是威脅而是保證了司法權(quán)的獨(dú)立運(yùn)行。

從一般意義上而言,人工智能技術(shù)本身不會(huì)影響司法獨(dú)立。眾所周知,獨(dú)立性是保障司法公正的必要條件,這為各司法文明所普遍認(rèn)可。但司法獨(dú)立不是絕對(duì)的,而是需要進(jìn)行必要的規(guī)制。在人工智能進(jìn)行司法決策時(shí),算法恰恰起到了必要規(guī)制的作用,它不僅規(guī)范著人工智能的運(yùn)行,而且規(guī)范著司法決策的過(guò)程,既可以摒除法官基于偏私的主觀判斷而濫權(quán),又可以極大地屏蔽其他權(quán)力對(duì)司法權(quán)的外部干預(yù)。因此,司法人工智能在排除外部干擾與規(guī)制司法權(quán)力的內(nèi)部運(yùn)行兩個(gè)方面都具有明顯優(yōu)勢(shì)。就此而論,關(guān)于人工智能會(huì)消解司法獨(dú)立性的論斷顯然難以成立。

但是,一些學(xué)者從“技術(shù)即權(quán)力”的假設(shè)出發(fā)對(duì)此進(jìn)行質(zhì)疑,認(rèn)為人工智能代表的技術(shù)權(quán)力本身對(duì)法律的權(quán)力構(gòu)成了挑戰(zhàn)。本文認(rèn)為,盡管這種泛化的權(quán)力論在一定程度上揭示了權(quán)力演化的本質(zhì),但其并不適于解釋制度性權(quán)力。以司法權(quán)為例,其首要特征在于制度性,即在特定的司法制度框架下產(chǎn)生與運(yùn)行。泛化的權(quán)力則不然,其不具有制度性與規(guī)范性,僅僅是一種泛指的可能性?!凹夹g(shù)即權(quán)力”并沒(méi)有比“糧食即權(quán)力、石油即權(quán)力、金錢(qián)即權(quán)力”表達(dá)更多的內(nèi)容。人們?nèi)绱苏務(wù)摰臋?quán)力,并不包含司法權(quán)所具有的那種制度性意義。在“技術(shù)即權(quán)力”這一命題之下,人工智能技術(shù)代表了一種權(quán)力,也可以說(shuō)電力技術(shù)代表了一種權(quán)力,二者沒(méi)有本質(zhì)區(qū)別。司法的技術(shù)史表明,每一次技術(shù)變革都是對(duì)司法權(quán)運(yùn)行基礎(chǔ)的更迭,是對(duì)司法獨(dú)立的保障而非破壞。如果沒(méi)有理由指責(zé)歷次的技術(shù)革新破壞了司法權(quán)的獨(dú)立運(yùn)行,也就沒(méi)有理由指責(zé)人工智能。

當(dāng)然,這種質(zhì)疑可能從另一角度提出,如“代碼即法律”[13]6。在人工智能司法決策的情境下,它以“算法即法律”的形式呈現(xiàn)出來(lái)。根據(jù)其解釋,代碼或算法作為一種必然的、根本的規(guī)制對(duì)網(wǎng)絡(luò)空間或人工智能情境的參與者施加規(guī)則,而代碼或算法的設(shè)計(jì)者或控制者(科技平臺(tái))則獲得了施加規(guī)制的權(quán)力。有代碼或算法的地方,必然有施加這種權(quán)力的科技平臺(tái),它們以制定“法律”的方式從根本上影響著司法權(quán)的獨(dú)立運(yùn)行。但是,本文認(rèn)為,這種解釋基于一種錯(cuò)誤的認(rèn)識(shí)過(guò)分夸大了科技平臺(tái)對(duì)司法獨(dú)立的影響。或許這一理論準(zhǔn)確地捕捉到了代碼或算法在規(guī)制參與者行為方面的實(shí)際效用,無(wú)論是對(duì)網(wǎng)絡(luò)空間還是對(duì)人工智能來(lái)說(shuō)都極具洞察力,然而它僅僅是一種社會(huì)學(xué)意義上的觀察,沒(méi)有超越這一層面的效力。就像語(yǔ)言之于語(yǔ)言學(xué)一樣,其語(yǔ)義與語(yǔ)法形成了社會(huì)生活深層的結(jié)構(gòu)限制,超越這個(gè)層面便不再具有這種規(guī)制力。因此,不能因?yàn)檫@種社會(huì)學(xué)觀察就將科技平臺(tái)排除在司法人工智能的建設(shè)之外。這一方面是因?yàn)榉ㄔ菏茏陨砑夹g(shù)能力的限制不可能獨(dú)立建設(shè)司法人工智能,另一方面則是這種絕對(duì)的獨(dú)立可能會(huì)導(dǎo)致司法濫權(quán)。更重要的是,法律可以為司法人工智能的運(yùn)行構(gòu)筑必要的制度基礎(chǔ),以規(guī)制代碼或算法,繼而規(guī)制其背后的權(quán)力。這恰恰體現(xiàn)了法律超越代碼或算法的一面,也破除了“代碼即法律”這種社會(huì)學(xué)觀察所引起的規(guī)范混淆。

此外,一些論者持“技術(shù)權(quán)力將消解司法權(quán)”的消解論,即司法人工智能所依賴之算法不過(guò)是一種控制司法權(quán)的工具,它會(huì)為一般國(guó)家權(quán)力干預(yù)司法提供端口。這一論調(diào)顯然建立在算法“黑箱論”基礎(chǔ)之上,即只有當(dāng)公眾處于對(duì)算法的“無(wú)知”狀態(tài)時(shí),這種“邪惡”才是可能的。正如Susskind所說(shuō),“哪里有不透明和神秘化,哪里就有不信任和缺乏責(zé)任感”[14]37。但是,只要通過(guò)算法透明原則來(lái)確保算法的公開(kāi)、可解釋與可責(zé)性,就可以解決上述問(wèn)題,就像可以通過(guò)制定一些程序性規(guī)則以確保人類(lèi)法官在決策中保持透明一樣,同樣可以制定規(guī)則保障人工智能司法在陽(yáng)光下運(yùn)行。

四、人工智能的司法錯(cuò)誤會(huì)導(dǎo)致責(zé)任真空嗎?

質(zhì)疑人工智能司法決策合法性的第三類(lèi)論證主要集中在司法錯(cuò)誤及其責(zé)任的分配方面。一些論者認(rèn)為,人工智能不僅無(wú)法在個(gè)案裁判中實(shí)現(xiàn)“公正合理、穩(wěn)當(dāng)熨帖、讓人心悅誠(chéng)服”[7],而且,其存在統(tǒng)計(jì)學(xué)意義上的概率性錯(cuò)誤,這本身讓人難以接受,即使其能保持99%的正確性,亦是如此[3]。一些論者擔(dān)憂,若準(zhǔn)許人工智能參與或主導(dǎo)司法決策,將導(dǎo)致司法錯(cuò)誤難以歸責(zé),甚至產(chǎn)生責(zé)任真空。以下對(duì)此進(jìn)行具體分析。

(一)司法錯(cuò)誤是不可接受的嗎?

那些質(zhì)疑人工智能司法決策合法性的人們對(duì)人工智能可能做出錯(cuò)誤的判決持零容忍的態(tài)度,這種要求人工智能司法決策絲毫不能出現(xiàn)偏差的做法顯然過(guò)于嚴(yán)苛。就個(gè)案例裁判而言,司法決策并不追求“真理符合論”意義上的絕對(duì)正確,而只尋求一種可接受的結(jié)果。這是因?yàn)榉杀旧硎怯袃r(jià)值負(fù)荷的,任何一條法律規(guī)則的產(chǎn)生、存在與適用都是價(jià)值權(quán)衡的結(jié)果。在這種意義上,法律是與價(jià)值有關(guān)的規(guī)范,司法是處理與價(jià)值有關(guān)的活動(dòng)。但由于價(jià)值往往潛在于規(guī)范背后,因此,很難說(shuō)清楚價(jià)值到底是什么。價(jià)值的這種不可或缺且又難以捉摸的特性使得法律適用過(guò)程不可能是簡(jiǎn)單的邏輯推理過(guò)程,法官通常需要訴諸“價(jià)值權(quán)衡”這一權(quán)宜方法來(lái)追求司法裁判的可接受性。通常,學(xué)者們傾向于將法律適用過(guò)程理解為完全主觀的過(guò)程,如德沃金認(rèn)為法律推理是一項(xiàng)建構(gòu)性的解釋活動(dòng)。但其實(shí),法律適用過(guò)程是一個(gè)將價(jià)值與事實(shí)相結(jié)合的過(guò)程,是一個(gè)主觀見(jiàn)之于客觀的活動(dòng)。這與人工智能通過(guò)處理經(jīng)驗(yàn)數(shù)據(jù)、解決價(jià)值問(wèn)題的方式并無(wú)本質(zhì)區(qū)別。如果以此來(lái)指責(zé)人工智能,在人類(lèi)法官同樣無(wú)法保證司法決策百分百正確的情況下,為何不以同樣的標(biāo)準(zhǔn)苛責(zé)人類(lèi)法官呢?

而且,從法律適用的結(jié)果看,無(wú)論是人類(lèi)法官,還是人工智能,都不可能使所有的司法決策都正確。因?yàn)樗?他)們總是在真實(shí)的環(huán)境中行動(dòng),而不是在理想環(huán)境或?qū)嶒?yàn)環(huán)境下發(fā)揮作用,這意味著,司法裁判的正確性不僅會(huì)受到理性水平的限制,而且也會(huì)受到法律規(guī)范是否明晰、案件事實(shí)是否清楚等因素的影響。那些追求裁判結(jié)果絕對(duì)正確的人無(wú)疑將法官想象為一個(gè)全知全能的人,他們能了解一切、掌控一切,因此能做出完美的裁決。但實(shí)際上,法官只能通過(guò)有限理性,在有限的時(shí)間、有限的空間以及有限的價(jià)值之內(nèi)做出相對(duì)正確的判決。而且事實(shí)表明,即使這種有限的理性也會(huì)因諸多現(xiàn)實(shí)因素的影響而無(wú)法充分實(shí)現(xiàn)。因此,從實(shí)踐理性的角度看,司法決策不過(guò)是在多個(gè)備選方案中選擇較優(yōu)的方案而已。如果我們研究司法人工智能的目的是為司法實(shí)踐服務(wù),而不是追求純粹的理論思辨,那么我們就沒(méi)有理由要求司法人工智能具備完全的理性,更不應(yīng)苛求其決策百分百正確。

因此,對(duì)待人工智能司法決策可能產(chǎn)生錯(cuò)誤的問(wèn)題,應(yīng)持一種現(xiàn)實(shí)的態(tài)度,既不能敷衍塞責(zé),又不能苛求。如果人工智能法官能在正確率方面不低于人類(lèi)法官,并在經(jīng)濟(jì)、效率、質(zhì)量與可預(yù)測(cè)性等方面達(dá)到比較理想的狀態(tài),那么我們就沒(méi)有理由對(duì)其提出過(guò)高的要求。正如杰西·休斯所說(shuō)的,“如果它(工程)作為實(shí)踐推理的方法是成功的,那么它就是成功的”[11]375。誠(chéng)然,“人類(lèi)法官同樣不完美”并不能構(gòu)成一個(gè)支持人工智能進(jìn)行司法決策的充分理由,但也不能因噎廢食,不能因?yàn)槿斯ぶ悄芊ü俨煌昝谰头穸ㄆ渥饔谩?/p>

(二)人工智能決策會(huì)產(chǎn)生責(zé)任真空嗎?

除情感因素外,很多人對(duì)人工智能法官可能會(huì)引起司法錯(cuò)誤表示擔(dān)憂的重要原因與歸責(zé)困難有關(guān),即當(dāng)人工智能司法決策出現(xiàn)錯(cuò)誤時(shí),該由誰(shuí)來(lái)承擔(dān)責(zé)任?以及該如何劃分責(zé)任?由于會(huì)產(chǎn)生歸責(zé)難的問(wèn)題,以致一些學(xué)者對(duì)人工智能司法決策的合法性產(chǎn)生了懷疑。針對(duì)這一質(zhì)疑需要區(qū)分以下幾個(gè)層次的問(wèn)題。

第一,人工智能司法決策如果出現(xiàn)了錯(cuò)誤,是否難以劃分責(zé)任?其實(shí),若是人工智能法官出現(xiàn)了司法錯(cuò)誤,反而比人類(lèi)法官出現(xiàn)錯(cuò)誤更容易被發(fā)現(xiàn),因?yàn)槿斯ぶ悄懿幌袢祟?lèi)法官那樣,善于掩飾錯(cuò)誤,其會(huì)錯(cuò)得明明白白,技術(shù)人員只要對(duì)人工智能的推理過(guò)程進(jìn)行檢視,就能發(fā)現(xiàn)這些錯(cuò)誤到底是由軟件的程序問(wèn)題造成的,還是因法律存在模糊、含糊等原因造成的,以及因事實(shí)認(rèn)識(shí)存在錯(cuò)誤造成的,因此,責(zé)任劃分上不存在困難。所謂的“算法黑箱”只是針對(duì)外行而言的,且有過(guò)分夸大之嫌。正如監(jiān)視飛機(jī)飛行狀態(tài)的“黑匣子”,對(duì)于外行來(lái)說(shuō)可能很神秘、不透明,但在技術(shù)人員面前,它卻是透明的,可以通過(guò)一定的技術(shù)手段進(jìn)行解讀,并以之作為解決飛行事故的客觀依據(jù)。

第二,若人工智能法官做出了錯(cuò)誤的判決,該由誰(shuí)承擔(dān)責(zé)任?毫無(wú)疑問(wèn),該由人類(lèi)自己承擔(dān)責(zé)任。因?yàn)槿斯ぶ悄苁侨祟?lèi)有目的活動(dòng)的產(chǎn)物,它并沒(méi)有超出人工物的范疇,故人類(lèi)該為人工智能的設(shè)計(jì)、生產(chǎn)與使用負(fù)責(zé)。無(wú)論人工智能具有多么強(qiáng)大的功能,它總是人類(lèi)有意向活動(dòng)的結(jié)果,在出現(xiàn)司法決策錯(cuò)誤時(shí),明顯應(yīng)由人類(lèi)而不是人工智能來(lái)承擔(dān)責(zé)任。就這一點(diǎn)而言,人工智能在責(zé)任問(wèn)題上“并不像許多人所說(shuō)的那樣具有革命性”[15]。在廓清這一點(diǎn)之后,散布于眼前的倫理迷霧便去了一半。但在澄清人類(lèi)的責(zé)任主體地位后,并沒(méi)有完全解決“由誰(shuí)來(lái)承擔(dān)具體責(zé)任”這一問(wèn)題,因此,我們需要回答第三個(gè)層次的問(wèn)題。

第三,對(duì)于由人工智能引起的司法錯(cuò)誤,具體承擔(dān)責(zé)任的應(yīng)是“誰(shuí)”?對(duì)于這個(gè)問(wèn)題,本文的基本觀點(diǎn)是:只要滿足歸責(zé)條件,法官個(gè)體、法院與國(guó)家都可能成為人工智能司法錯(cuò)誤的責(zé)任主體。自亞里士多德以來(lái),責(zé)任理論就突出強(qiáng)調(diào)了責(zé)任兩個(gè)方面的條件:“控制”條件和“認(rèn)知”條件?!翱刂啤睏l件是指行動(dòng)者對(duì)由其所引起的行動(dòng)具有足夠程度的控制;“認(rèn)知”條件是指行動(dòng)者知道自己在做什么[16]12-14。如果同時(shí)滿足這兩個(gè)條件,那么該行動(dòng)者就負(fù)有責(zé)任。雖然這種責(zé)任理論是針對(duì)理性行為人提出的,但作為理性行為人集合的法院與國(guó)家同樣獲得了這種資格。在設(shè)計(jì)、部署與使用司法人工智能的過(guò)程中,法官、法院與國(guó)家都可能在某種情形下對(duì)其進(jìn)行某種程度的“控制”,這實(shí)質(zhì)上構(gòu)成了人工智能錯(cuò)誤行動(dòng)的原因;而且在履行各自的角色職能時(shí),三者都具有相對(duì)獨(dú)立且充分的“意志”自由。因此,從“引起司法錯(cuò)誤這一后果”的“原因”來(lái)看,三者都滿足司法錯(cuò)誤歸責(zé)的條件要求。當(dāng)然,考慮到可歸責(zé)性(作為責(zé)任來(lái)源或原因的能力)與可懲罰性(實(shí)際承擔(dān)不利后果的能力)的分離,三者在具體的責(zé)任分配方面可能存在某種歸責(zé)與實(shí)際承擔(dān)的不一致。但總體來(lái)說(shuō),這并不影響歸責(zé)的實(shí)施,若人工智能在司法決策時(shí)產(chǎn)生錯(cuò)誤,法官個(gè)體、法院與國(guó)家都應(yīng)該而且能夠在各自的責(zé)任范圍內(nèi)承擔(dān)某種性質(zhì)的責(zé)任。

綜上所述,在人工智能司法決策中,司法錯(cuò)誤并非不可歸責(zé),其責(zé)任主體仍然是人類(lèi),或是法官個(gè)體,或是法院,或是國(guó)家。而且就避免司法錯(cuò)誤而言,人工智能可能比人類(lèi)法官做得更好。只要進(jìn)行合理的案件分流與制度安排,我們完全可以找到一種有效的責(zé)任分配方案來(lái)化解所謂的“責(zé)任真空”這一阻礙。

五、人工智能司法決策會(huì)損害程序正義嗎?

質(zhì)疑人工智能司法決策合法性的第四類(lèi)論證是從程序正義方面展開(kāi)的。一方面,一些學(xué)者認(rèn)為,人工智能算法的“黑箱”屬性可能遮蔽程序的透明性;另一方面,一些學(xué)者擔(dān)憂,人工智能決策的形式性可能會(huì)減損必要的司法程序(如法律論辯),進(jìn)而損害程序正義。但本文認(rèn)為,從總體上看,人工智能在司法中的運(yùn)用有利于維護(hù)而非損害程序正義。

(一)透明的算法決策有利于實(shí)現(xiàn)程序正義

作為主導(dǎo)人工智能司法決策的技術(shù)規(guī)則,“算法”實(shí)質(zhì)地影響著司法決策的過(guò)程與結(jié)果,因此,其重要性不言而喻。但算法的“不透明性”卻引發(fā)了學(xué)者們對(duì)其可能損害程序正義的擔(dān)憂[9]。顯然,這類(lèi)擔(dān)憂將人工智能司法決策的爭(zhēng)論焦點(diǎn)轉(zhuǎn)移到了“算法透明”上來(lái),而且在他們看來(lái),保證和維護(hù)算法的透明似乎極其困難。從現(xiàn)有文獻(xiàn)來(lái)看,常見(jiàn)理由有三:一是算法的技術(shù)專(zhuān)業(yè)性使普通公眾往往難以有效認(rèn)知,從而極大地影響了公眾對(duì)人工智能算法的公平感知與信任;二是商業(yè)秘密原則為供應(yīng)商拒絕公開(kāi)算法提供了正當(dāng)理由;三是既使公開(kāi)算法,在算法設(shè)計(jì)、部署與使用過(guò)程中,工程師、供應(yīng)商甚至是法院也難免有意或無(wú)意的植入價(jià)值偏見(jiàn)[17]。不可否認(rèn),這些問(wèn)題是客觀存在的,而且會(huì)給人工智能司法決策帶來(lái)透明度障礙,但卻不是不可解決的,完全可以通過(guò)必要的制度設(shè)計(jì)與調(diào)整來(lái)消除這些阻礙。

首先,對(duì)于算法決策缺乏公平感知的問(wèn)題,可以通過(guò)設(shè)置必要的公開(kāi)與解釋責(zé)任來(lái)解決。司法實(shí)踐史表明,公開(kāi)通常是司法公平的必要前提,而解釋(給出理由)則構(gòu)成了裁判可接受性的理性基礎(chǔ)。在人工智能司法中,算法公開(kāi)與解釋同樣可消除社會(huì)公眾對(duì)基于秘密規(guī)則決策的擔(dān)憂。當(dāng)前學(xué)界已經(jīng)提出了一些解決方案,其中“運(yùn)行透明方案”得到越來(lái)越多的認(rèn)可,其基本原理是公開(kāi)算法實(shí)際的運(yùn)行規(guī)則。這使得算法決策的依據(jù)與理由得以公開(kāi),從而使算法運(yùn)行及其結(jié)果更具可解釋性。實(shí)際上,許多現(xiàn)有的治理框架正是基于這種思路展開(kāi)的。雖然這些原則性規(guī)定尚需完善,但卻恰當(dāng)?shù)刂赋隽司S護(hù)算法透明的正確方向,可以在相當(dāng)大的程度上化解人們對(duì)人工智能算法決策的信任危機(jī)。

其次,對(duì)于因商業(yè)秘密而產(chǎn)生的算法公開(kāi)豁免問(wèn)題,也可因司法的公共屬性而重新調(diào)整對(duì)私主體利益的保護(hù)邊界而維護(hù)司法的公正性。研究者擔(dān)憂商業(yè)秘密可能成為算法公開(kāi)的阻礙,例如著名的“State v.Loomis上訴案”就涉及到該問(wèn)題。該案判決書(shū)中,威斯康星州法院認(rèn)為巡回法院使用未披露算法信息的COMPAS系統(tǒng)來(lái)評(píng)估Loomis再犯風(fēng)險(xiǎn)的做法,并不侵犯其正當(dāng)程序權(quán)利。在一些學(xué)者看來(lái),這顯然賦予了科技公司拒絕披露算法相關(guān)信息的正當(dāng)理由,從而使算法透明難以實(shí)現(xiàn)。但值得注意的是,該判決還有另外幾項(xiàng)重要的決定或意見(jiàn):一是Northpointe公司必須在公開(kāi)文件中告知法院關(guān)于算法商業(yè)秘密的注意事項(xiàng);二是在使用COMPAS時(shí),必須闡明它在判刑時(shí)考慮的因素以及這些因素如何影響它所判處的刑罰;三是法院在使用COMPAS時(shí)應(yīng)“闡明一個(gè)有意義的推理過(guò)程”,從而提供一個(gè)透明且可理解的解釋。這些決定或意見(jiàn)表明,商業(yè)秘密作為豁免理由并不是絕對(duì)的,在涉及司法公正時(shí)可以被限制與調(diào)整,以平衡科技公司與社會(huì)公眾之間的權(quán)力不對(duì)稱。

最后,對(duì)于算法存在價(jià)值偏見(jiàn)的問(wèn)題,則可以通過(guò)必要的程序設(shè)定進(jìn)行發(fā)現(xiàn)、阻止與糾偏。算法系統(tǒng)的設(shè)計(jì)部署不可避免地嵌入某些倫理假設(shè)與價(jià)值植入,而偏見(jiàn)可能存在于設(shè)計(jì)者對(duì)倫理與價(jià)值的理解之中,正如伽達(dá)默爾所說(shuō)的,偏見(jiàn)植根于我們對(duì)世界的理解之中。就此而論,人工智能算法決策固有的偏見(jiàn)確實(shí)難以消除。但人類(lèi)的倫理實(shí)踐表明,價(jià)值偏見(jiàn)可以被有效抑制,方法就是通過(guò)倫理對(duì)話努力促成公共理性。這種方法也可以移植到算法偏見(jiàn)的治理中來(lái),即在算法的設(shè)計(jì)階段吸納更多的公眾參與與對(duì)話。這有利于在算法中植入更廣泛的、更多元的價(jià)值考量,從而平衡不同群體的道德直覺(jué)與道德情感,以抑制價(jià)值偏差與失衡。作為司法領(lǐng)域應(yīng)用的公共算法系統(tǒng),司法人工智能也應(yīng)如此。雖然這種方法可能無(wú)法實(shí)現(xiàn)一些學(xué)者隱晦表達(dá)的那種“完全無(wú)偏見(jiàn)”的理想追求,但倫理實(shí)踐表明,這是抑制偏見(jiàn)的有效方法。

總而言之,盡管司法人工智能的算法決策可能存在不透明的問(wèn)題,但人們已找到了解決問(wèn)題的正確方向并正在接近或完善解決問(wèn)題的方法,這意味著滿意的算法透明是可能的,基于這種透明算法的人工智能決策將為實(shí)現(xiàn)司法的程序正義提供重大保障。

(二)人工智能決策不必然減損司法程序

該類(lèi)反對(duì)意見(jiàn)的第二個(gè)方面是:人工智能的形式化特性可能會(huì)減損必要的司法程序,從而損害程序正義,這尤其體現(xiàn)在法庭辯論上。人們擔(dān)憂當(dāng)事人法庭辯論中言說(shuō)的權(quán)利可能無(wú)法完整地嵌入人工智能決策中,從而影響司法的程序正義。

司法人工智能會(huì)取消當(dāng)事人言說(shuō)的機(jī)會(huì)與權(quán)利嗎?依正當(dāng)程序提出并論證自己的訴求與主張是當(dāng)事人重要的程序性權(quán)利,也是法庭辯論的核心內(nèi)容。正如哈貝馬斯所說(shuō)的,司法裁判不是一種法官獨(dú)白式的活動(dòng),而是一種通過(guò)反思性的交互機(jī)制合理地推動(dòng)同意的過(guò)程,因?yàn)榉傻蹏?guó)不只有法官,還有共同體成員。因此,充分的法庭辯論往往是程序正義的構(gòu)成性條件?;诖?一些學(xué)者擔(dān)憂人工智能的結(jié)果導(dǎo)向式?jīng)Q策可能無(wú)法充分地捕捉到法庭辯論的實(shí)踐性,進(jìn)而影響甚至剝奪當(dāng)事人言說(shuō)的機(jī)會(huì)與權(quán)利[6]。但是,人工智能司法決策并不意味著取消或減損必要的司法程序,也沒(méi)有任何證據(jù)表明,司法人工智能的效用是建立在對(duì)司法程序的不當(dāng)簡(jiǎn)化與對(duì)當(dāng)事人權(quán)利的剝奪基礎(chǔ)之上。更重要的是,在法律辯論中,司法人工智能并不排斥當(dāng)事人的訴求表達(dá)與對(duì)話,恰恰相反,人工智能需要通過(guò)法庭辯論來(lái)確保其決策前提的“正確性”。一方面,法庭辯論要想達(dá)到說(shuō)服的效果,論辯者需要充分地展開(kāi)其理由;另一方面,法庭辯論有利于言明司法案件的內(nèi)在邏輯,從而滿足司法人工智能對(duì)事實(shí)的“可表達(dá)性”需求。可以說(shuō),人工智能司法決策的形式性是建立在法庭辯論的實(shí)踐性基礎(chǔ)之上的,法庭辯論越充分越有利于司法人工智能發(fā)揮作用。因此,人工智能不會(huì)剝奪當(dāng)事人言說(shuō)的程序性權(quán)利。

此外,還有學(xué)者擔(dān)憂法庭辯論的形式替代可能會(huì)折損法官親歷性的程序性價(jià)值,從而影響人工智能決策的合法性。但是,在人工智能司法決策中,以親歷性來(lái)衡量程序正義可能并不適宜,因?yàn)樗痉ㄈ斯ぶ悄艽嬖诘囊饬x就在于部分或全部地分擔(dān)或替代法官的工作,以緩解司法壓力。從親歷性的含義看,其本質(zhì)要求是進(jìn)行決策的法官應(yīng)該親歷決策前程序。顯然,這種程序性要求是建立在人類(lèi)法官司法決策的情形之上的,但在人工智能司法決策中,這種衡量程序正義的標(biāo)準(zhǔn)將因技術(shù)革新而失去了存在的意義。就此而論,人工智能將重塑司法的面貌,或許我們應(yīng)該對(duì)這類(lèi)反思本身進(jìn)行反思。誠(chéng)如反對(duì)觀點(diǎn)所表明的,人工智能技術(shù)介入司法實(shí)踐必然會(huì)引發(fā)一系列倫理思考,但更全面的倫理反思理應(yīng)包括人工智能技術(shù)對(duì)司法倫理的重塑。

六、結(jié)語(yǔ)

技術(shù)本質(zhì)上是人類(lèi)解決自身問(wèn)題并實(shí)現(xiàn)理想生活方式的活動(dòng),其不斷革新的原動(dòng)力正在于人們對(duì)美好生活的追求,這展現(xiàn)在人之為人的基本特征之中。通過(guò)賦予人類(lèi)以滿足自身需求的工具、方法與能力,技術(shù)的價(jià)值才得以實(shí)現(xiàn)。司法人工智能最鮮明地體現(xiàn)了這一點(diǎn)。在人工智能技術(shù)日益成熟的今天,將其運(yùn)用于司法實(shí)踐的原動(dòng)力最直接地體現(xiàn)在司法系統(tǒng)所面臨的“案多人少”的壓力方面。因此,司法人工智能并非單純的智力游戲,而是有其深刻的現(xiàn)實(shí)必要性。隨著技術(shù)的不斷革新,這種現(xiàn)實(shí)必要性逐漸轉(zhuǎn)化為司法人工智能實(shí)現(xiàn)的可能性。大數(shù)據(jù)與機(jī)器學(xué)習(xí)為司法人工智能開(kāi)辟了新的道路——有限理性的經(jīng)驗(yàn)進(jìn)路。在這種進(jìn)路中,人工智能擺脫了理論進(jìn)路的局限與機(jī)械主義的指責(zé),以自下而上的方式實(shí)現(xiàn)了人類(lèi)司法經(jīng)驗(yàn)的未來(lái)面向,并且在有限理性的框架下化解了浪漫主義的主觀性問(wèn)題。盡管這種進(jìn)路面臨著經(jīng)驗(yàn)主義承受的傳統(tǒng)指責(zé),即經(jīng)驗(yàn)的可靠性問(wèn)題(過(guò)去對(duì)未來(lái)是否具有必然的指導(dǎo)意義),但是在實(shí)踐理性中不必追求這種必然性與絕對(duì)性,而只需滿足必要的相關(guān)性與有限的可接受性即可,其余的則交由例外原則來(lái)處理。

也許有人認(rèn)為人類(lèi)可能就此失去在司法領(lǐng)域的獨(dú)特性與控制力,但事實(shí)并非如此。盡管人工智能可以把人類(lèi)從占大多數(shù)的簡(jiǎn)單案件中解放出來(lái),但那些疑難案件的有效解決可能仍無(wú)法完全脫離人類(lèi)智慧。更重要的是,人類(lèi)將集中關(guān)注那些更具創(chuàng)造性的工作以確保人工智能決策的前提,包括技術(shù)規(guī)則的制定、案件的合理分流、數(shù)據(jù)可靠性與信息環(huán)境的保障、錯(cuò)誤糾偏以及責(zé)任承擔(dān)。相對(duì)于司法決策的具體運(yùn)行,這些工作才具有根本的重要性與決定性。總而言之,在司法實(shí)踐領(lǐng)域?yàn)槿斯ぶ悄茉O(shè)置“先驗(yàn)屏障”既無(wú)必要也不應(yīng)該,雖然司法人工智能是有限度的,但這個(gè)限度不應(yīng)限定在司法輔助性工作。

猜你喜歡
司法權(quán)合法性法官
Westward Movement
法官如此裁判
法官如此裁判
猴子當(dāng)法官
合法性危機(jī):百年新詩(shī)的挑戰(zhàn)與應(yīng)戰(zhàn)
論刑事自由裁量權(quán)的準(zhǔn)確公正行使
“斬?cái)唷毙姓深A(yù)司法的“黑手”
關(guān)于政治合法性研究的文獻(xiàn)綜述
美國(guó)司法干預(yù)大學(xué)自治的角色轉(zhuǎn)型
簡(jiǎn)析孟德斯鳩的三權(quán)分立與權(quán)力制衡
滦平县| 南宫市| 启东市| 洪泽县| 皮山县| 吉安市| 黄大仙区| 万载县| 庄浪县| 门头沟区| 汝南县| 天柱县| 渭南市| 汉中市| 古浪县| 尼勒克县| 务川| 聂拉木县| 合作市| 澄江县| 龙山县| 内黄县| 辽宁省| 民丰县| 海口市| 黄浦区| 西畴县| 和龙市| 大石桥市| 兴宁市| 广西| 霍林郭勒市| 彰化县| 庆安县| 邵阳市| 呼图壁县| 句容市| 松滋市| 溧阳市| 武强县| 略阳县|