□ 楊延超
盡管它是弱人工智能,但同樣對人類社會產(chǎn)生深刻影響。我們在實驗室基于當下主流的神經(jīng)網(wǎng)絡模型進行了系列法律人工智能實驗,更為直觀地感受到了它在編程邏輯方面的重大變革。人工智能之前的編程系邏輯編程,程序系數(shù)由人來設定,人通過改變系數(shù)最終改變程序運行結果。人工智能則改變了傳統(tǒng)的編程邏輯,程序中的系數(shù)不再是由人來設定,而是由機器基于對樣本的學習自動產(chǎn)生。與此同時,機器學習還通過搭建多層神經(jīng)網(wǎng)絡急劇增加系數(shù)數(shù)量,這一切使得人工智能具有一定的自主決策能力。機器學習催生的機器自主決策使之在生產(chǎn)生活領域產(chǎn)生了廣泛應用,諸如無人駕駛、人臉識別、語音識別、用戶畫像等,全面推動了智能社會建設。然而,與社會生產(chǎn)生活實踐不同,司法裁判系要對人的權利義務進行評價,事關社會治理與人的基本權利,人工智能是否適合司法裁判,當下還眾說紛紜、莫衷一是。
那么,人工智能應用于司法裁判,它到底能幫助法官解決哪些問題?法官與機器的邊界在哪里?它又將在哪些方面強化和弱化法律的公平價值?又該如何完善制度設計進一步推動裁判智能化?這些將成為接下來值得深入思考的問題。
1.若干法律算法模型實驗的描述
為了深入解析人工智能能否應用于司法裁判,以及它在證據(jù)審查、事實認定、法律適用等方面存在哪些優(yōu)勢與劣勢,我們在研究過程中采用了人工智能科學實驗的方法進行求證,進行了卷積人工神經(jīng)網(wǎng)絡、反向傳播人工神經(jīng)網(wǎng)絡等系列實驗,其中包括用算法模型對證據(jù)真?zhèn)芜M行判斷,用算法模型對案件事實進行認定,以及用算法模型測試其在法律適用方面的準確率等。以下為實驗的具體情況:
表1 實驗匯總表
2.關于實驗結果
實驗結果顯示,模型在不同功能上表現(xiàn)的效果差異較大。在實驗一中,將模型用于簽名真?zhèn)蔚呐袛嗌希?jīng)過迭代訓練后,其最高準確率可達到95.31%;在實驗二中,將模型用于多項證據(jù)完成事實認定,經(jīng)過迭代訓練后,其最高準確率僅有43.76%;在實驗三中,將模型用于離婚案件的定性,經(jīng)過迭代訓練后,其最高準確率僅有45.87%;在實驗四中,模型在圖形商標侵權近似判斷方面,經(jīng)過迭代訓練后,其準確率可達到81.39%;在實驗五中,模型在法律適用方面,經(jīng)過迭代訓練后,其最高準確率可達到85.89%。上述五項實驗顯示,模型在簽名真?zhèn)螌彶?、圖形商標近似侵權判斷、法律適用方面的準確率最高均可超過80%;然而,在離婚案件的定性分析以及基于多項證據(jù)完成事實認定方面,其最高準確率均低于50%,具體如下圖所示:
圖1 實驗結果圖
基于實驗結果,人工智能應用于司法裁判過程中,它在證據(jù)審查、法律事實認定、法律適用等方面所表現(xiàn)的特點并不相同。
1.AI模型在證據(jù)審查方面的特征
2.AI模型在法律事實認定方面的特征
從一個個孤立的證據(jù)到最終法律事實的認定,它需要從證據(jù)到客觀事實;再從客觀事實到法律事實。
還需注意,即使在民事案件事實的量化分析任務中,機器學習同樣也遇到了前所未有的挑戰(zhàn)。在用案件證據(jù)來還原案件事實的過程中,各證據(jù)并非簡單累加,而是要進行綜合分析。在綜合分析的過程中,需要對證據(jù)之間的關聯(lián)與沖突進行分析,比如針對證人證言是否采信的問題上,不僅僅需要分析證人證言與本案的關聯(lián)性,還需要分析證人證言中是否存在矛盾。更為重要的是,在綜合分析的過程中,還需要利用人的經(jīng)驗、常識、對社會規(guī)律的認知、對于環(huán)境文化的理解等,而這些方面,當前算法還存在著較大局限性。
其二,從客觀事實到法律事實??陀^事實不同于法律事實,如“打人”即為客觀事實,“侵權”即為法律事實,打人是否構成侵權,還需要主體進行法律價值判斷;其中包括當事人是否有過錯,是否屬于正當防衛(wèi)等要素,進而最終來認定打人是否屬于侵權。再如,離婚案件中“一方出軌”是客觀事實,但“夫妻感情破裂”就屬于法律事實,從客觀事實到法律事實還需要基于夫妻雙方的婚姻基礎、離婚原因、有無和好的可能性等進行綜合判斷。這樣,可以采用如下的公式來描述從客觀事實到法律事實的轉變:法律事實=客觀事實+價值判斷。
相比較而言,AI模型更擅長客觀事實判斷,而不擅長進行價值判斷。同樣的道理,客觀事實源于對于真?zhèn)蔚母呔S運算,而價值判斷則需要進行復雜推理;源于AI模型強于計算弱于推理的技術特征,其對于客觀事實認定的能力遠勝于價值判斷。那么,在“法律事實=客觀事實+價值判斷”這一等式中,AI模型要實現(xiàn)從客觀事實到法律事實的轉化,很大程度上取決于價值判斷所占比重,價值判斷所占比重越小,AI模型實現(xiàn)法律事實認定的效果越好;反之亦然。
3.AI模型在法律適用方面的特征
在法律適用的判斷上,AI模型又凸顯出如下特點:第一,大數(shù)據(jù)特征。用于模擬學習的數(shù)據(jù)包含了此前所有同類案例數(shù)據(jù),相比于人記憶的有限數(shù)據(jù),它呈現(xiàn)大數(shù)據(jù)特征;第二,基于深度學習的最大擬合特征。最大擬合特征同樣是相較于人記憶的“偏重性”而言,人對于記憶中有限數(shù)據(jù)的印象也不相同,而模型卻可以最大程度擬合此前所有相同或相近案例,盡最大可能反映出整體變化特征。
還需指出,模型系基于此前同類案例學習而產(chǎn)生法律適用的判斷,這也使得它在面對新型案例或者修法之后的法律適用時表現(xiàn)欠佳。對于新型判決,由于在機器人既往學習的體系中缺少相關判例,自然也就難以建構起對應的法律適用邏輯,由此,對于新型案例還主要依賴于人的經(jīng)驗、價值觀等完成法律適用。新型案例亦會逐漸增加,其本身又將作為機器學習的數(shù)據(jù),幫助機器建構法律適用邏輯。與此同時,法律修改亦會產(chǎn)生機器的法律適用難題。舊法廢除、修改或是新法誕生,都會導致舊法不再適用,機器基于舊法所形成的法律適用邏輯也就難以再適用;其道理猶如人類法官一樣,在面對法律修訂時,同樣需要再學習進而更新自己的法律理解與選擇。
當下,人工智能參與司法裁判,還面臨一系列的理論困惑:首要的是人工智能能否勝任司法裁判,法律無外乎人情,情感價值判斷在司法裁判中占有重要地位。人工智能能否勝任,當下還缺少理論解釋。其次,即使人工智能能在司法裁判中發(fā)揮積極作用,由此所導致的機器裁判權問題,又將引發(fā)機器裁判人類的憂慮,對此,當下仍然沒合理的理論予以有效解釋;最后,算法模型一旦參與司法裁判,它的法律地位如何,它能否接受當事人的質疑和辯論,同樣是建構智能裁判理論體系過程中值得思考的重要問題。
法官可以被機器取代觀點的誤區(qū)。法官可以被機器取代,始于人機圍棋大戰(zhàn)之后,李世石被機器人打敗。一個簡單但是錯誤的邏輯:連圍棋這樣如此復雜的腦力勞動都可以被機器人取代,那么法官的工作自然也可以被機器取代。這混淆了計算與思考的區(qū)別。神經(jīng)網(wǎng)絡中神經(jīng)元概念與人腦神經(jīng)元概念并非同一概念。圍棋雖復雜,但其屬于計算范疇,而計算又屬于數(shù)學范疇;案件審理則需要法律人的深層次思考,思考屬于生物學范疇,人的思考中除了數(shù)理計算,還綜合了情感、道德、歷史、文化、習俗等多重要素,其過程要遠比計算復雜得多,人類的思考機制至今仍是人類未解之謎。因此勝任圍棋未必可以勝任裁判,其道理猶如一個圍棋高手不等于一個好法官。長期以來,混淆計算與思考的認知一直盛行,由此引發(fā)了機器可以取代法官的觀點。上述觀點還引發(fā)產(chǎn)業(yè)發(fā)展的錯誤方向,當前所有試圖用機器取代法官的產(chǎn)品大都以失敗告終。由此還形成了對于法律人工智能的悲觀和失望情緒。人工智能在司法裁判中的應用也一定程度地受到了影響。
主張正義的不可計算性,一味地否認人工智能在司法裁判中的作用,同樣無益于智能裁判的發(fā)展。人工智能具有在司法裁判中給予建議決策的優(yōu)勢。人工智能在實現(xiàn)正義計算的過程中,固然有其不擅長之處,但同樣也有人難以企及的優(yōu)勢,具體包括:第一,海量數(shù)據(jù)優(yōu)勢,人腦的記憶和存儲具有有限性,即使資深法官,其記憶能夠存儲的法律規(guī)則、案例數(shù)量也同樣是極為有限的;人工智能卻可以實現(xiàn)大數(shù)據(jù)運算,其數(shù)據(jù)庫中可以存儲海量的法律法規(guī)及案例數(shù)據(jù),既包括國內(nèi)數(shù)據(jù)也包括國外數(shù)據(jù)。人工智能的大數(shù)據(jù)優(yōu)勢系人難以企及的。這也使得機器的決策和建議具有更為準確、更為全面的優(yōu)勢。第二,深度學習優(yōu)勢,利用深度學習模型,可以構建更為復雜的思維方法,使之可以解決司法裁判中更為復雜的問題,這同樣是人難以企及的。
由此,對于計算正義的理解,不能走兩個極端,一味夸大,亦或是全盤否認,都將極大阻礙人工智能在司法裁判中的應用。具體而言,可以從以下幾方面進一步詮釋計算正義理論的內(nèi)涵:
第一,在正義實現(xiàn)過程中人與模型的角色分工。價值判斷在正義實現(xiàn)過程中發(fā)揮著主導作用,它甚至貫穿于證據(jù)審查、事實認定、法律適用的全過程:首先,證據(jù)審查環(huán)節(jié)需要依賴情感價值,尤其是在證據(jù)合法性與相關性審查過程中,都需要運用價值判斷進行全案審查。其次,案件法律事實的認定,本質即是借助法律價值實現(xiàn)對于客觀事實的判斷。最后,法律適用同樣依賴于價值判斷,尤其是疑難案件或者新型案件,難有先例可以遵循,更是需要運用法的價值與原則來進行判決。相比較計算而言,價值判斷在法律正義實現(xiàn)過程發(fā)揮主導作用,而在價值判斷方面,人又強于機器,由此在法律正義實現(xiàn)過程中,人為主導正義角色,算法則為輔助正義角色。
第二,算法模型實現(xiàn)輔助正義的維度。具體而言,模型又是從以下幾方面實現(xiàn)輔助正義:其一,提升效率實現(xiàn)輔助正義;降低司法成本,提升司法參與度,人的權利可以得到更好保護。近幾年,模型還被應用于遠程庭審,極大方便了當事人與證人參與庭審,由此也方便法官更好地了解案件事實,作出公正判決。同時,當模型提升效率推動裁判進程,當事人可以即時獲得裁判結果,避免正義遲延。其二,彌補法官認知不足,實現(xiàn)輔助正義。模型可以彌補由于法官記憶數(shù)據(jù)有限性以及經(jīng)驗有限性而引發(fā)的認知不足,其決策結果可以為法官提供有力參考。
1.機器裁判權的隱憂
2.機器裁判權的正確詮釋
即使在算法模型應用于司法裁判的過程中,判決書所體現(xiàn)的依然是法官的意志,而非機器的意志。需要承認,人工智能與傳統(tǒng)計算機程序之間的本質區(qū)別,它不再是法官意志的簡單執(zhí)行,而是基于機器學習實現(xiàn)自我決策。然而,這種決策雖然在一定程度上彌補和超越了法官的思維局限,但依然沒有能超越人的控制。人工智能仍然是工具,盡管它是一個更為強大的工具,但它作為工具的本質屬性并沒有改變。對于法官而言,機器的作用絕非是替代,而是助手。人工智能具體可以在以下兩方面發(fā)揮其強大的助手優(yōu)勢:其一,人工智能的大數(shù)據(jù)優(yōu)勢可以彌補法官有限記憶的不足;其二,人工智能的深度學習優(yōu)勢可以幫助法官最大程度地借鑒前人經(jīng)驗。當然,機器并不具有像人一樣的情感價值以及對于復雜問題的綜合思考能力。因此,在司法裁判中,法官僅是借鑒機器的決策,最終作出決策的仍是法官而非機器。由此,人工智能應用于司法裁判,其人作為裁判主體的格局并沒有改變。
人工智能參與司法裁判后,其到底是強化還是弱化了裁判權的法治要義,則是這里需要重點討論的問題。人工智能還將進一步強化裁判權的法治屬性:第一,法官的裁判權接受算法模型的監(jiān)督,模型最大程度擬合了此前類似案例的決策結果,因此毫無疑問,其將受到模型的隱形監(jiān)督,即使法官享有最終決策權,但其與模型決策存在較大出入時,勢必需要充分論證其與模型決策結果存在較大區(qū)別的理由。人工智能時代,法官的監(jiān)督也將是模型進行監(jiān)督的時代。第二,在拓展法官思維局限的過程中,它可以有效防止錯案產(chǎn)生。機器學習也將最大程度借鑒此前法官的全部經(jīng)驗,從而為法官提供專業(yè)領域的有效借鑒,幫助法官作出專業(yè)判決,最大程度保障當事人的合法權利。
由此,有必要對機器裁判權的解釋予以糾偏,機器裁判權并非是機器替代法官作為裁判主體;而是法官作為裁判主體不變的格局下,機器作為更強大的工具幫助法官完成裁判工作。
在訴訟中,任何有可能影響當事人權利的要素,無論是參與訴訟的法官,還是訴訟中的證據(jù),都需要公開并接受當事人的質疑和辯論,這是法治時代維護當事人訴權的應有之義。模型算法雖然可以幫助法官更好實現(xiàn)裁判目的,但其同樣需要公開和接受當事人的質疑與辯論。然而,這一問題卻深受算法黑箱理論的困惑。在前文“機器裁判權”部分,論文雖詳細論證了算法模型在強化裁判權法治屬性的重要價值,盡管如此,如果它不能公開、透明,并接受當事人的質疑與辯論,那么它也將背離訴訟程序應用的法治之義。
1.算法黑箱理論及產(chǎn)生的緣由
2.算法黑箱理論之誤區(qū)澄清
人工神經(jīng)網(wǎng)絡在本質上講依然系由算法工程師建構的,雖然算法中的各權重參數(shù)系基于機器學習生成,并非人為定義;但它總體上并沒有脫離人的控制,具體包括:
第二,算法的可被描述性。算法不僅可以被控制,還可以采用文字、邏輯流程圖表、計算機代碼等方式進行描述。其中,文字可以詳細介紹算法應用的場景、功能以及算法訓練數(shù)據(jù)以及測試數(shù)據(jù)等情況;邏輯流程圖則可以更為直觀地梳理各模塊之間的邏輯關系;算法最終系在計算機上運行,而計算機代碼又可以詳細描述算法的運行過程及運行邏輯。
顯然,對于算法工程師與行業(yè)專家而言,算法具有可控性和可被描述性,它僅僅只是對于外行人系“黑箱”。在這一方面,算法所具備的特征與商業(yè)秘密類似。由此,算法黑箱理論實在是對于算法的一種誤讀。事實上,算法的可控性與可被描述性,也進一步?jīng)Q定了算法是可以被質證和辯論的。當算法決策的結果實質性地影響到當事人自身權益時,雙方就可以就算法本身展開辯論,具體如下:其一,算法所依據(jù)的數(shù)學模型是否科學;其二,算法應用于具體決策事務中的邏輯是否合理;其三,神經(jīng)網(wǎng)絡的建構是否科學;其四,算法訓練樣本數(shù)據(jù)及訓練方法是否科學。即使在法官并非算法專家的情況下,涉及算法相關的質證和辯論,還可以借助司法鑒定、專家證人、算法專家擔任人民陪審員等方式予以更好地解決。
3.算法的可辯論性
算法的可公開性與可描述性,自然衍生出算法的可辯論性。各方可針對算法的各個維度展開辯論:第一,數(shù)學模型的選擇是否合理;第二,訓練數(shù)據(jù)的選擇以及訓練方法是否合理;第三,算法用于解決具體問題的邏輯是否合理;第四,算法存儲服務器的公平性。在進行算法辯論的過程中,各方既可針對技術問題進行辯論,亦可針對法律問題進行辯論??傊P于算法的任何問題均可成為辯論焦點,辯論的核心依然在于,算法對于當事人權利的影響是否合法。
智能裁判理論總體上系由計算正義理論、機器裁判權理論、算法可辯論理論共同組成,其中,計算正義理論對應于算法的意義,其所要回答的恰是弱人工智能時代算法對于司法裁判的意義,其意義又在于,它從降低成本與效益遞增二個維度都極大地推動了司法正義;機器裁判理論對應于算法的地位,其所要回答的是在弱人工智能時代,在人機合作過程中,算法所具有的法律地位:法官居于主導地位,算法居于協(xié)助地位;算法可辯論性理論對應于算法的救濟,在明確了其對于司法裁判的意義以及在司法裁判中所處的地位等基本問題后,其要回答算法與當事人訴訟權利的關系,即算法在本質上系透明的,其可接受質證和辯論,這樣,便可將算法納入既有的訴訟權利制度體系。
論及智能裁判的路徑選擇,實質上需要回答我國智能裁判需要往哪里走、如何走以及路徑糾偏等系列問題。
其次,需要給予裁判智能化價值準確定位。人工智能在司法裁判中的應用,并非可有可無,而是司法裁判的必要選擇:第一,實現(xiàn)法律公平價值的需要。人工智能時代,法律的公平價值正在發(fā)生變遷。在算法模型的幫助下,人們可以了解全國范圍內(nèi)以及歷史上相同案件的裁判尺度,由此,人們對于同案同判的理解不再受制于地域或者時間的限制,從而實現(xiàn)了公平價值更大維度的擴張。第二,法律監(jiān)督的需要。給予法官自由裁量權系司法的必然要求,同時也引發(fā)裁判權濫用的憂慮。在算法模型的作用下,法官對于同類案件的裁判尺度受到此前裁判的隱形制約。第三,提升裁判專業(yè)化程度的需要。人工智能的大數(shù)據(jù)優(yōu)勢和深度學習優(yōu)勢,可以在司法裁判中彌補法官的思維盲區(qū),尤其是在專業(yè)案件的審理上,算法模型可以最大程度擬合此前判例的經(jīng)驗,從而最大程度幫助法官提升專業(yè)裁判能力。
最后,還需明確推動我國裁判智能化發(fā)展方向。我國司法裁判所累積的大數(shù)據(jù)優(yōu)勢以及當前在人工智能領域所積累的研究成果,為我國裁判智能化提供堅實基礎。當務之急是要全面加強法律AI模型于法律裁判各個痛點環(huán)節(jié)的應用,具體包括如下幾方面:
第一,充分挖掘算法模型證據(jù)真?zhèn)螌彶榉矫娴膬?yōu)勢。證據(jù)審查的首要問題系證據(jù)真實性判斷。人工智能模型在文字、圖形、音頻、視頻等真實性判斷方面具有得天獨厚的優(yōu)勢,借助人工智能模型實現(xiàn)證據(jù)的真?zhèn)闻袛嗑哂芯薮罂臻g。
第二,充分挖掘算法模型在法律事實認定方面的優(yōu)勢。在司法裁判中,事實認定分為兩個過程:客觀事實認定與法律事實認定。當前算法雖然在客觀事實認定方面還存在一定局限性,但它在法律事實方面存在長遠發(fā)展空間。在法律事實認定過程中,人與機器的思考方式截然不同:人是要件思考,機器則是算法思考。人的要件思考源于法律事實的構成要件,任何一個法律事實的認定,都需要具備一定的要件,如法律上的侵權,需要同時具備侵權行為、損害結果、過錯、因果關系(侵權行為與損害結果之間)等多個要件。人在思考某一行為是否構成法律意義上的侵權時,則會基于要件理論,逐一分析和核對該行為是否構成上述要件,進而最終認定其是否構成該法律事實。在弱人工智能時代,機器還沒有學會像人一樣進行“要件思考”,它還只能進行數(shù)學思考,在這一過程中,案件的客觀事實將被整體轉化為一個矩陣數(shù)據(jù),機器正是基于數(shù)據(jù)運算實現(xiàn)是否構成某一法律事實的概率判斷。
法律事實認定=客觀事實+價值判斷。價值判斷的比重與機器認定準確率成反比。價值判斷所占的比重越大,機器認定的準確率越低;反之,價值判斷所占的比重越小,機器認定的準確率越高。由此,基于算法模型來進行事實認定,它在知識產(chǎn)權案件方面的表現(xiàn)優(yōu)于普通民事案件,包括在認定版權、商標、專利是否侵權方面,模型在學習在先判例之后均可以得到相對比較理想的結果。
1.新型案例與常規(guī)案例的二元分割
機器學習又總依賴于已發(fā)生的在先數(shù)據(jù),而社會發(fā)展總是會引發(fā)系列新型案件誕生,這些新型案件在初期是缺乏在先同類案件數(shù)據(jù)的。因此,機器在針對常規(guī)案件的分析決策中往往有較好的表現(xiàn),而難以適用于新型案件。新型案件裁判還主要依賴于法官的價值判斷,常規(guī)案件則可以更多依賴機器解決。
進一步而言,機器主要是從以下兩方面實現(xiàn)對于常規(guī)案件的分析處理:第一,機器人基于對同類案件的學習,可以總結出既往判例中法官們適用法律的傾向性意見,從而為本案法官提供權威參考,比如在一起涉及購房合同效力的糾紛中,機器人可以基于既往判例的學習總結出主張無效或主張有效的觀點分歧,進而為本案法官提供更權威的參考,從而讓法官更加精準地理解和適用法律。第二,機器人基于對同類案件學習,可以總結出在既往判例中法官們的判罰尺度,從而為本案法官提供權威參考。無論是民事案件賠償金額計算或是刑事案件中量刑的判罰,因其在實質上涉及當事人的權益,法官們都需要在法定幅度內(nèi)完成更加精準的判罰尺度。與此同時,基于公平的原則,同類案件也應彼此顧及和關聯(lián)各自的判罰尺度,從而呈現(xiàn)同案同判的公平樣態(tài)。
最后,新型案件與常規(guī)案件的劃分也是相對而言的,新型案件也會逐漸變成常規(guī)案件。由此,針對新型案件與常規(guī)案件,人與機器的黃金分割并非一成不變,它總是隨著新型案件的演變而發(fā)生變化。
2.事實判斷與法律判斷的二元分割
算法系可公開、可質證辯論的,由此,一旦將算法應用于司法裁判中,理應允許當事人針對算法提出質疑和辯論,簡言之,在利用算法模型來推動裁判正義的過程中,還應最大程度避免算法引發(fā)的權利侵害。為此,有必要構建機器人算法審查制度,該制度具體又包含如下內(nèi)容:
1.用于司法裁判的算法公開制度
算法系人工智能產(chǎn)品的底層核心技術,甚至還屬于企業(yè)重要的商業(yè)秘密,因此,算法是否公開理應由企業(yè)自主決定。然而,應用于司法裁判中的算法,因其決策會影響當事人的權利,故而,如若對其采用商業(yè)秘密原則保護不予公開,那么,當事人自然無法對其質證辯論,顯然,這有悖于訴訟中當事人可質證辯論的基本權利。這樣,一旦算法應用于司法裁判中,鑒于其對于當事人權利所產(chǎn)生的重要影響,有必要建立此種情形下算法的強制公開制度。
2.用于司法裁判的算法審查制度
提請用于司法裁判的算法審查的主體,既可以系利害關系人,也可以是一般社會公眾。基于算法的初始公開,這使得社會一般公眾亦可監(jiān)督算法的公正性,同樣有權提請算法裁決,由此也保證應用于司法裁判的算法模型始終處于公開和受監(jiān)督狀態(tài)。當然,針對利害關系人與社會公眾提請算法裁決的利益關切點并不相同,前者系基于對自己利益的關注,后者則是基于社會公共利益的關注,故而,申請算法裁決的受理條件、法律時效等制度設計方面二者也會存在一定差異。
還需指出,在涉及應用于司法裁判的算法裁決時,其裁決的要點主要還在于算法本身是否違反了案件公正裁判賴以存在的科學、平等(無歧視)、合法等基本原則。所謂“算法科學原則”,旨在強調算法自身系科學無錯誤的,如果算法自身存在技術錯誤,則將違反算法科學原則。所謂“平等(無歧視)原則”,根植于法律面前人人平等的原則,旨在強調算法的決策過程及結果不會因為“年齡、性別、民族、受教育程度、戶籍”等區(qū)別而產(chǎn)生偏見和歧視。所謂“合法原則”,旨在強調算法決策過程和結果均應符合我國法律。基于對上述算法原則的審查,最終也會形成四種評價,即算法錯誤、算法歧視、算法違法、算法合法;其中算法錯誤、算法歧視、算法違法這三種情況可統(tǒng)稱為算法瑕疵,而算法合法可視為算法無瑕疵。由此,算法有瑕疵與算法無瑕疵亦成為算法審查的兩種結果。
3.算法審查與司法救濟
首先有必要厘清司法救濟與算法審查之間的關系。這里的司法救濟是指通過二審或者再審程序來救濟原審裁判,系要對一個具體案件作出評價,而算法審查所要解決的系該算法是否合法的問題。算法審查既可以與司法救濟一并解決,諸如當算法對司法裁判產(chǎn)生影響時,雙方便可以在二審或再審環(huán)節(jié)對算法進行辯論,二審或者再審環(huán)節(jié)有必要對算法合法性作出評價,同時也將對該算法對原審裁判的影響以及最終裁判等作出論證。當然,算法審查與司法救濟也可以獨立進行,諸如當事人僅僅只針對某一算法是否存在瑕疵提請訴訟。
還需進一步論證,當存在算法瑕疵的情況下,它是否會對受該算法影響而形成的司法裁判產(chǎn)生影響呢?在算法評價的四種結果中,算法錯誤、算法歧視、算法違法均是對算法進行了否定評價;其中算法錯誤屬于事實上的否定評價,算法歧視與算法違法屬于法律意義上否定評價;算法歧視為算法違法中的一種典型情況,算法違法則涵蓋了其他算法違法情形。在算法評價體系中,只有算法合法屬于肯定評價。對算法的否定評價是否會直接導致裁判結果無效,還取決于裁判結果對于算法決策的依賴程度。一般而言,算法決策對于裁判結果存在三種意義:第一,參考意義,即算法決策僅對于法官裁判發(fā)揮參考意義,算法決策對于法官最終裁判會施加影響,但這種影響并非必然和絕對的,在這種情況下,即使對算法給予否定性評價,也未必會影響到裁判效力;第二,事實認定意義,算法決策對于事實認定發(fā)揮決定性意義,如算法對于其中關鍵證據(jù)的認定,亦或是法官基于算法決策結果完成對于案件法律事實的認定。在這種情況下,若出現(xiàn)對于算法決策的否定評價,便會直接延及基于算法決策而認定的案件事實;第三,法律適用意義,即算法決策結果對于法官最終法律適用結果具有決定性意義,尤其是在精神損害賠償、知識產(chǎn)權法定賠償?shù)然谒惴Q策結果完成裁判金額認定。在這種情況下,若出現(xiàn)對于算法決策的否定評價,同樣也會延及基于算法決策而作出的法律適用結果。
關于智能裁判的理論建構與路徑選擇,均系圍繞“弱人工智能”概念展開,故而未討論人工智能的法律主體地位、機器人利益保護等強人工智能語境下的系列問題。絕非這些問題不重要,完全是因為人類社會還將長期處于弱人工智能時代,從而是基于現(xiàn)實的理論研究價值與可應用的實踐價值而作出的考量。
本文的研究還建立在系列人工智能試驗的基礎上,借助于卷積人工神經(jīng)網(wǎng)絡、反向傳播人工神經(jīng)網(wǎng)絡、BERT語言模型等,以期更好地探究人工智能在證據(jù)審查、事實認定、法律適用等方面的優(yōu)勢與劣勢。在實驗基礎上建構智能裁判理論,包括:第一,計算正義理論,發(fā)揮算法模型在證據(jù)認定、事實認定、法律適用方面的巨大優(yōu)勢,通過人機結合,進而實現(xiàn)更高維的公平正義。第二,機器裁判權理論,人工智能的作用不是替代,而是“輔助”,它可以幫助法官拓展思維盲區(qū),進而推動裁判智能化。第三,算法可辯論理論,算法在本質上并非黑箱,而系透明可質證的,故而,其在司法裁判中系可應用和救濟的。在智能裁判理論的基礎上進一步尋求智能裁判的路徑,其中,裁判數(shù)字化向裁判智能化變遷系智能裁判建設的方向;尋找法官與模型的黃金分割則是智能裁判建設的關鍵;構建AI裁判模型算法審查制度則是智能裁判體系建設的法律保障。