王亦偉
(北京韜安律師事務所,北京 100123)
伴隨第三次人工智能革命的到來,人工智能在自動駕駛、圖像識別、智能家居、機器翻譯、醫(yī)療服務、電子競技等領域的應用隨處可見,有關人工智能的話題不斷涌現(xiàn)。2017年以來,法學領域有關人工智能的討論越發(fā)活躍。在此背景下,人工智能在法律判斷領域的應用以及基于此技術在法院判決中實踐的假想制度也不時成為討論對象。
事實上,有關人工智能的研究很早就涉及法律判斷這一應用領域。早在1970年,Buchanan等[1]便發(fā)表了《關于人工智能和法律推理若干問題的考察》一文。在20世紀,以人工智能在法律領域應用為主題召開的國際會議,有ICAIL(International Conference on Artificial Intelligence and Law)和JAC(Jurix Annual Conference)[2]。人工智能主題研究大都基于人工智能發(fā)展的第一次熱潮(20世紀50年代到60年代)、第二次熱潮(20世紀80年代到90年代)和第三次熱潮(2006年至今)展開。有關人工智能在法律判斷領域的應用研究在第二次熱潮期興盛起來。這一時期,備受世界矚目的人工智能技術是關于“知識表示學習(Knowledge Representation Learning)”的技術,其與現(xiàn)今第三次熱潮中廣為人知的“機器學習(Machine Learning)”完全不同。探討人工智能在法律判斷領域的應用時,不僅需要著眼于現(xiàn)時流行的機器學習,而且需要關注那些所謂“過時”的基于“知識表示”的推理技術。只有梳理多方面的研究,才能把握人工智能技術發(fā)展與變遷的實質(zhì)。因此,筆者擬整理各國以法律判斷為對象的人工智能應用研究的歷史和現(xiàn)狀,并在此基礎上提出法學領域在接受這些研究時可以采取的基本立場。
所謂知識表示學習模型,是指將“知識”符號化后輸入計算機系統(tǒng),而后由推理系統(tǒng)從“知識”中導出有意義的信息,最終由判斷系統(tǒng)基于前述信息作出一定的決策智能行動[3]。在此,“知識”是指可由推理系統(tǒng)方便處理的、具備特定形式的數(shù)據(jù),與機器學習中使用的單純數(shù)據(jù)完全不同。如前所述,知識表示學習模型是在第二次熱潮中流行的研究主題,但事實上至少在法律判斷領域,目前依舊有關于此主題的研究。依據(jù)使用的知識種類,法律判斷的知識表示學習模型大致可以分為規(guī)則基礎型和判例基礎型兩種類型[4],筆者將結(jié)合研究實例闡述這兩種模型。
規(guī)則基礎型系統(tǒng)是以執(zhí)行演繹推理的知識表示學習系統(tǒng)為基礎的系統(tǒng),使用的是具有“如果……,那么……”這類形式的“知識(規(guī)則型知識)”,通過將輸入的信息與這些規(guī)則型知識相匹配導出結(jié)論(進行判斷)。也可以將這種形式的系統(tǒng)視為第一次熱潮時已獲成功的“自動定理證明系統(tǒng)(關于一定范圍的數(shù)學定理,自動構(gòu)成對其的證明的系統(tǒng))”的衍生系統(tǒng)來捕捉其意義。
基于這種“規(guī)則型知識”進行法律判斷,似乎是件極其自然的事情。因為法律規(guī)范一般具有“如果滿足‘某項法律構(gòu)成要件’,則發(fā)生‘某種法律效果’”這樣的典型結(jié)構(gòu),系統(tǒng)便是基于制定法的規(guī)則型知識,依據(jù)上述邏輯對法律問題給予回答的推理結(jié)構(gòu)。
倫敦帝國學院Sergot等開發(fā)的一個系統(tǒng),將1980年《英國國籍法》(BritishNationalityAct1980)的各項條文作為命題,將其程序化后可對有關《英國國籍法》的多種問題給出答復[5],這是制定法判斷系統(tǒng)研究方面的一個典型實例。Sergot等在該系統(tǒng)中采用了邏輯編程語言Prolog(Programming in logic)。
Prolog是將程序作為Horn子句邏輯的集合來表現(xiàn)的編程語言。命題的集合一般被稱為理論(theory),Prolog是將程序理解為一種理論,作為從中證明命題的嘗試來表示程序執(zhí)行的語言??偠灾绻队鴩ā返母黜棗l文可以通過Prolog來表達,Prolog就可以在此基礎上對有關《英國國籍法》的問題,以該問題項目是否可以從《英國國籍法》“證明”的形式給出回答。筆者將針對《英國國籍法》具體條文,以“如果A就B”的形式簡單地呈現(xiàn)Prolog的表現(xiàn)形式(如表1所示),與標準的Prolog程序相比,下述內(nèi)容較為簡略。
表1 Prolog對《英國國籍法》的表現(xiàn)形式
上述第二項規(guī)則中包含了 “只要不能證明在英國境外出生,便視為在英國境內(nèi)出生”的含義,由此不僅引入了邏輯非(logical negation),還導入了失敗即否定(negation as failure)的表現(xiàn)形式。分別使用這兩種否定形式,可以很容易地呈現(xiàn)法條的結(jié)構(gòu)。該研究的一大特征是將制定法的邏輯分析直接作為人工智能來開發(fā)。從20世紀50年代開始,制定法邏輯分析的主要目的是對去除制定法的句法歧義(syntactical ambiguity)的嘗試[6]。
在亞洲,日本國立信息科學研究所的計算機專家佐藤健等嘗試開發(fā)了根據(jù)要件事實理論進行法律判斷的PROLEG[7]。PROLEG是作為前述Prolog的擴展語言所構(gòu)建的程序語言,采用的是“如果是‘要件事實’,則得出‘效果’并且追加了‘原則/例外’”這樣的雙重結(jié)構(gòu),以此記述要件事實理論。PROLEG可以根據(jù)以此方式表達的規(guī)則型知識和關于當事人的主張和證明的信息(事實基礎)來引導該案件中的判決(接受/駁回當事人的訴訟請求)。
與Sergot等的研究不同,佐藤健等研究的特殊點在于將審判這一實際法律適用場景中含有的證明責任規(guī)范的要件事實理論作為對象。值得一提的是,PROLEG過去始終專注于民事訴訟方面的定義,但近年來也嘗試向刑事訴訟擴展[8]。
基于判例數(shù)據(jù)的法律判斷系統(tǒng)是以執(zhí)行類推的知識表示學習系統(tǒng)為基礎,使用過去的類似判例知識,在“類案類判”的大原則前提之下,通過借用類似判例的結(jié)論來進行判斷。這里所關注的是根據(jù)過去的判例知識,以及以過去判例的類似性為理由(或以非類似性為理由)導出與該判例相同的結(jié)論(或?qū)С鱿喾吹慕Y(jié)論)。
此類研究的一個實例:美國匹茲堡大學計算機專家Ashley開發(fā)了一種系統(tǒng)——HYPO,該系統(tǒng)以美國《商業(yè)秘密保護法案》(TradeSecretLaw)為材料,模擬各方當事人之間的主張與答辯。HYPO是使用因次(dimension)展現(xiàn)的判例知識來進行類推的結(jié)構(gòu)。這里所說的因次,簡而言之是構(gòu)成案件的各個要素,表現(xiàn)了有關在認定構(gòu)成商業(yè)秘密的判例中的某些特定事實(例如,對該秘密采取了一定的保密措施等)。各個判例中的每個因次都存在一個連續(xù)值,表明它在多大程度上可以成立,由此構(gòu)成該判例的一個總特征值。如果將判例知識同樣以因次這種表現(xiàn)形式輸入,HYPO便會開始檢索過去的類似判例,利用這樣的知識構(gòu)建當事人可能作出的主張,并對此進行模擬。HYPO還有幾個后續(xù)系統(tǒng),比如由Alevan等開發(fā)的CATO就是其中之一[9]。
同樣,美國德克薩斯大學的Branting博士則開發(fā)了一個以工傷事故判例為研究對象的系統(tǒng)——Grebe[10]。其中一個工傷判例的描述為:在卡車公司工作的Vahn被允許在運輸過程中去吃午飯,但在去餐館的路上發(fā)生了事故。針對前往餐廳的行為是否為工作中的行為雙方有所爭議,法院著眼于以下事實認定其為工作中的行為:(1)Vahn是卡車公司的員工;(2)公司認可可以吃午飯;(3)Vahn吃了午飯;(4)吃了午飯就不會餓;(5)不吃午飯餓了會妨礙正常工作;(6)Vahn在去餐廳吃午飯的過程中受傷。假設這里發(fā)生了新的案件(Jarek案),該案中鐵路公司的Jarek收到需夜間工作的緊急命令,因為離家很近,他被允許去告知妻子這件事,在歸宅途中受了傷。同樣將該事件拆分為各種要素,并與上述Vahn事件的判例規(guī)則的條件進行類似判斷,如果認定的要素相似度較高,則判斷Jarek的行為同屬于工作中的行為。Grebe對工傷判斷的表現(xiàn)形式如表2所示。
表2 Grebe對工傷判斷的表現(xiàn)形式
在亞洲,日本東京工業(yè)大學的計算機專家新田克己等研究開發(fā)了HELIC-Ⅱ系統(tǒng),該系統(tǒng)是依據(jù)日本法律和日本判例對各方之間的主張與答辯進行模擬[11]。但與HYPO不同,HELIC-Ⅱ是一種混合型系統(tǒng),其還是一種使用制定法相關知識的規(guī)則基礎型推理系統(tǒng),當事人的主張基本上由該規(guī)則基礎型推理系統(tǒng)構(gòu)建,判例推理系統(tǒng)則是在前述規(guī)則推理不能充分發(fā)揮作用的情況下才會被使用。也就是說,規(guī)則知識常常包含“抽象的概念”,在與案件相關的具體記述之間可能會產(chǎn)生隔閡,因此,使用判例推理來對規(guī)則推理進行補充。
在HELIC-Ⅱ系統(tǒng)中,判例分為“狀況記述”和“判例規(guī)則”兩種表現(xiàn)形式。大體上可以認為前者是對客觀事實的一種認定,后者則是判例固有的一些規(guī)則(法律解釋和經(jīng)驗規(guī)則等)。HELIC-Ⅱ原本便是基于該“判例規(guī)則”構(gòu)建的語義網(wǎng)絡,計算判例之間的類似性,并據(jù)此在制定法相關知識和具體判例的記述之間架起橋梁的結(jié)構(gòu)。HELIC-Ⅱ也有幾個后續(xù)項目,例如,搭載了語音識別技術等進行訴訟模擬的系統(tǒng)MrBengo就是其中之一[12]。
由以上研究可以看出,知識表示學習模型極其樸素,但是,其至少與對法律判斷的直率理解相輔相成。例如,法律判斷有演繹推理和類推推理兩種類型,前者對應制定法知識,后者對應判例知識,二者很容易相互結(jié)合。另外,在本文介紹的范圍內(nèi),規(guī)則基礎型系統(tǒng)都是實現(xiàn)“推理”的系統(tǒng);與此相對,判例基礎型系統(tǒng)則只是對案情討論的模擬。這是因為,相比基于類推推理的判例基礎型系統(tǒng),基于演繹推理的規(guī)則基礎型系統(tǒng)更容易導出唯一的結(jié)論。此外,由上面介紹的HELIC-Ⅱ是混合結(jié)構(gòu)的系統(tǒng)也可以看出,規(guī)則基礎型系統(tǒng)和判例基礎型系統(tǒng)不是二選一的關系,而是可以根據(jù)適合的情形任意分開或組合使用。例如,在第二次熱潮期開發(fā)的“法律專家系統(tǒng)”也和HELIC-Ⅱ一樣,以基于制定法的規(guī)則基礎型系統(tǒng)為基礎,并用判例基礎型系統(tǒng)來補充[13]。
機器學習模型是在第三次熱潮中備受關注的主題。這一時期的研究將機器學習和分類問題作為基本事項,并探究如何將其應用于法律判斷。機器學習是指從一定的數(shù)據(jù)中構(gòu)建具有普遍性的判斷標準的技術。這種具有普遍性的判斷標準模型被稱為學習模型,構(gòu)筑模型的過程稱為學習或泛化(generalization)。所謂學習,是指從有限的信息中推導出具有普遍性模型的泛化處理,就如同人類或其他生物一樣從經(jīng)歷中掌握普適性規(guī)律[14]。知識表示學習模型使用的是對于推理系統(tǒng)而言可用的,經(jīng)過特殊篩選與處理的數(shù)據(jù)(即知識)來開發(fā)人工智能;而機器學習則是讓系統(tǒng)在數(shù)據(jù)中通過泛化自動構(gòu)筑具有普遍性的模型來開發(fā)人工智能。使用這種機器學習時遇到的典型問題之一,就是“分類問題(classification problem)”。分類問題是指將輸入值按其特征分配給合適的小組。對輸入值進行分類的系統(tǒng)(分類器)很多情況下是通過機器學習完成的,一般來說,機器學習適合對比較繁雜的問題進行分類。將人工智能應用于法律判斷時,采用機器學習就是將法律判斷作為一個分類問題并加以公式化。也就是說,將法律判斷看作是將輸入的信息集合分為“接受”“駁回”等類別,建立解決分類問題的系統(tǒng)。
使用自然語言處理技術對判決進行“預測”的研究,是基于該種形式的人工智能的一個應用實例。如果以上述公式化為前提,那么,所謂判決的“預測”可以被定義為將不包括判決結(jié)論部分的信息歸類為法院將認定的判決類別的問題;而且,由于判決是一種文本數(shù)據(jù),這類任務的一種單純的具體化過程便是將不包含與判決結(jié)論相當部分(例如判決理由部分)的文本用于表示其結(jié)論的類別(例如“接受”或“駁回”)。謝菲爾德大學計算機專家Aletras等[15]使用支持向量機(Support Vector Machine,SVM)這一機器學習算法,通過讓人工智能學習歐洲人權(quán)法院的判決書,驗證人工智能能進行判決預測的準確度。實驗僅針對違反《歐洲人權(quán)公約》第3.6.8條構(gòu)成侵權(quán)的判例,通過十折交叉驗證法(stratified 10-fold cross validation)驗證使用這些判例的文本信息(詞袋和主題信息)學習后的SVM算法模型的預測準確度。當使用文本信息和主題信息,特別是“circumstances”(即其中有關訴爭情況的部分)進行預測時,準確度達到了79%。
在使用自然語言處理的預測研究中,可以有多種變化。例如,Aletras 等在研究中使用的SVM算法模型擅長使用相對少數(shù)數(shù)據(jù),研究中用于訓練的數(shù)據(jù)集數(shù)量只有250個左右。而Aletras等在后續(xù)進行的另一項研究中,嘗試使用神經(jīng)網(wǎng)絡作為學習模型,使之學習相對大量的數(shù)據(jù)(大約2 500個)[16]。與針對特定條文并預測侵權(quán)/非侵權(quán)這一課題的研究不同,該研究沒有預先確定適用的條文,而是要求系統(tǒng)先如法院一般判定是否構(gòu)成侵權(quán)。如果認定構(gòu)成侵權(quán),則需要繼續(xù)判斷是依據(jù)第幾款法條作出的認定,其特點在于嘗試了更為復雜的預測任務(多級分類問題)。
上述研究是通過將法律判斷中輸入的信息總體分類為判決中對應的各項類別而建立的公式化系統(tǒng)。與之前已經(jīng)確認的知識表示學習模型在法律判斷上比較直接的邏輯相比,將分類問題加以公式化在技巧上顯得有些不協(xié)調(diào)。特別是在法律判斷中,基于制定法或判例等“法律淵源”的判斷是必要的。從上述研究中可以看出,這樣的構(gòu)造并沒有出現(xiàn)在機器學習這一方式中。
綜上所述,已有多種形式的人工智能被應用于法律判斷領域??梢哉f,上述研究的初心都是希望人工智能在某種程度上代替司法裁判中的法官,并對相關法律問題作出獨立判斷。事實上,早在1977年,美國學者D′Amato[17]就提出了“人類法官能否以及應否被機器法官所取代”的問題,我國也有不少學者對此問題進行了探討。學者們普遍認為,人工智能僅能作為輔助法官或律師的手段,而不能完全取代法官或律師。
法律的形式理性希望法律達到一種確定性的狀態(tài),在這種狀態(tài)下,人們能對各種社會行為作出一個預先的規(guī)范要件判斷,以便在出現(xiàn)爭議時不必借助其他手段而僅通過三段論的法律邏輯推理得到一個確定的結(jié)果。但是,無論是大陸法系國家的制定法還是英美法系國家的判例法,都具有遲滯性,無法及時回應社會上某些新興事物引發(fā)的法律問題。此外,某些法律條文的含義也可能存在有爭議或者模糊不清的情況。此種情形下,人類法官必須借助法律的各項基本原則,甚至是道德、宗教、政治、經(jīng)濟上的因素去作出判斷。相應地,在沒有預設的、明確具體的規(guī)范可以參照的情形下,人們顯然不太確信人工智能可以作出正確的、符合正義的判決[18]。
有學者認為,即使人工智能法律系統(tǒng)通過了圖靈測試,能做到像人一般思考,也不能獨立替代法官的地位。其列舉了1968年美國“人民訴柯林斯案”以及“17世紀詹姆斯一世與英格蘭首席大法官柯克一段談話”兩個例子來證明上述觀點。在前一個例子中,根據(jù)證人證言,一名白人女性襲擊并試圖搶劫一名老年婦女后,乘一輛非裔美國男子開的轎車從現(xiàn)場逃離。隨后,符合其描述的一名白人女性和一名非裔美國男性被送交審判??胤皆谛淌掳讣幸氩⑹褂脭?shù)學上的蓋然性證據(jù),運用“乘積規(guī)則”,將一系列相互獨立事件發(fā)生的可能性以百分比的形式歸納出來,相乘之后的積,被認為是各事件并發(fā)的可能性。檢方將這一乘積定律應用于案件事實,進而得出了一個蓋然性結(jié)論:一對男女同時具有兩被告明顯特征的概率只有一千二百萬分之一,由此憑借計算對這兩位在押嫌疑人進行指控。在后一個例子中,當國王提出希望參與審判的想法時,柯克大法官回答道:“不錯,上帝的確賦予陛下極其豐富的知識和無與倫比的天賦;但是,陛下對于英格蘭王國的法律并不精通。法官要處理的案件動輒涉及臣民的生命、繼承、動產(chǎn)或不動產(chǎn),只有自然理性是不可能處理好的,更需要人工理性。法律是一門藝術,在一個人能夠獲得對它的認識之前,需要長期的學習和實踐?!盵19]學者通過這兩個例子證明,法律判斷不應僅僅是主觀的單純概率判斷的問題,法律也不局限于法律專業(yè)知識本身,還會涉及政治學、經(jīng)濟學、社會學、哲學等其他學科。如果一個人只懂得法律,其作出的判斷往往會背離司法所需要的真正正義[20]。也就是說,司法判決絕對不是單純的理性裁判過程,還有道德、習慣、文化、社會觀念等方面內(nèi)容,這些內(nèi)容往往需要和法官的感性判斷掛鉤,這正是人工智能所不具備的[21]。
根據(jù)上述理由,筆者認為,應該依據(jù)人工智能的發(fā)展水平對其有所區(qū)分對待。例如,當人工智能已經(jīng)達到通過圖靈測試的級別時,無論法律本身是否具有不周延性,抑或法律是一種價值判斷的問題,已經(jīng)具有類似人類思考能力的人工智能當然不會局限于法律本身作出機械、僵硬的判斷。這或許正如日本學者駒村圭吾[22]所言:“如果從法治其根本目的便是為了排除人治這一點來考量的話,人工智能的支配在排除人治這一點上不也有著異曲同工之妙,并且即使是法治,其中也有一半是由作為人的法官所獨占。所以,為了全面實施法治,甚至可以說人工智能的支配更為徹底?!?/p>
誠然,法條只有經(jīng)過法官的解釋方得以適用。在此過程中,人不免會受到自身價值觀的影響,甚至是朝著自身所希望的結(jié)論去解讀[23]。但是,法治和人治并不是完全對立的。法治是使用一種具有明確性、可預期性的規(guī)則去指導、約束社會的方方面面,這個過程中也無法脫離人的因素。各國的上述研究也在諸多環(huán)節(jié)上體現(xiàn)了人對于人工智能的干涉。如在知識表示學習模型中使用的數(shù)據(jù),數(shù)據(jù)本身就是經(jīng)過人為挑選后而輸入的,機器學習模型中算法的學習邏輯也是由人決定的。更為重要的是,人工智能對于某個法律問題的判斷邏輯本身就是基于法官、法學家等法律從業(yè)者對于法律的解釋而適用的。
近年來,我國的研究人員也開發(fā)了一些將人工智能應用于法律判斷的系統(tǒng)。例如,早在1993年,武漢大學法學院教授趙廷光便開發(fā)了電腦輔助量刑軟件;同年,中山大學學生胡釗、周宗毅、汪宏杰等合作研制了“Loa律師辦公自動化系統(tǒng)”[24]。在2016年世界互聯(lián)網(wǎng)大會智慧法院網(wǎng)絡法治論壇上,最高人民法院周強院長提出,“將積極推動人工智能在司法領域的應用”[25]。2017 年,武俠律師打造的“法律機器人”上線,欲借助互聯(lián)網(wǎng)、人工智能的優(yōu)勢構(gòu)建法律服務平臺。該系統(tǒng)可根據(jù)當事人選中需要咨詢的問題,拆分問題點,引導當事人逐一進行回答,最后系統(tǒng)將在1秒內(nèi)生成上萬字的法律咨詢意見和預判報告。第十二屆全國人民代表大會第三次會議審議通過的《最高人民法院工作報告》中指出,人民法院將加快建設智慧法院,綜合運用云計算、大數(shù)據(jù)等技術,研究構(gòu)建司法人工智能系統(tǒng),為審判體系和審判能力現(xiàn)代化注入新動力,為司法改革和法治中國建設提供有力支撐。在最高人民法院積極推進下,全國各地法院紛紛響應,各自推出了名稱不同的人工智能法律系統(tǒng),如北京法院的“睿法官”智能研判系統(tǒng),上海法院的“206”刑事案件智能輔助辦案系統(tǒng),蘇州法院的“智慧審判蘇州模式”等。
盡管我國已經(jīng)有了較為成功的實踐,但從整體上看,我國司法裁判領域的人工智能依舊處于起步階段。除上文提到的人工智能本身所具有的共性問題外,在中國,人工智能的發(fā)展還面臨著許多獨有的困境。筆者將逐一分析這些困境,并探尋應對的方法。
人工智能法律判斷在中國的發(fā)展面臨如下困境:
第一,技術上存在障礙。中國目前的人工智能在系統(tǒng)上表達不夠標準,邏輯建構(gòu)不夠確定,場景設計高度同質(zhì)化[26]。另外,算法的設計還比較粗糙,大部分公司使用的只是“神經(jīng)網(wǎng)絡深度學習”算法,沒有結(jié)合填充了豐富細節(jié)后的“知識圖譜”,使得其對于案件的判斷結(jié)果往往較為粗淺與模糊。
第二,研究領域過于集中,研究點與現(xiàn)實需求相偏離。目前,我國對于人工智能在法律判斷領域應用的研究主要集中在刑事案件領域,而在民事案件領域中研究的重點則是合同文本自動生成及部分內(nèi)容可視化表達、智能類推等[27]。事實上,我國85%的案件均為民事案件,需求也遠不止合同文本的生成,因此,客觀原因也造成了有關民事法律問題判斷的研究進展緩慢。
第三,數(shù)據(jù)的搜集整理不足。在我國,使用人工智能進行分析時,主要的數(shù)據(jù)來源是法院的裁判文書,但我國發(fā)布在網(wǎng)上的裁判文書可能僅有實踐中案例的50%,半數(shù)的案件都沒有被收錄[28]。
第四,相關人才儲備薄弱。人工智能的持續(xù)推進需要法學人才和技術人才共同努力。然而,目前我國法學人才對于大數(shù)據(jù)、算法和人工智能的理解普遍較弱;技術人才又對法律行業(yè)感知不深,往往注重眼前利益,對還在發(fā)展階段的人工智能投入較少[29]。
第五,司法公信力缺失。從古至今,我國民眾都十分強調(diào)實體正義,注重情理與法理兼顧,對如包拯、海瑞這樣清正廉潔的官員天然具有一種信賴感。中華人民共和國成立以來,同樣有像馬錫五、宋魚水、陳燕萍這樣具有高度人格魅力的法官,他們以人際關系的信任為基礎,推行親民式的審判方式,以打消百姓對于司法判決正當性的質(zhì)疑或擔憂[30]。此外,法官與當事人之間的良好溝通、法官的著裝、法庭的布置、開庭的程序,這些都會讓當事人感受到司法過程的公信力以及增加對法官的信任感。然而,如果將人工智能運用在法律判斷領域,則容易產(chǎn)生完全相反的效果。一是大部分人會覺得人工智能就是一個冰冷的機器,其缺少人的溫情,也不會主動和當事人溝通交流。二是人工智能本身就是一個黑箱。由于缺乏專業(yè)知識,大部分普通中國百姓難以理解人工智能的運轉(zhuǎn)原理,也無法親眼親耳去見證判斷過程,自然會對其作出的判決充滿不信任感。因此,如果當事人對人工智能不夠信任,那么,無論是由多么優(yōu)秀的人工智能作出的判決,當事人都會對判決的合理性表示懷疑,進而可能導致上訴率增加或產(chǎn)生其他問題,反而無法達到提升司法效率的目的。
第一,在技術上,應當堅持知識圖譜和深度學習相結(jié)合的思路,并逐步優(yōu)化算法。具體而言,可以使用非單調(diào)推理,多用思維導圖,將區(qū)塊鏈技術加入算法的設計中等??梢宰尫▽W專家參與到算法的編寫中,以起到監(jiān)督的作用。應加快更多領域技術解決方案的開發(fā),將適用范圍擴展到裁判的各個方面。
第二,在數(shù)據(jù)上,應當建立完善的數(shù)據(jù)管理系統(tǒng),并擴大數(shù)據(jù)來源,積極推進司法電子化。推進法院案例資源上網(wǎng),并努力實現(xiàn)法院、檢察院、公安、社會中公司等機構(gòu)之間的數(shù)據(jù)共享。對于既有資源,應當加強管理,實現(xiàn)要件提取標準化、類案標注科學化、類案問答交互化。
第三,在人才儲備上,應當加強法學人才與技術人才之間的交流合作,鼓勵法官等一線法律工作者在辦案過程中形成思維導圖、規(guī)范的辦案流程、規(guī)范的裁判用語等便于機器歸納與學習的材料。
第四,人工智能的算法應具備一定的公開性和可解釋性。正如我國司法機關將裁判文書公示在網(wǎng)上,推進網(wǎng)上庭審直播等,要使公眾信任司法判決,就需要將司法過程展現(xiàn)在公眾的視線中。同理,人工智能對于法律問題的判斷邏輯、方法原理等也應該公之于眾。但是,僅僅公開并不當然能使公眾信服人工智能所作出的判斷,唯有讓公眾理解其算法,才能使得公眾相信人工智能。然而,越是具有判斷準確性的人工智能,一般其算法也越是具有復雜性。為增強人工智能的司法公信力,需要在判斷準確性與可解釋性之間進行平衡[31],這是有待解決的重要問題。
目前,人工智能在我國法律判斷領域的應用尚不成熟,基礎性的資源、相應的技術和人才儲備等方面都存在一定的問題。要解決這些問題,除了需要調(diào)整觀念和方向外,還需要一定的時間。技術的進步會逐步改變?nèi)藗兊牧晳T與認知,隨著人工智能在法律判斷領域的應用不斷升級,可被方便識別的電子法律數(shù)據(jù)的積累、機器學習等算法模型的迭代效率程度及優(yōu)化效率也將呈指數(shù)級加速。無論人們是否愿意接受,司法裁判中的相當一部分工作都正在逐步轉(zhuǎn)移給人工智能,未來人工智能所承擔工作的比重會逐漸增大,人們對于人工智能的認知也會更加深入,但未來也將面臨新的困境與挑戰(zhàn)。