張炳南
(華東政法大學國際法學院,上海 200042)
人工智能時代業(yè)已來臨,正逐漸顯現(xiàn)于各行各業(yè)當中,律師行業(yè)概莫能外。2016年,IBM公司基于Watson技術研發(fā)出了世界上第一位“人工智能律師Ross”,而目前,Ross正就職于美國最大律師事務所Baker & Hostetler,協(xié)助處理破產(chǎn)業(yè)務。在Ross入職之前,IBM對其進行了十個多月的破產(chǎn)法專業(yè)的學習,Ross可以對自然語言進行回答、閱讀法律文件、收集證據(jù),并基于證據(jù)給出相關推論。除此之外,Ross還能進行自我學習,也就意味著它將跟人類律師一樣,接受的咨詢越多,算法也會逐漸優(yōu)化,變得更為專業(yè)。
人們在驚訝科技發(fā)展給法律行業(yè)帶來的巨大改變時,也不禁擔憂這樣的變化是否會對傳統(tǒng)律師帶來沖擊與威脅?事實表明,這樣的擔憂并非多余。人工智能領域專家薩斯坎德父子甚至認為“從很大程度上來說,傳統(tǒng)律師會被更為先進的系統(tǒng)所代替,或者在技術的幫助下被更為廉價的勞動力所代替,甚至外行人士都可以通過在線自助工具取代他們?!盵1]德勤在2016年公布的預測報告也顯示,在未來的20年時間里將有超過10萬個(約占39%)法律崗位將會被智能化所取代。[2]基于此,本文將試圖梳理人工智能對于傳統(tǒng)律師的挑戰(zhàn)及其限度,以探究人工智能對律師行業(yè)的影響程度。
法律檢索的重要性不言而喻,正如Don MacLeod在其書中說的:“作為律師,你需要掌握當前的法律環(huán)境。法律檢索可以讓你在此時此刻就法律標準向客戶提供建議,無論他們來自判例、法律或條例。”[3]雖然法律檢索可能十分枯燥,但是并非是一件容易的事情。打個比方,我們可以把法律檢索想象為一個拼圖游戲,作為律師的你并不知道完成拼圖后應當?shù)玫降膱D片,也不知道總共有多少塊拼圖,但要求是在極高的時間壓力下完成該拼圖。這樣的類比抓住了當今律師進行法律檢索時所面臨的兩個巨大挑戰(zhàn):他們并沒有足夠的時間完成這項工作,并且他們對于結果也缺乏信心。
據(jù)統(tǒng)計,律師平均需要花費16%到35%的工作時間進行法律檢索工作。[4]而反觀之,Ross可以在一秒鐘閱讀一百萬頁的法律文件,并尋找出所需要的檢索信息,并且高精確的檢索結果更讓人類律師無法企及。
另外,人工智能還可以通過其自然語言處理與算法模型進行法律咨詢服務。深圳一家科技公司在2016年推出了我國第一個基于人工智能的法律服務系統(tǒng)“法狗狗”,其可以根據(jù)自然語言處理、機器學習引擎和法律知識圖譜為咨詢者提供涉及八個法律領域的法律咨詢。搜狗公司研發(fā)的“搜狗律師”可以從互聯(lián)網(wǎng)上數(shù)億條法律及4000萬份判決書中篩選相關內容,為咨詢客戶提供相關回答及參考。此外,人工智能律師都會模擬人類律師基于模擬情形進行追問,并提供全天候的咨詢服務。而相比之下,傳統(tǒng)律師的法律咨詢不僅價格高昂,而且效率較低。
合同審閱是律師工作中最為基礎也最為重要的工作。毫無疑問,現(xiàn)代商業(yè)是建立在契約之上的交易活動。國際合同與商業(yè)管理協(xié)會(IACCM)發(fā)現(xiàn),美國財富排名前1000名的公司大概存在2萬到4萬份有效合同,但是有83%的企業(yè)對于他們簽訂合同的過程并不滿意。律師所提供的法律服務往往從審閱合同開始,因為合同中約定權利義務的條款才是當事人之間法律關系的核心。
2018年2月,美國LawGeex公司進行了一次法律領域中著名的“人機競賽”。競賽一方是20位具有十多年法律從業(yè)經(jīng)驗的律師,另一方是LawGeex研發(fā)三年時間并經(jīng)過上萬份合同訓練的人工智能。該競賽要求雙方對5份保密協(xié)議(Non-Disclosure Agreements,“NDAs”)中的 30 個法律關鍵問題的定位。最終競賽結果可以在下文表1中看出,人工智能的平均準確率高達94%,相比之下人類律師的平均準確率只有85%。但在時間上,人工智能僅用時26秒,而人類律師最快也用了51分鐘。[5]
表1 保密協(xié)議準確率對比匯總
因此可以看出,人工智能不僅能夠在極短的時間內對合同進行審閱,還能夠確保其審閱的精準程度。此外,應當注意的是,人工智能所具有的深度學習功能,可以隨著不斷學習對算法進行優(yōu)化。隨著學習時間的推移,人類律師將更加無法與之比擬。
對案件進行一定可能性的預測是律師辦理案件中不可或缺的環(huán)節(jié),也是當事人最為在意的核心問題。通常,律師會基于現(xiàn)行法律、判例與手頭案件的事實進行比對,并檢索出相似度較高的司法判決作為案件預測的參考。這不僅是律師向當事人進行說明與溝通的依據(jù),更是其在法庭之上向法官進行說理的核心論據(jù)。
《科學》雜志報道稱,美國伊利諾伊理工大學的科學家們建立了一個名為“隨即森林”的算法模型,對1816年到2015年間美國最高法院的判決進行了預測。該模型將回顧所有早年所作判決,并尋找案件和結果之間的聯(lián)系。判決結果包括法院是否推翻下級法院的判決以及每位法官如何投票。然后,模型分析了這一年每個案例的特點,并預測了決策結果。最后,該算法會被提供該年的實際判決結果以優(yōu)化算法的預測能力,并進行下一年的預測。最后的結果顯示,該算法基于28000份判決的預測準確度高達70.2%,這甚至于比經(jīng)驗豐富的法律專家66%的預測準確率還要高。[6]
又如,Lex Machina法律技術公司就可以通過人工智能預測法官的決定和對一方當事人的可能法律后果,從而為公司提供法律建議??梢砸姷?,人工智能可以基于其深度學習的算法對具體案件進行更為高效而準確的結果預測,而這往往是當事人作為關心的問題。
雖然目前的人工智能僅處于初始階段,還不能充分履行律師的代理工作并出庭進行答辯,但是隨著自然語言處理及算法模型的優(yōu)化,這并非不能實現(xiàn)。暫且拋開技術問題不談,我們應當對于一個前置性問題進行討論,即人工智能是否具有主體人格以具有與人類相同的“法律意義”上的代理資格?
人工智能并非自然人,因此不是法律上的當然主體。持“主體論”的觀點認為,人工智能的自我學習能力已經(jīng)不能將其簡單地視為人類的使用工具,賦予其主體資格可以使其享有特定權利與義務,并承擔相應的責任。[7]在實踐中,美國國家公路交通安全管理局已經(jīng)確認了谷歌自動駕駛汽車內部的人工智能機器人可以認定為“駕駛員”。此外,歐盟議會在《關于機器人技術的民事規(guī)則》中賦予了人工智能以“電子人”的身份,其中第59段f項中認為“從長遠考慮,為機器人創(chuàng)設一個特殊的法律地位,至少使最為高端的機器人具有電子人地位,為他們可能造成的損害做好承擔責任的準備……”
另一方面,持“客體論”的觀點認為,人工智能仍屬于民事主體所控制的機器人,不應當將其視為民事主體。首先,人工智能并不具備人類理性,其行為不能進行道德評價,不具備法律上的主體資格。其次,人工智能也不具備獨立的自主意識。雖然人工智能可以根據(jù)預設程序和算法進行自主學習與思考,但是這終究是人類智力的延伸,依賴于預設框架的設置。這與人類可以有意識、有目的的行為完全不同。[8]因此,這種觀點認為應當對人工智能進行客體定位,其只是人類改造世界而創(chuàng)造的智能工具。[9]
總之,暫且不討論技術程度是否完善,人工智能很難像訴訟律師一般具有法律上的代理資格參與諸如會見當事人、質證以及出庭答辯等活動。因為即便是賦予人工智能法律主體以“電子人”的法律人格,其規(guī)定的落腳點是為人工智能的法律責任提供指引。這一點也被持“有限人格說”的學者所認可,即認為人工智能作為工具性主體不享有倫理性的人格權與身份權,去權利僅限于財產(chǎn)性和可歸責性。[10]
雖然法律是冰冷的,但是人性是具有溫情的。任何法律上的爭議都難免涉及人情世故,人類律師能夠在案情理解上與當事人產(chǎn)生共鳴,更有利于維護當事人的權益。[11]這一點在婚姻家事領域更為明顯。很多當事人在經(jīng)歷了由情感問題破裂而導致的法律糾紛時,不僅需要代理律師能夠從法律角度幫助其解決專業(yè)性的問題,更需要代理律師能夠在情感上充分理解當事人的處境,給予其精神上的支持與安慰。應當說,如此人性溫情并不是任何人工智能可以通過算法模型取而代之的,即便其可以通過面部識別洞察情緒的波動。
此外,法律實踐并非是單純的邏輯推理,更是價值判斷的體現(xiàn)。梁慧星教授曾說“法官活動的邏輯不屬于認識思維的邏輯,而屬于情動思維的邏輯,其理想不在于各種思維結果的真實性,而是在于思維結果的生活價值或利益價值?!边@一點同樣適用于律師。畢竟大多數(shù)律師都會以法官思維進行案件預測以思考相應的解決對策。作為人所具有的社會屬性,就使得無論是律師還是法官在面臨一個具體案件時,所做出的考量會超乎于一般的理性邏輯。[12]
應當注意的是,法律問題并非皆是“非黑即白”的。對于律師而言,一起案件中任何一個事實或法律因素都會直接影響案件最終的法律結果。因此,在面對一起案件時,律師往往會根據(jù)其從業(yè)經(jīng)驗、證據(jù)程度以及案件類型進行“個案化”的具體分析。這一點與法官角度下追求“個案正義”的想法并無二致,但從律師的角度出發(fā),其職能并非是作出正確的決定,而是為一方當事人提出最為有效的立論,這就需要具備比邏輯更為復雜的實用性思考,而這往往是人工智能算法中所缺失的部分。
算法是人工智能進行決策的基礎,而人工智能進行法律分析和預測的前提是需要具有“有意義的數(shù)據(jù)”,如果沒有“有意義的數(shù)據(jù)”,那么就不能產(chǎn)生一個精準的模型,也就無法做出精確的分析。一般來說,要求收集的數(shù)據(jù)滿足兩個要件:(1)所采集的數(shù)據(jù)量必須足夠大,樣本的規(guī)模越大,統(tǒng)計與分析才能越精準;(2)所采集的數(shù)據(jù)必須準確,包括事實證據(jù)的準確度,并不存在任何偏見。
毫無疑問,在法律領域,算法模型的建立需要以充分客觀的司法數(shù)據(jù)作為支撐。目前而言,我國司法領域的大數(shù)據(jù)主要來源于中國裁判文書網(wǎng),但該網(wǎng)站僅于2014年啟用,其上傳文書的數(shù)量只有實際案件的50%。[13]此外,由于對于法律理解、案情因素等差異,我國各級法院針對同一問題往往會作出完全相反的裁判。因此,司法數(shù)據(jù)的不完整會嚴重影響算法模型的構建,從而會導致其對于案件分析、結果預測的不準確,而我國司法實踐中出現(xiàn)的不一致裁判的情形更會增加人工智能理解法律信息的難度,從而導致算法構建難以有效地為實際的法律服務提供專業(yè)保障。
此外,由于人工智能具有自主學習的算法運算規(guī)則,從司法數(shù)據(jù)被“投喂”直至案件預測結果的產(chǎn)生,這一過程本身并不透明,也被稱為“算法黑箱”。這甚至是連開發(fā)人員都不能完全理解的結果產(chǎn)生的完整過程。[14]無論是律師進行答辯亦或是法官作出判決,都需要對其結果予以合乎法律的解釋,人工智能的“算法黑箱”顯然與法律的確定性與透明性相沖突。[15]而且,人工智能的算法往往會被視為商業(yè)秘密予以保護,從而加劇其不透明性。由于無法知曉決策過程,相關當事人的知情權在一定程度上被予以剝奪,從而使得其不能對算法作出的結論進行有效的抗辯。除此之外,算法具有的“偏見性”已是不爭的事實,任何被輸入算法之中的數(shù)據(jù)都體現(xiàn)了開發(fā)者的“偏見”。所以,“算法黑箱”也會使“算法偏見”被進一步放大,從而導致“算法偏見”所導致的司法不公問題很難被糾正。
目前來說,人工智能的發(fā)展仍處于“弱人工智能”的初始階段,感性思維的缺失使其不能完全取代律師的工作。[16]但是,隨著人工智能技術的升級與更迭,具有重復性和基礎性的律師工作將會被替代,例如法律檢索、盡職調查以及數(shù)據(jù)分析。準確而言,一部分建立在邏輯與數(shù)據(jù)基礎上的,可以被算法所函射的工作會逐漸被人工智能所取代,但是需要進行情感溝通、庭審辯論的工作卻無法真正被人工智能取而代之,此外,算法數(shù)據(jù)與算法黑箱的弊病也十分明顯。因此,現(xiàn)階段的人工智能并不會完全取代所有傳統(tǒng)律師,但是會直接威脅涉及非訴訟業(yè)務的初級律師的生存。另一方面,可以預見的是,人工智能將會成為各律師事務所戰(zhàn)略部署中的重要環(huán)節(jié)。從目前人工智能的現(xiàn)有水平來看,人工智能可以大幅度提升工作效率、節(jié)約辦理案件的時間,并提供更為精準的法律信息,為贏取客戶信任占得先機。借助于人工智能的“算法優(yōu)勢”,律師行業(yè)將會迎來非同一般的戰(zhàn)略機遇。