榮智慧
能說會道的聊天機(jī)器人ChatGPT,帶火了背后的大語言模型GPT-3。有道是為人不識GPT-3,縱稱AI(人工智能)也枉然。
建立在GPT-3上的應(yīng)用“AI律師”,2月份打算在美國出庭。人類律師認(rèn)為此舉違反法律,齊心協(xié)力“搞走”AI同行,順手把AI律師背后的公司“不給錢”(DoNotPay)也告了。
大語言模型GPT-3,由美國人工智能研究實(shí)驗(yàn)室OpenAI研發(fā)。AI律師應(yīng)用程序,和正流行的聊天機(jī)器人程序ChatGPT“師出同門”,都用GPT-3進(jìn)行訓(xùn)練。
本來,2月某天,AI律師要協(xié)助兩位違例泊車的當(dāng)事人出席聽證會。上場前,它已經(jīng)學(xué)習(xí)了法庭記錄、法律文件,以及輸入的275宗案件。然而人類律師同仇敵愾,指出AI律師不合法,后者只能偃旗息鼓。
“不給錢”公司的行政總裁約書亞·布勞德(Joshua Browder)1月9日發(fā)布推特,擲下100萬美元,邀請?jiān)谧罡叻ㄔ撼鐾サ谋桓婊蛉祟惵蓭?,給AI律師一個(gè)出庭的機(jī)會。屆時(shí),被告人或人類律師只需戴上AirPods,根據(jù)AI律師的指示進(jìn)行辯護(hù),就算合作達(dá)成。
2015年,“不給錢”公司創(chuàng)立,靠一個(gè)小聊天機(jī)器人起家,后來逐漸可以處理醫(yī)療費(fèi)用糾紛,還能跟美國大型有線電視及網(wǎng)絡(luò)服務(wù)供貨商討價(jià)還價(jià)。
公司之所以起“不給錢”這么個(gè)名字,不是耍無賴,而是有志于改變美國高昂的律師費(fèi)用。因?yàn)槠胀ㄈ似刚埪蓭?,真的是要咬緊牙關(guān)才能掏出錢包。
美國律師采取小時(shí)收費(fèi)制。假如某律師每小時(shí)收費(fèi)100美元,為此工作了5個(gè)小時(shí),顧客就得支付500美元?!睹绹呻s志》2014年數(shù)據(jù)顯示,美國律師平均收費(fèi)為349美元每小時(shí),律所合伙人律師收費(fèi)為604美元每小時(shí)。同時(shí),律師助理所花的時(shí)間也包含在內(nèi)—每小時(shí)50~100美元,有些甚至多達(dá)150美元。
另外,工作類型不同,收取的費(fèi)用也不同,法律事務(wù)調(diào)查和出庭就是不一樣的價(jià)格。
總體而言,美國的民事訴訟流程長,往往在一年以上;每個(gè)流程都有收費(fèi)步驟,總費(fèi)用動輒幾萬美元。普通人很難利用這套專業(yè)性極強(qiáng)的手段保護(hù)自己的權(quán)益。
人工智能技術(shù)的普及,有望達(dá)成法律普惠。布勞德放出豪言壯語:“我的目標(biāo)是普通消費(fèi)者再也不用聘請律師?!蹦壳?,該公司有15萬付費(fèi)用戶,申訴或索賠信函的成功率達(dá)80%。
AI律師目前卡在進(jìn)法庭這一步。根據(jù)美國法院規(guī)定,任何電子設(shè)備都不能帶進(jìn)法庭,戴上AirPods的人類律師也不行。布勞德曾表示,法院有無障礙條例,有些特殊人士可以在法院使用電子產(chǎn)品,說不定能找到豁免的機(jī)會。
布勞德放出豪言壯語:“我的目標(biāo)是普通消費(fèi)者再也不用聘請律師。
“不給錢”公司的行政總裁約書亞·布勞德
“ 不給錢”的APP界面
執(zhí)著于進(jìn)法庭辯護(hù)的AI律師不多。
在司法行業(yè),AI應(yīng)用已經(jīng)很普遍:數(shù)據(jù)檢索、數(shù)據(jù)分析、確定與案件相關(guān)的建議和結(jié)論,都可以幾分鐘搞定,為律所節(jié)省大量時(shí)間,協(xié)助律師提高服務(wù)質(zhì)量。
倫敦刑法律師薩麗·霍布森接手了一樁案情復(fù)雜的謀殺案,需要查閱、分析的卷宗有一萬多份。她請了個(gè)AI助手Luminance,幫她整理材料、提取證據(jù),最后比自己操作提前四個(gè)星期完工,節(jié)省5萬英鎊。Luminance可以使用80種語言,受雇于全球55個(gè)國家300多個(gè)律所。
比Luminance更高階的是以色列的Litigate軟件,后者能設(shè)計(jì)辯護(hù)方案、搜索可引用的司法判例—如果說前者干的是實(shí)習(xí)生的活兒,后者干的可是高級助理的活兒了。
2018 年1月9日,美國拉斯維加斯,IBM Wat son 在消費(fèi)電子展上為觀眾提供了智能交互體驗(yàn)
據(jù)悉,導(dǎo)入案件概要和要求,Litigate可以很快檢索出關(guān)鍵人物,找出其間的關(guān)聯(lián),列出重要事件時(shí)間表,并給出它的分析和解釋。有人干脆總結(jié):“它在幫助律師思考?!?/p>
Litigate有一個(gè)競爭對手叫ROSS,后者的內(nèi)核是IBM的AI技術(shù)“華生”(Watson)。華生曾經(jīng)在《大富豪》游戲競賽中擊敗人類選手,奪得世界冠軍。
ROSS本質(zhì)上是一款法律研究工具,能識別理解自然語言,檢索法律信息數(shù)據(jù)庫,然后給出答案。而且,它也具有學(xué)習(xí)功能,會密切跟蹤法律界的最新動態(tài),在實(shí)踐中不斷自我完善。數(shù)據(jù)顯示,它能替代傳統(tǒng)律師七成的工作。
從國別來看,美國的AI法律服務(wù),或者叫法律科技(Legal Tech),起步最早,應(yīng)用廣泛。除了大名鼎鼎的ROSS,還有Relativity公司與AI創(chuàng)業(yè)公司Veritone合作,將AI用于分析影音證據(jù)、自動翻譯、客戶管理等,省去大半人力成本。
日本的大企業(yè)常涉訟于歐美國家,近年也十分關(guān)注法律科技領(lǐng)域。據(jù)悉,幅銳態(tài)科技公司(FRONTEO)提供AI服務(wù),涉及咨詢及律師平臺。2016年,其更利用IBM“華生”日語版著手開發(fā)法律案件問答程序,成為日本首個(gè)開發(fā)此類服務(wù)的公司。
從“互聯(lián)網(wǎng)+”概念風(fēng)行開始,中國法律界也開始涉足人工智能服務(wù),像“無訟”提供法律咨詢服務(wù)、會員交流、聊天機(jī)器人等多種業(yè)務(wù)。在刑事案件預(yù)測系統(tǒng)“法狗狗”上,用戶可以通過選定犯罪相關(guān)參數(shù),獲取所涉法條、預(yù)測刑期和類似案例。
過去,“法官不是人”是句罵人話。如今,“法官不是人”更可能是一句事實(shí)。
英格蘭首席大法官理查德·薩斯坎德(Richard Susskind)認(rèn)為,30多年前,人們視為荒誕的“AI法官”現(xiàn)在已絕非科幻。他目前就在一個(gè)人工智能咨詢委員會當(dāng)主席。
AI法官具有“因襲性”—嚴(yán)格按照前例“審判”。
他表示,AI法官最有可能的應(yīng)用場景之一,是案件積壓極其嚴(yán)重的法庭。比如,巴西全國有1億多宗積壓待審訴案,光靠人力根本無法消化。如果有一款A(yù)I法官輔助軟件,可以通過運(yùn)算預(yù)測裁決結(jié)果,準(zhǔn)確率達(dá)到95%或更高,無疑為減少訴案積壓提供了希望。
愛沙尼亞一馬當(dāng)先,計(jì)劃讓AI法官上崗。
愛沙尼亞的AI法官將處理少于7000歐元的小額民事訴訟案件。原告方在程序中輸入訴訟對象、金額、提告理由,AI系統(tǒng)調(diào)動學(xué)習(xí)儲備來解析法條,從而做出判決。舉例就是,同事惡意摔壞你的蘋果手機(jī),你一紙?jiān)V狀告到法院,AI法官判罰同事賠你一臺手機(jī)或折價(jià)金額。同事要是不服,可以上訴,屆時(shí)人類法官再出面審理。
聽起來非常便利,但操作起來十分復(fù)雜。
2013年,美國威斯康星州法院參酌COMPAS風(fēng)險(xiǎn)指標(biāo),判處被告埃里克·盧米斯六年徒刑。盧米斯不服,上訴到最高法院,指責(zé)AI系統(tǒng)裁決是一種“秘密審判”,要求說明機(jī)器學(xué)習(xí)系統(tǒng)如何演算判斷出他的危險(xiǎn)值。
2019年3月26日,日本東京,幅銳態(tài)科技公司的總裁守本正宏在講解A I技術(shù)
英格蘭首席大法官理查德·薩斯坎德
在美國地方的司法體系里,COMPAS基于一系列復(fù)雜的歷史數(shù)據(jù),包括年齡、性別和已有的犯罪記錄,預(yù)測案件行為人(或被告)被再次逮捕的概率,得出一個(gè)1到10分之間的“危險(xiǎn)值”,供法官參考。但這一類采取機(jī)器學(xué)習(xí)的AI,背后都是算法黑箱,并不能告訴被告這個(gè)數(shù)值是怎么算出來的。
在民主法治國家,審判必須公開透明運(yùn)作,而披上法袍的AI法官不能說明判決理由,勢必挑戰(zhàn)現(xiàn)行的法院體制,也將稀釋透明、公開、負(fù)責(zé)的司法價(jià)值。
如果在“黑箱操作”之外,AI法官還充滿偏見呢?
有報(bào)告利用公開數(shù)據(jù),分析了佛羅里達(dá)州布勞沃德縣1.8萬人的COMPAS分?jǐn)?shù)和犯罪記錄,得出了驚人的發(fā)現(xiàn):盡管COMPAS的正確預(yù)測率達(dá)到了61%,但在它的系統(tǒng)里,黑人與白人的分?jǐn)?shù)分布卻明顯不同。黑人更有可能被誤判,即被預(yù)測為高風(fēng)險(xiǎn)卻沒有再犯,白人則更有可能被漏判,即被預(yù)測為低風(fēng)險(xiǎn)卻再次犯罪。
報(bào)告總結(jié),不同種族間的誤判和漏判率的差距可以高達(dá)50%。
COMPAS如此動搖“法本”,統(tǒng)計(jì)學(xué)家蜂擁而上,迅速找到它的問題根源:COMPAS與該報(bào)告衡量“公平”的標(biāo)準(zhǔn)存在沖突。二者的公平定義類似,但用來訓(xùn)練模型的數(shù)據(jù)差異很大,導(dǎo)致最后呈現(xiàn)在統(tǒng)計(jì)學(xué)意義上的“公平”無法兼容。
更值得思考的是,AI法官具有“因襲性”—嚴(yán)格按照前例“審判”,這會弱化、壓縮法律肩負(fù)的時(shí)代性。
責(zé)任編輯謝奕秋 xyq@nfcmag.com