国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

算法的法律與法律的算法

2018-02-06 16:29:09
中國法律評論 2018年2期
關(guān)鍵詞:人工智能法律算法

鄭 戈

一、問題的提出

戊戌年春節(jié)剛過,就有兩則關(guān)于人工智能的新聞先后在微信朋友圈“刷屏”:一則關(guān)于特斯拉自動駕駛汽車,另一則關(guān)于一款法律人工智能產(chǎn)品(被稱為“律政界AlphaGo”)。

自動駕駛汽車是人工智能最熱門的應(yīng)用領(lǐng)域之一,它結(jié)合了智能算法、傳感器和執(zhí)行器,可以說是一種有“感知”能力、“判斷”能力和“執(zhí)行”能力的智能產(chǎn)品。其鼓吹者不僅宣稱自動駕駛汽車將大大減少目前全球每年100多萬因交通事故死亡的人數(shù),最終“將人類趕出駕駛座”,而且指出自動駕駛汽車將帶來一系列生產(chǎn)力和生產(chǎn)關(guān)系方面的根本變革,比如人們可以在交通工具上工作,通勤時間不再是成本,而變成創(chuàng)造價值的時間,購買汽車并且讓汽車大部分時間都躺在車庫或停車場將被大多數(shù)人視為不明智的選擇,招之即來、揮之即去的自動駕駛汽車將使汽車成為24小時都在路上的共享物品,這將極大緩解交通擁堵和停車位緊張等令人頭疼的城市問題。但自動駕駛汽車真的安全嗎?人們能把自己的人身安全交托給一部由算法控制的機(jī)器嗎?當(dāng)這部機(jī)器導(dǎo)致了人身傷亡和財產(chǎn)損失的時候,法律責(zé)任應(yīng)如何分配?這些都是特斯拉事件促使我們再三思考的問題。

2018年2月27日,央視新聞客戶端報道:歷時一年多的河北邯鄲車主高巨斌因特斯拉的Model S自動駕駛汽車在自動駕駛狀態(tài)下發(fā)生事故造成其子高雅寧死亡而起訴特斯拉公司一案有了新進(jìn)展,此前一直主張“沒有辦法知道”發(fā)生事故時車輛是否啟用了“自動駕駛”(Autopilot)的特斯拉在大量證據(jù)面前被迫承認(rèn)車輛在事故發(fā)生時處于自動駕駛狀態(tài)。這起事故發(fā)生在2016年1月20日,是全球首起自動駕駛汽車致死事件。就在同年5月的一天,40歲的美國退伍兵、網(wǎng)絡(luò)設(shè)備公司老板約書亞·布朗(Joshua Brown)駕駛的一輛特斯拉Model S自動駕駛汽車在佛羅里達(dá)州列維縣(Levy County)的27A美國高速公路上與一輛卡車相撞,布朗當(dāng)場死亡。美國國家交通安全委員會(NTSB)的調(diào)查表明,布朗和自動駕駛系統(tǒng)都未能識別出這輛卡車,特斯拉直接從卡車下面穿過,車頂被掀開,布朗的頭部嚴(yán)重受傷,直到撞到一棵樹上才停下。汽車的氣囊在撞上卡車時也未打開,直到撞樹時才打開。1Gareth Corfield, “Tesla Death Smash Probe: Neither Driver Nor Autopilot Saw the Truck”, The Register, June 20, 2017,https://www.theregister.co.uk/AMP/2017/06/20/tesla_death_crash_accident_report_ntsb/, accesscd on March 22, 2018.

值得注意的是,這兩起事故發(fā)生時,中美兩國都未曾制定允許自動駕駛汽車上路的道路交通管理規(guī)則和事故責(zé)任規(guī)則。直到今天,相關(guān)的規(guī)則也仍在醞釀過程之中。而這些事故使我們看到,智能算法操縱的汽車早已默默上路,正在與人類司機(jī)駕駛的汽車互動。事故早已先于規(guī)則出現(xiàn)。同時,這兩起事故中喪生的司機(jī)都是退伍軍人,這個特定身份或許意味著他們敢于冒險,在事故發(fā)生時他們都沒有“駕駛”汽車,而是放心地把自己的安危交給智能算法。但現(xiàn)實生活中大多數(shù)人都是“風(fēng)險規(guī)避者”,對于不能確定是否安全的新產(chǎn)品,我們總是不愿意貿(mào)然去嘗試。立法可以起到穩(wěn)定人心的作用:雖然法律不能消除事故,但可以讓人們覺得有安全保障。

這類事件引出了本文要討論的第一個問題,即算法的法律。我們正在進(jìn)入“算法統(tǒng)治的時代”。越來越多的人擁有不止一種穿戴式智能設(shè)備,從智能手機(jī)、智能手環(huán)、智能眼鏡到智能運(yùn)動鞋、智能手套、智能服裝,我們有些人生活在智能家居環(huán)境中,室內(nèi)遍布著智能照明系統(tǒng)、智能冰箱、智能洗衣機(jī)、掃地機(jī)器人、擦窗機(jī)器人,等等。這些設(shè)備隨時隨刻都在向“云端”傳送著我們的各種信息,從心跳、脈搏等身體信息到消費信息、飲食習(xí)慣、活動軌跡,等等。我們因此成為“物聯(lián)網(wǎng)”時代的“量化自我”(quantified self)或“可測度的自我”(measurable self),2Sander Klous, Nart Wielaard, We are Big Data: The Future of the Information Society, Atlantis Press, 2016, p.61.我們的一舉一動都留下了電子痕跡,變成可供處理、分析和利用的數(shù)據(jù)。但我們并不擁有這些數(shù)據(jù),也無法控制這些數(shù)據(jù),數(shù)據(jù)屬于為我們提供各種服務(wù)的“大數(shù)據(jù)掌控者”。因此,量化自我可能是一個不準(zhǔn)確的概念,它讓我們誤以為我們可以借助大數(shù)據(jù)來更好地進(jìn)行自我管理和自我實現(xiàn)。更準(zhǔn)確的概念應(yīng)該是“被強(qiáng)加給個人的量化身份”。3Frank Pasquale, Danielle Keats Citron, “Promoting Innovation While Preventing Discrimination: Policy Goals for the Scored Society” , Washington Law Review,Vol.89 (2014), p.1414.

人不是數(shù)據(jù),更不是電子痕跡的匯總,但技術(shù)正在使數(shù)據(jù)得到處理和整合,形成各種各樣的自動化區(qū)分、評分、排序和決策,這些活動反過來使我們的“真實自我”在社會層面變得無關(guān)緊要。我們進(jìn)入所謂“微粒社會”,4[德]克里斯托夫·庫克里克:《微粒社會:數(shù)字化時代的社會模式》,黃昆、夏柯譯,中信出版社2017年版。我們都成為數(shù)據(jù),并最終成為被算法所定義的人。算法權(quán)力(algorithmic power)這種新興的權(quán)力并不把我們當(dāng)成“主體”來對待,而是作為可計算、可預(yù)測、可控制的客體。5John Cheney-Lippold, We Are Data: Algorithms and the Making of Our Digital Selves, New York University Press, 2017,p.141.在這里,馬克思和恩格斯在一百多年以前所描述的資本主義對全部社會關(guān)系的革命性改造在數(shù)字技術(shù)的幫助下以更加徹底的方式得以推進(jìn):“一切固定的僵化的關(guān)系以及與之相適應(yīng)的素被尊崇的觀念和見解都被消除了,一切新形成的關(guān)系等不到固定下來就陳舊了。一切等級的和固定的東西都煙消云散了,一切神圣的東西都被褻瀆了。”6[德]馬克思、恩格斯:《共產(chǎn)黨宣言》,載韋建樺主編:《馬克思恩格斯選集》(第一卷),中共中央馬克思恩格斯列寧斯大林著作編譯局編譯,人民出版社2012年版,第403頁。大數(shù)據(jù)掌控者們借助越來越智能化的算法分析和利用著我們的數(shù)據(jù),開發(fā)著靠數(shù)據(jù)化的人類經(jīng)驗喂養(yǎng)的人工智能產(chǎn)品,在為我們的生活提供越來越多便利的同時影響著我們的選擇和決策,并在此過程中積累起日益膨脹的財富、技術(shù)和人力資源。我們時常聽到各種美妙的新詞匯,比如共享經(jīng)濟(jì),似乎我們都是這個新世界的主人,分享著它所帶來的各種好處,但“共享經(jīng)濟(jì)其實是一種聚合經(jīng)濟(jì)”,7Don Tapscott, Alex Tapscott, Blockchain Revolution: How the Technology Behind Bitcoin Is Changing Money, Business,and the World, Penguin, 2016, p.28.它所產(chǎn)生的巨大利益屬于聚合數(shù)據(jù)的平臺或“架構(gòu)”,我們都在為自己的消費付費,而我們在消費的同時也都在生產(chǎn),生產(chǎn)著數(shù)據(jù),但沒人為我們的數(shù)據(jù)生產(chǎn)支付報酬。我們是生產(chǎn)性的消費者(prosumer),“免費”使用APP或其他網(wǎng)絡(luò)服務(wù)就是我們的報酬。8參見 Birgit Bl?ttel-Mink und Kai-Uwe Hellmann (Hrsg.), Prosumer Revisited: Zur Aktualit?t einer Debatte, VS Verlag für Sozialwissenschaften, 2010。由此可見,有形的自動駕駛汽車只是算法影響人類生活的一個例子,而無形的智能算法已經(jīng)改變了我們生產(chǎn)方式、消費方式和生產(chǎn)關(guān)系、社會關(guān)系。法律如何規(guī)制算法,解決算法所帶來的主體性流失、權(quán)利損害和歧視問題?現(xiàn)有的立法和規(guī)制模式已經(jīng)提供了一些可供參考的方案,通過比較這些方案,評析其利弊,我們可以形成一條相對清晰的思路。

第二則新聞是:專門從事法律人工智能產(chǎn)品開發(fā)的LawGeex公司與斯坦福、杜克和南加州大學(xué)的法學(xué)教授們合作進(jìn)行了一項新的研究,讓20名有經(jīng)驗的律師與訓(xùn)練好的法律智能算法競賽,在四小時之內(nèi)審查五份保密協(xié)議,找出包括保密關(guān)系、保密范圍、仲裁、賠償在內(nèi)的30個法律問題點,以界定法律問題的準(zhǔn)確和明晰程度作為得分點。人類律師平均花費9“Cambridge students organise 'AI v Lawyers' challenge,” https://www.law.cam.ac.uk/press/news/2017/11/cambridgestudents-organise-ai-v-lawyers-challenge, accesscd on March 25, 2018.2分鐘完成了任務(wù),準(zhǔn)確率是85%,而人工智能系統(tǒng)僅用了26秒就完成任務(wù),準(zhǔn)確率高達(dá)95%。實際上,這已不是人工智能在法律技能競賽中第一次打敗人類了。2017年11Niklas Luhmann, Theory of Society, Volume I, translated by Rhodes Barrett, Stanford University Press, 2012, p.69.月,劍橋大學(xué)法學(xué)院的學(xué)生們組織一次人—機(jī)法律競賽,由112European Parliament, Report with Recommendations to the Commission on Civil Rules on Robotics, A8-0005/2017, http://www.europarl.europa.eu/sides/getDoc.do?type=REPORT&reference=A8-2017-0005&language=EN, accesscd on March 25, 2018.位自愿報名參賽的律師和開發(fā)法律人工智能產(chǎn)品的新創(chuàng)企業(yè)CaseCrunch的一款產(chǎn)品進(jìn)行比賽,比賽內(nèi)容是預(yù)測金融申訴專員(Financial Ombudsman)對付款保障保險(PPI)不當(dāng)銷售申訴實際案例的裁斷,結(jié)果人工智能產(chǎn)品的預(yù)測準(zhǔn)確率高達(dá)86.6%,而人類律師的預(yù)測準(zhǔn)確率只有62.3%。9“Cambridge students organise 'AI v Lawyers' challenge,” https://www.law.cam.ac.uk/press/news/2017/11/cambridgestudents-organise-ai-v-lawyers-challenge, accesscd on March 25, 2018.

這一類事件涉及本文要討論的第二個問題:法律的算法,即法律人的推理和判斷在多大程度上能夠被算法所取代,或者說,法律職業(yè)在多大程度上能夠被法律人工智能產(chǎn)品所取代。這是法律職業(yè)者們所關(guān)心的問題。算法能為法律做什么,取決于我們對法律思維和法律方法的理解,也取決于算法本身的發(fā)展?fàn)顟B(tài)。本文第三部分將重點討論法律算法化的可能性及其限度。

信息技術(shù)革命帶來了新的權(quán)力形態(tài),導(dǎo)致了“算力即權(quán)力”的新現(xiàn)象,同時也使傳統(tǒng)上用來抗衡國家權(quán)力的公民權(quán)利面對更隱微、更無所不在、更多元化的權(quán)力技術(shù)的侵蝕。法律是一種技藝,更是一套形塑體現(xiàn)人類基本價值的良好秩序的規(guī)范體系。面對新型的權(quán)力格局和權(quán)利處境,法治將向何處發(fā)展?未來的法治秩序?qū)⒊尸F(xiàn)何種面貌?這是本文最后一部分將會討論的問題。

二、算法的法律

技術(shù)是導(dǎo)致經(jīng)濟(jì)—社會變革的重要變量之一,而且是不可逆轉(zhuǎn)的變量。法國哲學(xué)家德布雷(Régis Debray)寫道:“歸根到底,唯一跳出星球運(yùn)轉(zhuǎn)的循環(huán)意義外的革命不是政治革命而是技術(shù)革命,因為只有它們才是不復(fù)返的。有了電流后就不再用蠟燭,有了汽輪船就不再用帆船。然而有了十月革命還是回到了東正教……”10[法]雷吉斯·德布雷、趙汀陽:《兩面之詞:關(guān)于革命問題的通信》,張萬申譯,中信出版社2015年版,第23頁。人工智能是一種正在給人類社會帶來全方位的深刻變革的技術(shù),正像所有的技術(shù)一樣,它服務(wù)于特定的人類目的。但機(jī)器學(xué)習(xí)(尤其是無監(jiān)督學(xué)習(xí))結(jié)果的不可控性又使人工智能不同于以往的技術(shù),其中蘊(yùn)含著更大的風(fēng)險和不確定性。法律應(yīng)當(dāng)如何規(guī)制人工智能,從而在鼓勵創(chuàng)新的同時保護(hù)人類社會的基本價值并將風(fēng)險保持在可控范圍之內(nèi)?這是一個已經(jīng)引起廣泛討論和立法回應(yīng)的問題。

(一)創(chuàng)設(shè)新的法律人格

人工智能從某種意義上講是一種能夠?qū)W習(xí)、判斷和決策的算法,它模仿和替代人類智能的潛質(zhì)促使人們重新思考人與機(jī)器之間的關(guān)系。德國思想家盧曼(Niklas Luhmann)指出:“電子數(shù)據(jù)處理技術(shù)已經(jīng)改變了人與機(jī)器之間的關(guān)系。這種技術(shù)不能再被認(rèn)為是對體力勞動的輔助,因此要求我們重新界定人與機(jī)器的關(guān)系?!斯ぶ悄堋芯矿w現(xiàn)了這種變化——甚至開始質(zhì)疑將問題表述成人機(jī)關(guān)系就認(rèn)知科學(xué)的目的而言是否妥當(dāng)。”11Niklas Luhmann, Theory of Society, Volume I, translated by Rhodes Barrett, Stanford University Press, 2012, p.69.

對“人機(jī)關(guān)系”新形態(tài)最先作出立法回應(yīng)的是歐盟。2016年,歐洲議會提出了“機(jī)器人法”立法建議報告。12European Parliament, Report with Recommendations to the Commission on Civil Rules on Robotics, A8-0005/2017, http://www.europarl.europa.eu/sides/getDoc.do?type=REPORT&reference=A8-2017-0005&language=EN, accesscd on March 25, 2018.鑒于人工智能可能在無人監(jiān)管的情況下做出“決策”并自主執(zhí)行這樣的“決策”,該報告在第50(f)項建議:“從長遠(yuǎn)來看要創(chuàng)設(shè)機(jī)器人的特殊法律地位,以確保至少最復(fù)雜的自動化機(jī)器人可以被確認(rèn)為享有電子人(electronic persons)的法律地位,有責(zé)任彌補(bǔ)自己所造成的任何損害,并且可能在機(jī)器人作出自主決策或以其他方式與第三人獨立交往的案件中適用電子人格(electronic personality)?!表n國國會正在討論的《機(jī)器人基本法案》以歐盟的這份報告為范本,也提出要“賦予機(jī)器人以享有權(quán)利并承擔(dān)義務(wù)的電子人格?!?3參見https://www.lawmaking.go.kr/lmSts/nsmLmSts/out/2008068/detailRP,2018年3月25日訪問。沙特阿拉伯則在沒有相關(guān)立法的情況下在2017年授予一家香港公司生產(chǎn)的機(jī)器人索菲亞以公民身份并向“她”發(fā)放了護(hù)照,其主要目的是給沙特的人工智能發(fā)展戰(zhàn)略做宣傳。

實際上,在如何落實這種“法律人格”所必然帶來的民事行為能力和責(zé)任能力時,歐洲議會報告并沒有提出具體的方案。如果機(jī)器人對人造成了損害,無論是適用羅馬法中的“繳出賠償”(noxoe deditio)原則(把機(jī)器人交給受害者或其家屬處置),還是讓機(jī)器人支付賠償金或坐牢,最終承擔(dān)責(zé)任的始終是機(jī)器人的“主人”,因為機(jī)器人不可能有獨立的收入,限制它的“自由”則等于剝奪了其“主人”的財產(chǎn)權(quán)。由此可見,機(jī)器人無論以何種方式承擔(dān)責(zé)任,最終的責(zé)任承擔(dān)者都是人,這使它的“法律人格”顯得多余和毫無必要,經(jīng)不住“奧康剃刀”(如無必要,勿增實體)的檢驗。實際上,這份報告在具體的規(guī)則設(shè)計部分也自動放棄了適用機(jī)器人“法律人格”的努力,比如,它提議制造商為他們的機(jī)器人購買強(qiáng)制性保險。此外,還要設(shè)立專門的基金來補(bǔ)充保險機(jī)制,主要的出資人也是制造商、經(jīng)銷商和其他利益相關(guān)者。

賦予具有自動化決策(ADM)能力的人工智能體以法律人格并不是一種完全不可行的模式,不可行的是目前這種缺乏相應(yīng)法律能力和法律責(zé)任分配機(jī)制的簡單擬人化模式。出于解決問題的需要,法律當(dāng)中充滿著各種擬制(fictions),“法人”這種“不可見、不可觸、只存在于法律的凝思之中”14馬歇爾大法官語,參見Dartmouth College v. Woodward, 4 Wheaton 518, 627 (1819)。的就是其中的一種,它導(dǎo)致了獨立于自然人的行為能力和責(zé)任能力規(guī)則。要使“電子人”這一新的法律擬制有意義,就必須對智能算法的設(shè)計原理、它與人(設(shè)計者和使用者)之間的互動模式以及它做出決策的自主程度進(jìn)行詳細(xì)的研究、分類和基于應(yīng)用場景的規(guī)則設(shè)計,15可參見Argyro P. Karanasiou, Dimitris A. Pinotsis, “A Study into the Layers of Automated Decision-making: Emergent Normative and Legal Aspects of Deep Learning” , International Review of Law, Computers & Technology, Vol.31, Issue 2(2017), pp.170-187。從而使它能夠帶來現(xiàn)行自然人和法人概念所無法得出的權(quán)責(zé)規(guī)則。

(二)矯正正義模式

法律,尤其是私法,所體現(xiàn)的核心價值是交換正義和矯正正義。對于自愿的交易,法律旨在確保承諾的履行,合同法便是為了實現(xiàn)這一功能而出現(xiàn)的。對于非自愿發(fā)生的初始狀態(tài)改變,對損害給予救濟(jì)的侵權(quán)法原則和對不當(dāng)?shù)美枰苑颠€的民法原則(restitution)是主要的法律介入形式。將矯正正義的形式法則應(yīng)用于各種事實場景的技藝被認(rèn)為是法律的獨特技藝所在,體現(xiàn)了柯克(Edward Coke)所說的“人造理性”。16Charles Fried, “Artificial Reason of the Law or: What Lawyers Know” , Texas Law Review, Vol.60 (1981),p.35.影響甚大的多倫多大學(xué)新形式主義法律學(xué)派將矯正正義的概念化、類型化和系統(tǒng)化處理視為法學(xué)維持自身獨立品格、避免受法律和社會科學(xué)交叉學(xué)科侵蝕的關(guān)鍵所在。17參見Ernest J. Weinrib, The Idea of Private Law, Oxford University Press, 1995; Ernest J. Weinrib, Corrective Jus-tice,Oxford University Press, 2012; Stephen Waddams, Dimensions of Private Law, Cambridge University Press, 2003。這種思路明顯體現(xiàn)在人工智能若干應(yīng)用場景的法律回應(yīng)之中,自動駕駛就是一個例子。在特斯拉Model S自動駕駛汽車造成人員死亡的中美兩個案例中,爭議的焦點都在于發(fā)生事故時車上的自動駕駛系統(tǒng)是否處于啟動狀態(tài),其中所體現(xiàn)的侵權(quán)法原則是:在事故責(zé)任不在于別的車輛的情況下,如果汽車處在自動駕駛狀態(tài),責(zé)任應(yīng)當(dāng)由汽車制造商承擔(dān);如果汽車處在人為操作狀態(tài),責(zé)任則在于司機(jī)。雖然中美兩國都還沒有專門針對自動駕駛汽車的交通事故責(zé)任進(jìn)行立法,但這樣的基本原則卻已經(jīng)包含在現(xiàn)有的法律體系和法律人的“默會知識”之中。實際上,這一原則源遠(yuǎn)流長,可以追溯到馬車、騾車時代的古羅馬。

《學(xué)說匯纂》中有一項基本的法律原則:如果人為原因造成了損害,就需要從結(jié)果回溯到原因,法律存在于因果關(guān)系之中(in causa ius esse positum)。同時,法律只懲罰有過錯的行為,在確定法律上的請求權(quán)基礎(chǔ)的時候,我們不僅需要找到因果關(guān)系(causa),還需要發(fā)現(xiàn)過錯(culpa),因為“惡意和過失才是應(yīng)受懲罰的”(dolus et culpa punitur)。18Iustinian, Digesta Iustiniani Augusti, Vol.I, ed. and trans. Theodor Mommsen, Berolini: Apud Weidmannos, 1870, 9.2.30.3.《學(xué)說匯纂》第九卷第1章講述了四腳動物導(dǎo)致無意損害的請求權(quán)問題。一般原則是:動物的主人要么將其交給受害人一方自由處置,要么作出經(jīng)濟(jì)賠償,用今天的話來說,這是一種嚴(yán)格責(zé)任。在法學(xué)家阿非努斯與一名奴隸主之間的對話中,奴隸主問法學(xué)家:有兩輛騾車在卡皮托爾山的上坡路上行進(jìn),第一輛車的車夫在后面推騾車,以便協(xié)助騾子上坡,但不知何故這輛騾車突然后退,車夫為了自身安全閃開了,以至于這輛車撞上了后面一輛車的騾子,導(dǎo)致第二輛車撞上了一名奴隸男孩。我應(yīng)當(dāng)向誰提起訴訟?法學(xué)家答曰:法律要到因果關(guān)系中去尋找。如果是車夫主動改變原來的行為方式導(dǎo)致騾子后退,那么就應(yīng)當(dāng)向車夫提起訴訟。因為放開某物令其對他人造成傷害就跟主動拿出武器傷害他人一樣。如果騾子后退是因為受到驚嚇,車夫退讓是為了自保,那么,更合理的方式是向騾子的主人提起訴訟。如果是因為騾子無力負(fù)重或車夫無力繼續(xù)推車,那么奴隸主對騾子主人和車夫都沒有請求權(quán)。19Ibid.,9.2.52.2.今天的自動駕駛法仍體現(xiàn)了這個古老的法律規(guī)則,只要我們把騾子換成自動駕駛系統(tǒng)。

2017年5月,德國聯(lián)邦議會通過了一部法案,對德國《道路交通法》進(jìn)行了修改,允許高度自動化和完全自動化的汽車作為交通工具上路。但為了符合1968年《維也納道路交通公約》第8條“每一部車輛在行駛時都必須有駕駛員在位”的規(guī)定,它沒有允許自動駕駛汽車變成“無人駕駛”汽車。它規(guī)定,當(dāng)自動駕駛系統(tǒng)啟動之后,司機(jī)可以轉(zhuǎn)移注意力,比如去讀書或上網(wǎng),但他必須保持足夠的警覺,以便在系統(tǒng)發(fā)出請求時恢復(fù)人工控制。它還要求高度或完全自動化汽車安裝記錄駕駛過程的黑匣子,在沒有卷入交通事故的情況下,黑匣子信息必須保存半年。如果自動駕駛模式正在運(yùn)行過程中發(fā)生了事故,責(zé)任在于汽車制造商。但如果自動駕駛系統(tǒng)已經(jīng)發(fā)出了請求人工控制的信號,責(zé)任便轉(zhuǎn)移到了駕駛?cè)藛T身上。

德國的這部法律受到業(yè)界的猛烈批評。有人指出,在新法下,司機(jī)不知道該怎樣做才能避免法律責(zé)任,自動駕駛汽車無法實現(xiàn)真正的“無人駕駛”,也就是車上只有乘客而沒有駕駛員,阻礙了自動駕駛汽車的商業(yè)化發(fā)展。試想,如果一個花比傳統(tǒng)汽車貴得多的價錢購買了自動駕駛汽車,卻時刻必須保持警覺,而且要在自動駕駛系統(tǒng)控制汽車操作一段時間后瞬間介入,應(yīng)付緊急情況,這實際上對駕駛員提出了更高的要求。新法把自動駕駛汽車造成人身傷亡的最高賠償額度提高到1000萬歐元,比原來的最高賠償額度增加了一倍。雖然這筆賠償在多數(shù)情況下將由保險公司支付,但保險公司無疑會提高保費,這也增加了自動駕駛汽車車主的負(fù)擔(dān)。

(三)風(fēng)險控制模式

對于一種深刻改變著社會而其中包含的風(fēng)險尚無法確知的技術(shù),損害發(fā)生之后的司法救濟(jì)顯然無法確保社會的公共利益。因此,許多國家都試圖設(shè)立專門的規(guī)制機(jī)構(gòu)來負(fù)責(zé)人工智能研發(fā)和產(chǎn)品化過程中的風(fēng)險評估、風(fēng)險溝通和風(fēng)險管理。比如,歐洲議會報告中便提議設(shè)立一個“歐洲機(jī)器人和人工智能局”來統(tǒng)籌該領(lǐng)域的風(fēng)險規(guī)制工作。2017年12月,美國眾議院討論了由議員約翰·德萊尼(John Delaney)提出的《人工智能的未來法案》,其中的主要內(nèi)容也是要求在商務(wù)部內(nèi)設(shè)立一個“聯(lián)邦人工智能發(fā)展與應(yīng)用顧問委員會”,就人工智能涉及的技術(shù)、商業(yè)、國家安全等問題進(jìn)行綜合研判并向政府提供立法和規(guī)制建議。該法案特別強(qiáng)調(diào)了促進(jìn)人工智能發(fā)展與防止其負(fù)面影響之間的平衡問題,指出人工智能技術(shù)的持續(xù)發(fā)展對于美國的經(jīng)濟(jì)繁榮、社會穩(wěn)定和國家安全具有至關(guān)重要(critical)的意義,不能因為擔(dān)憂其不可控的風(fēng)險就采取過多的抑制措施。此外,日本經(jīng)濟(jì)產(chǎn)業(yè)省已經(jīng)于2015年7月1日在產(chǎn)業(yè)機(jī)械課內(nèi)成立了“機(jī)器人政策室”,20《日本經(jīng)產(chǎn)省成立機(jī)器人政策室》,載 http://finance.sina.com.cn/world/20150701/122322562315.shtml,2018年3月10日訪問。前述韓國《機(jī)器人基本法案》當(dāng)中也提出要建立直接對總理負(fù)責(zé)的“國家機(jī)器人倫理、政策委員會”。

2017年9月在美國眾議院通過的《自動駕駛法》(Self Drive Act)也采取了這種以風(fēng)險規(guī)制為側(cè)重點的公法模式。它沒有改變現(xiàn)有的道路交通規(guī)則和與事故責(zé)任相關(guān)的侵權(quán)法規(guī)則,而是用憲法和行政法的思維方式劃分了聯(lián)邦與各州之間在規(guī)制自動駕駛汽車方面的責(zé)任,明確了交通部在確立自動駕駛汽車硬件安全標(biāo)準(zhǔn)、網(wǎng)絡(luò)安全標(biāo)準(zhǔn)、公眾知情標(biāo)準(zhǔn)等方面的具體義務(wù)和履行時間表。其中第12條強(qiáng)化了隱私權(quán)保護(hù),要求制造商和經(jīng)銷商只有在提出了滿足一系列具體要求的“隱私權(quán)保障計劃”的前提下才可以供應(yīng)、銷售或進(jìn)口自動駕駛汽車。這些要求旨在確保自動駕駛汽車的車主和使用者對個人數(shù)據(jù)和隱私有充分的控制能力,不至于在自己不知情的情況下任由制造商或程序設(shè)計者使用自己的個人數(shù)據(jù)。風(fēng)險規(guī)制模式下的隱私權(quán)保障計劃是由大數(shù)據(jù)使用者自己提出的,政府在其中充當(dāng)把關(guān)者的角色,規(guī)制部門是廠商與消費者之間的中立第三方,這一點與下述預(yù)防模式下政府積極控制技術(shù)發(fā)展方向的做法不同。

(四) 預(yù)防模式

當(dāng)一種新技術(shù)對社會的影響在科學(xué)上尚無定論的時候,如果這種影響有可能是負(fù)面的、巨大的和不可逆轉(zhuǎn)的,決策者就應(yīng)該假定它會造成這種影響,并據(jù)此來制定相關(guān)政策和法律。這就是“風(fēng)險預(yù)防原則”(Precautionary Principle)。對該原則最廣為人知的表述出現(xiàn)在1992年的《里約宣言》中,該宣言的第十五條指出:“在嚴(yán)重的或不可逆轉(zhuǎn)的損害威脅存在的領(lǐng)域,缺乏充分的科學(xué)確定性不應(yīng)成為暫緩采取有成本效益的措施來防止環(huán)境惡化的理由。”21United Nations Environment Programme (UNEP), Rio Declaration on Environment and Development, Principle 15. Rio de Janeiro, Brazil, June 14, 1992.這一原則也正在被適用到人工智能領(lǐng)域。

機(jī)器學(xué)習(xí)以大數(shù)據(jù)為素材,采取預(yù)防模式的歐盟選取了數(shù)據(jù)這個源頭作為切入點來杜絕可能帶來權(quán)利侵害的算法。即將于2018年生效的《一般數(shù)據(jù)保護(hù)條例》一體適用于對個人數(shù)據(jù)的自動化(算法處理)和非自動化處理(第2條),其目的在于保護(hù)數(shù)據(jù)流動和數(shù)據(jù)處理過程中自然人所享有的數(shù)據(jù)權(quán)利(第1條)。而個人數(shù)據(jù)的定義十分寬泛,包括與已被識別出(identified)或可被識別出(identifiable)的自然人相關(guān)的任何信息。其中對“可被識別出的”個人數(shù)據(jù)的保護(hù)對算法設(shè)計者提出了很高的要求,包括采取匿名化等一系列使數(shù)據(jù)無法被關(guān)聯(lián)到具體個人的技術(shù)手段(第4條)。對個人數(shù)據(jù)的處理要符合合法、公平、透明、目的具體且有限、準(zhǔn)確、安全等原則(第5條)。除非在法律明確規(guī)定的條件(比如數(shù)據(jù)主體明確同意)下,處理數(shù)據(jù)的方式不得顯示出個人的種族、民族、政治觀點、宗教或哲學(xué)信仰、工會成員身份等,處理的對象不得包括基因數(shù)據(jù)、使某個人被識別出來的生物計量學(xué)數(shù)據(jù)、健康數(shù)據(jù)以及性生活或性取向數(shù)據(jù)(第9條)。22該條例全文見:http://gdpr-info.eu,2018年3月15日訪問。該條例明確列舉了數(shù)據(jù)主體的若干具體權(quán)利,包括充分知情權(quán)、要求更正權(quán)、要求刪除權(quán)(被遺忘權(quán))和限制處理權(quán)(第15—18條),旨在強(qiáng)化數(shù)據(jù)主體對涉及自身的所有數(shù)據(jù)的控制能力。在鼓勵創(chuàng)新和保護(hù)權(quán)利之間,歐盟立法者選擇了后者,預(yù)先給智能算法的發(fā)展劃定了界限。23更詳細(xì)的論述參見鄭戈:《在鼓勵創(chuàng)新與保護(hù)人權(quán)之間:法律如何回應(yīng)大數(shù)據(jù)技術(shù)革新的挑戰(zhàn)》,載《探索與爭鳴》2016年第7期。

不僅如此,控制機(jī)器學(xué)習(xí)可用的數(shù)據(jù)來源的做法基本無視了智能算法的現(xiàn)有技術(shù)狀態(tài)。對個人身份的已識別或可識別狀態(tài)往往是數(shù)據(jù)分析的結(jié)果而不是起點,現(xiàn)有的智能算法已經(jīng)能夠?qū)A康臒o結(jié)構(gòu)數(shù)據(jù)(包括百度搜索記錄、淘寶購物記錄、手機(jī)GPS信息等各種電子痕跡)進(jìn)行分析和處理,最終實現(xiàn)“完美個人化”,即準(zhǔn)確識別出某一特定個人的身份、社會屬性和偏好。從數(shù)據(jù)是否已包含個人身份信息入手來規(guī)制算法無法達(dá)到保護(hù)個人權(quán)益的目的。

(五) 算法規(guī)則和算法倫理模式

上述各種模式都沒有超出傳統(tǒng)的公法和私法概念框架,試圖用既有的權(quán)利保護(hù)—司法救濟(jì)方式來間接影響算法的設(shè)計。但也有一些國家已經(jīng)開始嘗試直接規(guī)制算法設(shè)計本身,試圖讓法律和倫理規(guī)范進(jìn)入算法。其中比較典型的是,德國交通部部長任命的倫理委員會最近提出的一個報告,展現(xiàn)了一種完全不同的思路:要求算法編寫者遵守一系列倫理法則。其中提出了20 條倫理指導(dǎo)意見,核心是把人的生命放在首位。比如,其中第7條要求:在被證明盡管采取了各種可能的預(yù)防措施仍然不可避免的危險情況下,保護(hù)人的生命在各種受法律保護(hù)的權(quán)益中享有最高的優(yōu)先性。因此,在技術(shù)上可行的范圍內(nèi),系統(tǒng)必須被編程為在權(quán)益沖突時可以接受對動物和財產(chǎn)的損害,如果這樣可以防止人身傷害的話。第八條規(guī)定,諸如傷害一個人以避免對更多人的傷害這樣的倫理難題不能通過事先編程來處理,系統(tǒng)必須被設(shè)定為出現(xiàn)這種情況下請求人工處理。24Ma?nahmenplan der Bundesregierung zum Bericht der Ethik- Kommission Automatisiertes und Vernetztes Fahren(Ethik-Regeln für Fahrcomputer), https://www.bundesregierung.de/Content/DE/Artikel/2017/08/2017-08-23-ethikkommission-regeln-fahrcomputer.html.

但這種將規(guī)則寫入算法的做法只有在特定的算法設(shè)計模式中才有可行性,而很難被適用到像人造神經(jīng)網(wǎng)絡(luò)算法(ANN)這樣的模式之中,因為這一類算法的特點和優(yōu)勢就是人類無法控制機(jī)器學(xué)習(xí)的結(jié)果。從機(jī)器學(xué)習(xí)模式的角度來看,只有監(jiān)督學(xué)習(xí)狀態(tài)下的算法才在設(shè)計者的掌控之下,對于無監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)而言,結(jié)果是無法預(yù)測的。法社會學(xué)家托依布納(Gunther Teubner)曾以侵權(quán)法中的過失責(zé)任原則為例來說明這個問題:在現(xiàn)有的侵權(quán)法結(jié)構(gòu)內(nèi),過錯是指行為主體未能盡到注意義務(wù)。算法設(shè)計者的直接責(zé)任只能適用于監(jiān)督學(xué)習(xí),在此情景中人類行動者能夠控制算法的輸入和輸出。而對于無監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí),唯一可以借用的是主人對寵物、監(jiān)護(hù)人對被監(jiān)護(hù)人或者雇主對雇員的看管責(zé)任(respondeat superior或 Erfüllungsgehilfe), 但確立這種責(zé)任要求被看管者的行為有一定的可預(yù)見性,即“對計算機(jī)行為之技術(shù)能力的常規(guī)化預(yù)期”。25Gunther Teubner, “Rights of Non Humans? Electronic Agents and Animals as New Actors in Politics and Law”, Journal of Law and Society ,Vol.33 (2006),p. 509.這種預(yù)期對于如今的智能算法而言是很難獲得的。實際上,人們之所以對人工智能如此熱衷,恰是因為它能帶來超出人們預(yù)期的驚喜。但同時人們也擔(dān)心它帶來的是驚嚇。因此,有學(xué)者建議,如果人類無法控制某種算法的結(jié)果,那就不能將它應(yīng)用到影響人類生活和人際互動的場景中,而只能用于科學(xué)研究和游戲(如下圍棋)。法律可以通過相應(yīng)的責(zé)任設(shè)計,比如讓算法設(shè)計者或其雇主對算法造成的損害承擔(dān)嚴(yán)格責(zé)任,從而引導(dǎo)他們選擇更有可預(yù)見性、更可控的算法。26Trevor N.White, Seth D.Baum, “Liability for Present and Robotics Technology”,in Patrick Lin, Ryan Jenkins, and Keith Abney (eds.), Robotics Ethics 2.0: From Autonomous Cars to Artificial Intelligence, Oxford University Press, 2017, pp.66-79.但這種建議的提出者所考慮的是自動駕駛汽車和機(jī)器人這種能夠同人類接觸并造成身體傷害的智能產(chǎn)品,而沒有考慮到無形的算法評分、算法排序和算法決策對人造成的影響。在這些場景中,算法往往是無形的,人們無法判斷損害是否由它造成,更不清楚算法本身是如何編寫的。算法往往屬于企業(yè)的“商業(yè)秘密”,是受法律保護(hù)的名正言順的“黑箱”。

(六) 算法可解釋性問題

在美國,已經(jīng)有案例涉及算法黑箱問題。2013年年初,威斯康星州指控艾瑞克·魯米斯(Eric Loomis)五項刑事罪行,都和一起駕車槍擊事件有關(guān)。魯米斯否認(rèn)自己參與了槍擊,但承認(rèn)自己在案發(fā)當(dāng)晚駕駛過那輛車。在辯訴交易中,他承認(rèn)了兩項較輕的罪名:“企圖逃避交警以及未經(jīng)車主同意擅自駕車”。在量刑階段,法院收到州政府罪犯改造部門提交的一份量刑前調(diào)查報告(PSI),其中包含再犯風(fēng)險評估內(nèi)容(COMPAS)。在初審判決中,法院在量刑部分援引了COMPAS評估的內(nèi)容,并且部分基于這一評估判處魯米斯六年監(jiān)禁外加五年監(jiān)外管制。在申請定罪后救濟(jì)動議(motion for post-conviction relief)被拒后,威斯康星州上訴法院批準(zhǔn)了向州最高法院上訴。魯米斯的上訴理由是法院對COMPAS評估的依賴侵犯了他的正當(dāng)程序權(quán)利。正當(dāng)程序權(quán)利包括獲得個別化量刑考量的權(quán)利(the right to an individualized sentence)以及基于準(zhǔn)確信息而受量刑的權(quán)利(the right to be sentenced on accurate information)。由于COMPAS評估報告提供的數(shù)據(jù)是類型化的,未能充分體現(xiàn)個人特殊性,同時由于作出評估的方法是COMPAS算法的提供者Northpointe公司的商業(yè)秘密,其可靠性無從判斷,魯米斯主張自己的上述兩項權(quán)利受到了侵犯。此外,他還聲稱該算法評估將他的性別作為一個因素加以考量,侵犯了他的平等權(quán)。27State v. Loomis, 881 N. W. 2d 749 (Wisconsin, 2016).

威斯康星州最高法院支持了初審法院的判決。在安·布拉德利(Ann Walsh Bradley)大法官撰寫的多數(shù)派意見中,魯米斯的正當(dāng)程序和平等權(quán)主張被一一否定。首先,法院認(rèn)為性別因素是作為提升評估準(zhǔn)確性的目的而非歧視目的而進(jìn)入算法參數(shù)的,而且魯米斯無法證明法院在量刑時的確考量了性別因素,因此他的平等權(quán)并未受到侵犯。其次,因為COMPAS所分析的數(shù)據(jù)是記錄在案的公共數(shù)據(jù)(犯罪記錄)和被告自己提供的數(shù)據(jù)(他對137個問題的回答),因此,被告在算法評估結(jié)果出來之前本來就有機(jī)會否認(rèn)或解釋相關(guān)信息,也有機(jī)會驗證相關(guān)信息的準(zhǔn)確性,因此質(zhì)疑信息準(zhǔn)確性的主張站不住腳。最后,關(guān)于量刑個別化問題,法院承認(rèn)COMPAS算法評估的結(jié)論揭示的是與魯米斯相似的一類人的再犯風(fēng)險,但指出該評估結(jié)論不是法院作出量刑判決的唯一依據(jù),由于法院擁有在其認(rèn)為適當(dāng)?shù)那闆r下不同意評估結(jié)論的裁量權(quán)和相關(guān)證據(jù),因此該量刑判決是充分個別化的。28State v. Loomis, 881 N. W. 2d 749 (Wisconsin, 2016).還可參見Jason Tashea, “Calculating Crime: Attorneys Are Challenging the Use of Algorithms to Help Determine Bail, Sentencing and Parole Decisions”, A.B.A Journal Vol.103 (March 2017),pp.54-60。該文提到了若干與魯米斯案類似的涉及“算法量刑”的案例。

從這個案例可以看出,當(dāng)算法涉嫌針對個人作出了歧視性的或錯誤的評估或決策的時候,至少在美國,法院傾向于保護(hù)算法產(chǎn)品廠商的商業(yè)秘密,這種權(quán)益被視為沒有爭議的前提,法院不會要求廠商公開算法代碼,也沒有要求廠商用自然語言解釋算法的設(shè)計原理、功能和目的。但算法可解釋性是“算法的法律”可以成立的前提。人不可能控制或約束自己不懂的東西。之所以說人工智能算法進(jìn)行深入學(xué)習(xí)的過程是個黑盒子,主要的原因除了它的保密性外,更重要的是即使公開了法官和律師也看不懂。算法可解釋性乃至可視化是一個可以用技術(shù)解決的問題,一旦法律提出了相關(guān)要求,技術(shù)界便會想方設(shè)法使算法成為可解釋的。比如,在2018年3月7日,谷歌大腦團(tuán)隊的克里斯·歐拉(Chris Olah)公布了一項題為“可解釋性的基礎(chǔ)構(gòu)件”的研究成果,29Chris Olah, “The Building Blocks of Interpretability”, https://distill.pub/2018/building-blocks/, accessed on March 15, 2018.該成果解決了神經(jīng)網(wǎng)絡(luò)這種最令人難以捉摸的算法的可視化問題,谷歌將其比喻為人工神經(jīng)網(wǎng)絡(luò)的核磁共振成像(MRI)。如果說神經(jīng)網(wǎng)絡(luò)算法所處理的海量數(shù)據(jù)及其復(fù)雜運(yùn)算過程會使人腦“超載”,這種可視化解釋技術(shù)簡化了相關(guān)信息,使算法的工作狀態(tài)回到了“人類尺度”,能夠被普通人看懂和理解。谷歌還對這種“解釋算法的算法”做了開源化處理,使其他技術(shù)人員能夠在此基礎(chǔ)上編寫適用于不同算法和場景的解釋性算法。

由此可見,法律進(jìn)入算法不能靠立法者和規(guī)制者的單方面努力,而需要法律人與技術(shù)人員的合作。正如李彥宏等人在《智能革命》中所指出的那樣:“……也許真要靠算法的頂層設(shè)計來防止消極后果。人工智能技術(shù)可能不只是理工科專業(yè)人士的領(lǐng)域,法律人士以及其他治理者也需要學(xué)習(xí)人工智能知識,這對法律人士和其他治理者提出了技術(shù)要求。法治管理需要嵌入生產(chǎn)環(huán)節(jié),比如對算法處理的數(shù)據(jù)或生產(chǎn)性資源進(jìn)行管理,防止造成消極后果?!?0李彥宏等:《智能革命:迎接人工智能時代的社會、經(jīng)濟(jì)與文化變革》,中信出版集團(tuán)2017年版,第312頁。法律人可以向技術(shù)人員解釋法律規(guī)則的要求,而技術(shù)人員可以設(shè)計出符合法律要求的算法。法律和技術(shù)都是非自然的“人工”造物,兩者都服務(wù)于使人類生活更加美好的目的。在人工智能時代,一種新的職業(yè)——法律知識工程師——正在誕生,這種職業(yè)是由能夠用技術(shù)解決法律問題的人士和能夠用法律服務(wù)技術(shù)發(fā)展并將技術(shù)套上法律韁繩的人士共同組成的。人工智能是能夠在給定問題的前提下通過深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí)尋求最優(yōu)解的智能算法,它需要人類提出正確的問題,對錯誤問題的正確解答可能帶來災(zāi)難性的后果。法律就是用來劃定問題域之邊界的,它不能確保最佳問題的出現(xiàn),但可以防止最邪惡問題的提出。

三、法律的算法

如何用算法來強(qiáng)化法律取決于人們對法律、法律推理和法律判斷本身性質(zhì)的認(rèn)識,而統(tǒng)一的認(rèn)識并不存在。因此,關(guān)于人工智能在法律領(lǐng)域之應(yīng)用的討論迫使人們回到基礎(chǔ)性的法理學(xué)問題。從世界上第一份專業(yè)的《人工智能與法律》期刊(Artificial Intelligence and Law)上所發(fā)表的論文來看,絕大多數(shù)是基于分析主義法學(xué)對法律的理解來討論如何建模的文章。這一現(xiàn)象是由人工智能本身的認(rèn)識論基礎(chǔ)決定的,但它也使豐富的法理學(xué)討論貧弱化。當(dāng)我們用技術(shù)來解決人類問題的時候,意味著人類問題本身的復(fù)雜性和豐富性被簡化了,這是一個普遍的問題。

人工智能的認(rèn)識論基礎(chǔ)是“認(rèn)知可計算化”,在人工智能技術(shù)的幾大流派中,符號主義試圖用符號—邏輯演算來模擬人類大腦的認(rèn)知和決策過程;連接主義(又稱神經(jīng)網(wǎng)絡(luò)學(xué)派)試圖通過人造神經(jīng)網(wǎng)絡(luò)的并行計算來建構(gòu)大腦;而行為主義者則試圖通過遺傳算法進(jìn)化出人工大腦。它們的基礎(chǔ)假設(shè)都包括:(1)大腦是人類認(rèn)知和智能活動的載體;(2)認(rèn)知和智能活動是一個物理-化學(xué)過程,其機(jī)理主要是神經(jīng)元之間通過分泌化學(xué)遞質(zhì)和釋放電子來完成的信息交流;(3)圖靈機(jī)可以模擬任何物理-化學(xué)過程;(4)通過分析和處理真實人類世界的行為數(shù)據(jù)可以幫助機(jī)器來模擬人類的認(rèn)知和決策,反過來,通過研究虛擬世界各種人工智能的詳情可以把握真實世界人類認(rèn)知和智能活動的基本結(jié)構(gòu)和過程;(5)一切認(rèn)知和智能活動的復(fù)雜系統(tǒng)都可以通過各個組成部分的動態(tài)行為和整體交互作用來解釋(整體主義的還原主義假設(shè))。31劉曉力:《認(rèn)知科學(xué)研究綱領(lǐng)的困境與方向》,載《中國社會科學(xué)》2003年第1期。

認(rèn)知可計算化,人腦功能最終可以用計算機(jī)模擬,這一認(rèn)識論不僅被許多計算機(jī)專家所接受,而且得到來自腦科學(xué)家的佐證。主流的腦科學(xué)家相信,人腦是由一千億個神經(jīng)元構(gòu)成的,神經(jīng)元之間的連接方式?jīng)Q定了我們的所思所想,除了神經(jīng)元之間的物理通訊機(jī)制(放電)和化學(xué)通訊機(jī)制(分泌遞質(zhì))之外,我們找不到任何自我意識或靈魂存在的依據(jù)。既然如此,人類思考的過程最終可以用算力越來越強(qiáng)大的計算機(jī)來模擬和取代就不是天方夜譚,而是技術(shù)發(fā)展的必然結(jié)果。比如,目前任教于普林斯頓大學(xué)的韓裔科學(xué)家承現(xiàn)峻在他影響甚大的《連接組》一書中寫道,“據(jù)我所知,沒有任何客觀的科學(xué)證據(jù)來證明靈魂的存在。人們?yōu)槭裁聪嘈澎`魂的存在?我懷疑宗教是唯一的原因”,32Sabastian Seung, Connectome: How the Brain Wiring Makes Us Who We Are, Houghton Mifflin Harcourt, 2012, kindle version, loc 1006/7864. 類似的觀點也可參見德國腦科學(xué)家伍爾夫·辛格的著作:Wolf Singer, Vom Gehirn zum Bewu?tsein,Suhrkamp Verlag, 2016?!澳愕纳眢w和大腦與人造的機(jī)器并沒有本質(zhì)的區(qū)別”。33Ibid.,loc 3953 / 7864.腦科學(xué)和計算機(jī)科學(xué)的結(jié)合一方面會使用機(jī)器/算法取代人腦的技術(shù)(人工智能)得到快速發(fā)展,另一方面也會使借助算法來影響和控制人類行為的技術(shù)侵蝕法律的領(lǐng)地。最近曝光的大數(shù)據(jù)分析公司“劍橋分析”利用5000萬Facebook用戶的帳戶信息幫助特朗普競選團(tuán)隊量身定制投放政治廣告從而幫助特朗普在2016年美國總統(tǒng)大選獲勝的新聞,便是一個“算法統(tǒng)治”的鮮活例子。34Carole Cadwalladr, Emma Gaham-Harrison, “Revealed: 50 Million Facebook Profiles Harvested for Cambridge Analytica in Major Data Breach”, Guardian, https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebookinfluence-us-election, accessed on March 17, 2018.

法律是一個相對封閉的自我指涉系統(tǒng),其本身的形成經(jīng)過了法律人的分析和加工,并在一定的權(quán)威結(jié)構(gòu)內(nèi)形成規(guī)則。因此,將法律編寫成代碼的過程不是一個對未經(jīng)選擇的大數(shù)據(jù)進(jìn)行學(xué)習(xí)的過程,而是一個有賴于前期加工的過程。大陸法系的《學(xué)說匯纂》和法律評注傳統(tǒng),英美法系的布拉克頓(Brockton)、布萊克斯通(Blackstone)、肯特(Kent)所做的判例整理和評注工作,都是前信息技術(shù)時代篳路藍(lán)縷手工整理法律數(shù)據(jù)的典范。法律的算法化有賴于法律人將法律知識轉(zhuǎn)化為“可計算化”模塊的前期努力?!笆谟嬎銠C(jī)以數(shù)據(jù),夠它用一毫秒;授計算機(jī)以搜索,夠它用一輩子”的機(jī)器學(xué)習(xí)法則顯然不能適用于法律人工智能產(chǎn)品的開發(fā)?!坝卸嗌偃斯?,就有多少智能”的法則在這個領(lǐng)域體現(xiàn)得十分明顯。這其實是法律人的幸運(yùn):我們不用擔(dān)心自己被人工智能取代。但是,法律系統(tǒng)的封閉性和算法在其中得到應(yīng)用的有限性也使法律面對算法在影響人類行為方面的競爭時顯得捉襟見肘,難以應(yīng)對。

(一)法律算法化的前提條件

計算機(jī)可以處理的問題必須滿足三個條件:(1)這個問題必須可以用形式語言(理想狀態(tài)是數(shù)學(xué))來表述;(2)針對這個問題必須存在一個算法,即程序化的指令集;(3)這個算法必須是可編程的。當(dāng)我們用計算機(jī)來處理“數(shù)值計算”的問題時,原問題和數(shù)值化后的問題是一致的,其間沒有轉(zhuǎn)義映射,也就不存在意義/信息流失。而當(dāng)我們用計算機(jī)來進(jìn)行知識處理(比如將法律編寫成算法)的時候,由于面對的問題非常復(fù)雜,就需要對知識進(jìn)行符號化處理,然后用指稱和解釋的方法來保持和恢復(fù)計算結(jié)果的語義。35危輝、潘云鶴:《從知識表示到表示:人工智能認(rèn)識論上的進(jìn)步》,載《計算機(jī)研究與發(fā)展》2000年第7期(第37卷)。知識本身便已經(jīng)不是經(jīng)驗本身,而知識的符號化表示是對表示的表示,對符號的再符號化,其間流失的意義很難被完全恢復(fù)過來。但是,不經(jīng)過這樣的處理,法律推理和法律決策的過程就無法實現(xiàn)自動化/人工智能化。

在前面提到的1991年創(chuàng)刊的世界上第一份《人工智能與法律》專業(yè)期刊的創(chuàng)刊詞中,該刊的編輯們指出了用人工智能來處理法律問題之前需要法律人做出貢獻(xiàn)的若干方向,其中包括:(1)對規(guī)范性概念及其與行動、意圖和因果關(guān)系等常識性概念之間的相互關(guān)系進(jìn)行符號化的表述;(2)需要通過例子和/或樣本來界定開放結(jié)構(gòu)(有多種解釋可能性的)的概念,并且用如此界定的知識來推理;(3)用模型來表示對抗式的論辯過程以及這一過程支持決策的方式。36“From the Editors”, Artificial Intelligence and Law, Vol.1(1992), pp.1-2.在此基礎(chǔ)上,技術(shù)人員才能著手開展法律的算法化工作。

隨著自然語言處理(NLP)技術(shù)的迅猛發(fā)展,如今的機(jī)器學(xué)習(xí)已經(jīng)不需要人們先把知識重新表述為高度形式化的符號以供機(jī)器學(xué)習(xí),但法律知識的模型化和標(biāo)準(zhǔn)化工作仍是開發(fā)法律人工智能產(chǎn)品的前提。在理想狀態(tài)下,法律是用經(jīng)驗浸潤過的邏輯,也是用邏輯規(guī)整過的經(jīng)驗。但現(xiàn)實的法律世界存在大量未經(jīng)邏輯規(guī)整的經(jīng)驗,也存在許多未經(jīng)經(jīng)驗浸潤的邏輯。法律的算法化其實是在倒逼法律人更加精準(zhǔn)和體系化地表述法律知識,否則機(jī)器學(xué)習(xí)的結(jié)果可能是雜亂無章、任意武斷乃至充滿偏見的。

(二)法律算法的應(yīng)用場景

在現(xiàn)代法治社會,法律的應(yīng)用場景遍及社會的各個方面,從國家治理到日常糾紛解決,從立法到交通處罰,從學(xué)校到監(jiān)獄。算法是被設(shè)計來完成特定任務(wù)的。其表現(xiàn)可以通過一定的指標(biāo)來衡量,這些指標(biāo)體現(xiàn)了人類在不同場景中的語境化價值選擇。比如,有些場景要求精確性:哪種算法能夠更準(zhǔn)確地識別出垃圾郵件,是樸素貝葉斯分類器還是支持向量機(jī)?有些場景更重視速度:哪種算法能夠更快完成案件分類、排序,是插入排序法還是冒泡排序法?有些場景更強(qiáng)調(diào)節(jié)約資源:哪種算法能夠用最小的資源投入(人力、帶寬)完成同樣的任務(wù)?37Eric PS Baumer, “Toward Human-Centered Algorithm Design”, Big Data and Society, July-December 2017, pp.1-12.算法旨在優(yōu)化完成特定任務(wù)的績效,這些績效的標(biāo)準(zhǔn)是由特定場景的目的決定的。算法和程序技術(shù)的先驅(qū)者高德納(David E. Knuth)教授曾經(jīng)說過:“不成熟的優(yōu)化是所有罪惡(或至少是大部分罪惡)的根源?!?8David E. Knuth, “Computer programming as an art”, Communications of the ACM,Vol. 17(12), 1974, p.671.所謂的不成熟,是指算法與目的不匹配。人工智能算法至少到目前還不能自己生成目的(如果出現(xiàn)了有自我意識地追求自己目標(biāo)的強(qiáng)人工智能,人類就更應(yīng)當(dāng)擔(dān)心了),而必須服務(wù)于人類設(shè)定的目的,尋求給定目的情況下的手段優(yōu)化。但在社會功能和制度功能高度分化的現(xiàn)代社會,法律系統(tǒng)中每一個子系統(tǒng)都有其功能決定的特定目的。

比如,美國現(xiàn)實主義法學(xué)理論家們主張法學(xué)的主要目的在于預(yù)測?;裟匪梗∣liver Wendell Holmes)寫道:法學(xué)的目的是“預(yù)測公共暴力借助法院的工具性(instrumentality)而被觸發(fā)的可能性”。39Oliver Wendell Holmes, Jr., “The Path of the Law”, Harvard Law Review ,Vol.10 (1897),p. 61.盧埃林(Karl N. Llewellyn)也告訴法學(xué)院學(xué)生,學(xué)習(xí)法律的“關(guān)鍵在于觀察法律官員做什么,他們?nèi)绾翁幚砑m紛或者其他任何事務(wù),以及觀察他們的所作所為,從中尋找某種獨特的規(guī)律性——這種規(guī)律性使人們有可能對法律官員及其他官員今后的所作所為作出預(yù)測”。40[美]盧埃林:《荊棘叢——關(guān)于法律與法學(xué)院的經(jīng)典演講》,明輝譯,北京大學(xué)出版社2017年版,第7頁。這是因為美國法學(xué)院是以培養(yǎng)律師為己任的,大部分法學(xué)院畢業(yè)生都會當(dāng)律師,即使想當(dāng)法官,也要先從律師干起。作為律師,當(dāng)然需要預(yù)測法官會如何判決。但如果說法官工作的目的也是預(yù)測自己或別的法官如何判案,則完全不符合現(xiàn)實。法院的判決是權(quán)威結(jié)構(gòu)中的規(guī)則適用。大法官杰克遜(Jackson)曾經(jīng)說:“我們(的判決)是最終的,并不是因為我們不會犯錯誤;相反,我們不會犯錯誤,因為我們是最終的。”41Brown v. Allen, 344 U.S. 443, 540 (1953) (Justice Robert H. Jackson, concurring).如果整個法律職業(yè)都去預(yù)測,“預(yù)測什么”就會成為一個問題。實際上,法律是一個人為建構(gòu)的決定論系統(tǒng),法院的判決通過國家強(qiáng)制力的保障變得和自然規(guī)律一樣不可動搖,既判力(Res judicata)就是人為擬制的自然力?;舨妓梗═homas Hobbes)曾一語道破:“權(quán)威,而不是真理,創(chuàng)造了法律?!保ˋuthoritas non Veritas facit Legem)42Thomas Hobbes, Leviathan, Noel Malcolm (ed.), Clarendon Edition, Vol.II, Oxford University Press, 2014, p.431. 英文版中沒有這段話,后出的拉丁文版中才有。后來在《哲學(xué)家與普通法學(xué)生之對話》中變成:“權(quán)威,而不是智慧,創(chuàng)造了法律?!闭且驗樗痉ㄅ袛嗑哂袡?quán)威性,而權(quán)威需要有正當(dāng)性基礎(chǔ),正當(dāng)性來自于社會共識,直到有一天社會大眾接受機(jī)器人當(dāng)法官,認(rèn)為算法比人類更加“無懼無私”,司法判斷的算法化才有意義。

法律職業(yè)內(nèi)部的角色分工也決定著算法在不同法律場景中的應(yīng)用前景。比如,我國的法律人工智能事業(yè)主要是政府推動的,智慧法院、智慧檢務(wù)、智慧政務(wù)都被納入國家的整體人工智能發(fā)展戰(zhàn)略。但人工智能在涉及權(quán)威性法律判斷的場合只能起輔助作用,不能取代人類做出自動化決策,否則便會產(chǎn)生誰來承擔(dān)責(zé)任的問題。在美國,人工智能在法律職業(yè)中的應(yīng)用主要靠律師界在推動,法院對人工智能的應(yīng)用保持著審慎的態(tài)度。上文中提到的魯米斯案就從一個側(cè)面反映了概率論的預(yù)測算法在美國刑事司法中的有限應(yīng)用及其限度。而這種算法的更廣闊應(yīng)用場景是律師業(yè)。

(三)概率論的法律算法:以美國律師職業(yè)中的算法產(chǎn)品為例

美國喬治城大學(xué)法學(xué)院每年都會發(fā)布一份《法律服務(wù)市場報告》。在2016年的報告43The Center for the Study of the Legal Profession, Georgetown University Law Center, 2016 Report on the State of the Legal Market, Thomson Reuters Peer Monitor, 2016, pp.1-2.中,它以柯達(dá)的故事作為開篇。在美國商業(yè)史上,沒有哪家公司比柯達(dá)公司保持成功的歷史更長。這家公司由膠卷的發(fā)明者喬治·伊斯特曼(George Eastman)于1880年創(chuàng)辦,1888年,它推出了自己的第一款相機(jī),其廣告詞是:“你按下快門,我們做剩下的事情?!痹诖撕笠粋€世紀(jì)的時間里,柯達(dá)主導(dǎo)著美國和世界許多地方的照相機(jī)和膠卷市場。它使任何沒有經(jīng)過專業(yè)訓(xùn)練的人都可以成為攝影師。在1988年,柯達(dá)仍然處在巔峰狀態(tài),在全世界有將近15萬名員工。它的年收入在1996年達(dá)到歷史最高點,將近160億美元,而它的純利潤在1999年達(dá)到25億美元。

然而,今天的許多年輕人恐怕已經(jīng)沒有聽說過柯達(dá)??逻_(dá)公司仍然存在,市場上仍然可以買到柯達(dá)數(shù)碼相機(jī)和柯達(dá)智能手機(jī)。但它很晚才進(jìn)入數(shù)碼產(chǎn)品市場,打敗它的正是數(shù)碼相機(jī)。柯達(dá)的故事最有警示性的部分不是它的興衰史,每個企業(yè)都有這樣的歷史。有趣的是,柯達(dá)正是數(shù)碼相機(jī)誕生的地方。早在1975年,柯達(dá)的年輕工程師史蒂文·薩森(Steven Sasson)就發(fā)明了數(shù)碼相機(jī),并且在當(dāng)年12月與該公司的首席技術(shù)官吉姆·舒克勒(Jim Schueckler)一起在柯達(dá)的實驗室里成功測試了這款數(shù)碼相機(jī)。但柯達(dá)的主要盈利模式不是靠出售相機(jī),而是靠出售作為耗材的膠卷??逻_(dá)管理層擔(dān)心數(shù)碼相機(jī)的市場化會損害自己所主導(dǎo)的膠卷市場,因此壓制了這項技術(shù)的產(chǎn)品化。如今,薩森制作的第一部數(shù)碼相機(jī)靜靜地躺在美國歷史博物館里,奧巴馬總統(tǒng)在2009年授予薩森國家技術(shù)創(chuàng)新獎?wù)拢逻_(dá)卻早已風(fēng)光不再。

這份報告用柯達(dá)的故事來警示法律職業(yè)者和法律教育機(jī)構(gòu):法律市場正在發(fā)生根本性的變革,故步自封或墨守成規(guī)會使現(xiàn)有的既得利益者遭受柯達(dá)那樣的命運(yùn),無論其現(xiàn)有地位是多么牢固。這些變化的主要驅(qū)動力量是技術(shù)革新以及由此帶來的生產(chǎn)方式和商業(yè)模式的變化,這些變化使客戶對法律服務(wù)產(chǎn)生了新的期待,提出了新的要求,比如降低成本、提高效率、分解任務(wù)等。

實際上,一些有遠(yuǎn)見的法律人和法律職業(yè)機(jī)構(gòu)早已行動起來。比如,全世界最大的律師事務(wù)所大成—德同在2016年創(chuàng)建了自己的人工智能實驗室Nextlaw Labs,44網(wǎng)址參見www.nextlawlabs.com。與IBM公司的認(rèn)知技術(shù)平臺沃森(Watson)合作開發(fā)法律人工智能產(chǎn)品ROSS,這款產(chǎn)品目前已在數(shù)十家國際律師事務(wù)所測試使用。此外,包括達(dá)維律師事務(wù)所(Davis,Polk & Wardwell)在內(nèi)的許多大型律師事務(wù)所已經(jīng)設(shè)置了一種新的職位:首席知識官(Chief Knowledge Officer, CKO)或首席技術(shù)官,帶領(lǐng)一個團(tuán)隊專門從事本所的數(shù)據(jù)庫建設(shè)和人工智能產(chǎn)品投資、開發(fā)和調(diào)配。這表明這種新的法律職業(yè)——法律知識工程師——正在興起。從我國的情況來看,許多資深法律職業(yè)人士(包括辭職的法官和檢察官)都選擇投身于法律大數(shù)據(jù)和人工智能行業(yè),而不是像以前那樣首選從事傳統(tǒng)律師職業(yè)。

達(dá)維律師事務(wù)所首席知識官邁克爾·米爾斯(Michael Mills)指出,人工智能目前已被應(yīng)用于法律職業(yè)中的五個重要工作領(lǐng)域:法律研究、電子取證、結(jié)果預(yù)測、自助式合規(guī)審查以及合同分析。這五項工作目前占法律職業(yè)者總工作時間的50%以上。這里舉三個例子。

第一個是電子取證(E-discovery),它是指廣義取證,而不是狹義的訴訟過程中的取證,包括交易環(huán)節(jié)——現(xiàn)在大量的律師從事非訴業(yè)務(wù),非訴業(yè)務(wù)當(dāng)中也要保存大量的事實,以幫助完成報稅、合規(guī)審查、上市準(zhǔn)備、商業(yè)談判、交易等工作。即使不是專門的互聯(lián)網(wǎng)企業(yè),也會搜集和產(chǎn)生大量的數(shù)據(jù)。2012年,美國計算機(jī)科學(xué)公司預(yù)測到2020年年度數(shù)據(jù)生成量會增加4300%。海量數(shù)據(jù)的處理既是一種寶貴的資源,也是一種負(fù)擔(dān),只有借助人工智能才能把這種負(fù)擔(dān)變成資源。有許多公司專門開發(fā)電子取證人工智能產(chǎn)品,比如Brainspace公司的最新產(chǎn)品Discovery 5增加了中文等多種東方語言閱讀功能,從而大大提高了跨國法律業(yè)務(wù)中的取證能力。隨著自然語言處理(NLP)技術(shù)的發(fā)展,這個領(lǐng)域的產(chǎn)品可以覆蓋的語言會越來越多。

第二個是訴訟管理。美國Casetext公司開發(fā)的案件分析研究助理(CARA)可以幫助律師和企業(yè)法律顧問完成從判例、法規(guī)分析到陪審員選擇直到法庭辯論文書生成的一系列任務(wù)。也就是說,最終出來的結(jié)果可能直接是一個法律文書,人類律師或者公司法人代表拿到這樣的文書就可以直接出庭訴訟或者完成一項交易。這樣的產(chǎn)品在美國越來越多。

此外,更加著名的是IBM Watson。Watson是IBM公司的認(rèn)知技術(shù)平臺,它與Nextlaw Labs合作開發(fā)的ROSS系統(tǒng)已經(jīng)可以代替律師從事法律研究。法律研究(Legal Research)并不是指學(xué)術(shù)研究,而是指所有律師都必須做的法條、司法解釋和判例搜尋和研讀工作。無論是從事訴訟業(yè)務(wù)還是非訟業(yè)務(wù)都需要花費大量時間研究法條和判例,從而形成訴訟策略或交易策略。法律研究是傳統(tǒng)律師業(yè)務(wù)中最耗費工時的工作。ROSS系統(tǒng)據(jù)說有潛力替代目前美國律師70%的法律研究工作,而且準(zhǔn)確率高達(dá)90%以上,遠(yuǎn)遠(yuǎn)高于頂尖法學(xué)院畢業(yè)生從事同類工作的準(zhǔn)確率。當(dāng)然目前主要由律所合伙人從事的人際溝通工作和法官的判斷工作無法被機(jī)器取代。但“無法”很可能不是技術(shù)上不可能,而是人類基于責(zé)任承擔(dān)和判斷權(quán)歸屬等考量而不會把司法判斷交給機(jī)器人去完成。其實如果把這種判斷交給人工智能系統(tǒng),在技術(shù)上也是可以實現(xiàn)的。ROSS系統(tǒng)不僅可以做法律研究,還可以把研究結(jié)果生成簡報或備忘錄,出庭律師或從事非訴業(yè)務(wù)的律師只要拿到這些以前完全靠人工寫成的文件就可以去干剩下少量的據(jù)說更有創(chuàng)造性的工作了。雖然聽起來很高大上,但這是法律人最擔(dān)心的事情,顯而易見,人工智能可能會取代很多法律人的工作。 美國法學(xué)院畢業(yè)生通過律師執(zhí)業(yè)資格考試后一般都會從初級律師(associates)做起,經(jīng)過7—10年不等的時間才能成為合伙人。這個階段的主要工作就是法律研究。以前這種工作需要大量的律師花費大量的時間去完成,但隨著越來越多的美國律所購入人工智能系統(tǒng),它們對從事案頭工作和法律研究工作的律師的需求會越來越小。根據(jù)美國律師協(xié)會的數(shù)據(jù),從2005年到2015年,申請法學(xué)院的人數(shù)在美國減少了40%。

第三個是合同起草和合同審核。合同是企業(yè)法律顧問面對的主要工作之一,現(xiàn)代商務(wù)世界的復(fù)雜使這項工作十分耗費時間和精力。美國LawGeex公司專門開發(fā)了有深度學(xué)習(xí)能力的人工智能,它通過對海量真實合同的學(xué)習(xí)掌握了生成高度精細(xì)復(fù)雜并適合具體情境的合同的能力,它起草的合同不僅遠(yuǎn)遠(yuǎn)好于照搬合同范本的結(jié)果,甚至好于許多有經(jīng)驗的公司法律顧問的作品。

上述幾個領(lǐng)域的法律工作都不需要法律人在封閉的概念和規(guī)則框架內(nèi)作出決定性的判斷,而是需要面對復(fù)雜世界給出可選方案的經(jīng)驗。貝葉斯算法、類推算法和神經(jīng)網(wǎng)絡(luò)算法等從體現(xiàn)人類經(jīng)驗的大數(shù)據(jù)中學(xué)習(xí)、提煉和優(yōu)化法律方案的經(jīng)驗主義或概率論算法在這些領(lǐng)域大有用武之地。當(dāng)我們談到法律職業(yè)的時候,容易陷入將其視為一個統(tǒng)一的“共同體”的誤區(qū),而實際上律師與法官、檢察官和法學(xué)家的工作場景、目標(biāo)函數(shù)和效用函數(shù)都大不相同。訴訟只是律師工作中的很少一部分,大部分律師所從事的都是交易環(huán)節(jié)的法律服務(wù)工作以及法庭外的糾紛解決工作。因此,從確定的法律概念和規(guī)則出發(fā)根據(jù)嚴(yán)格的形式邏輯來得出確定法律結(jié)論的思維方式(體現(xiàn)的是符號主義的決定論算法)并不適用于大部分律師。律師工作面對的開放的商業(yè)場景和生活場景,他們不需要也沒有權(quán)力做出權(quán)威性的法律決斷,而只需要提出給定規(guī)則前提下的優(yōu)化法律方案,因此,基于大數(shù)據(jù)的智能算法在律師工作中的應(yīng)用前景比在司法工作中的應(yīng)用前景更為廣闊。

(四)決定論的法律算法

邏輯學(xué)家哥德爾(Kurt G?del)指出,一個系統(tǒng)不可能同時是內(nèi)部邏輯一致的和完整的。法教義學(xué)和社科法學(xué)之間的爭論也可以被視為追求系統(tǒng)內(nèi)部融貫性與追求系統(tǒng)與外部環(huán)境/社會環(huán)境契合性的兩種努力方向之間的競爭。符號主義的算法設(shè)計與法教義學(xué)的思維方式有著最明顯的表面相似性,兩者都試圖在封閉的自我指涉內(nèi)實現(xiàn)融貫性與確定性。法律規(guī)則就是一個符號系統(tǒng),它將規(guī)則和事實用文字/符號加以表述,并以一定的方法對符號進(jìn)行處理,將事實區(qū)分為相關(guān)與無關(guān),并進(jìn)一步將相關(guān)事實進(jìn)行合法/非法的編碼處理。早在機(jī)器學(xué)習(xí)出現(xiàn)之前,符號主義的編程方法就被用來開發(fā)法律專家系統(tǒng),由法律專家提供法律概念、分類和推理方面的知識,由程序員將這些知識編寫成計算機(jī)代碼,供人們搜索法律知識,尋找法律問題的答案。45參見Richard Susskind, Expert systems in law: A jurisprudential inquiry, Oxford University Press, 1987。早期的法律人工智能產(chǎn)品主要是在成文法和判例數(shù)據(jù)庫的基礎(chǔ)上根據(jù)術(shù)語使用頻率等顯著指標(biāo)制作索引方便查詢的系統(tǒng)。46Bruce G. Buchanan; Thomas E. Headrick, “Some Speculation about Artificial Intelligence and Legal Reasoning”, Stanford Law Review ,Vol.23 (1970),p.40.有學(xué)者提醒我們注意不要夸大“人工智能”在法律領(lǐng)域的應(yīng)用現(xiàn)狀,直到今天,“盡管信息技術(shù)在法律工作中的應(yīng)用已經(jīng)發(fā)生了很大變化,這些變化主要來自于通常的信息技術(shù)應(yīng)用,比如數(shù)據(jù)處理、數(shù)據(jù)儲存、檢索和管理,再加上信息豐富、流動迅速和全球化的互聯(lián)網(wǎng)通訊和聯(lián)網(wǎng)能力”。47Abdul Paliwala, “Rediscovering Artificial Intelligence and Law: An Inadequate Jurisprudence?”, International Re-view of Law, Computers & Technology, Vol.30(3) (2016), pp.107-114, 108.也就是說,目前在司法領(lǐng)域領(lǐng)域應(yīng)用的人工智能產(chǎn)品大多只是封閉的“專家系統(tǒng)”,而不是有自主學(xué)習(xí)能力的“人工智能”。

符號主義的核心理念就是“所有和智力相關(guān)的工作都可以歸結(jié)為對符號的操縱”。48[美]佩德羅·多明戈斯:《終極算法:機(jī)器學(xué)習(xí)和人工智能如何重塑世界》,黃芳萍譯,中信出版集團(tuán)2017年版,第113頁。既然所有的知識都可以用符號表示,而符號可以脫離它的基質(zhì),就可以讓計算機(jī)學(xué)習(xí)各種符號,采用逆向演繹(歸納)的方法來總結(jié)規(guī)則,然后再把規(guī)則正向適用于各種用符號表示的事實情境的可能性用決策樹表示出來。但符號主義的算法以對原始數(shù)據(jù)的符號化處理為前提,是一個封閉系統(tǒng),并不能節(jié)省多少人力。實際上,多數(shù)法律人(包括法理學(xué)家)都沒有受過將法律推理過程用符號邏輯表述出來的訓(xùn)練,更習(xí)慣于用含糊的、道德化的或有歧義的語詞來表述法律概念和法律論證,而且將這視為法律有人性、有溫度的體現(xiàn)。在符號主義的框架里面,我們無法教機(jī)器學(xué)會我們自己不會的東西。49參見 Richard Susskind, “Expert Systems in Law: A Jurisprudential Approach to Artificial Intelligence and Legal Reasoning” ,Modern Law Review ,Vol.49 (1986),p.168。

但符號主義的算法可以幫助概念法學(xué)和分析法學(xué)的追隨者們實現(xiàn)“耶林之夢”。耶林(Jhering)曾經(jīng)做過一個夢,夢境中自己進(jìn)入了專為造詣精深的法學(xué)家準(zhǔn)備的天堂,在那里他看到了完美的、不沾人間煙火氣的概念體系,每個人概念都分殊出若干子概念,如此層層遞進(jìn),涵蓋著所有可以想象的法律關(guān)系。50Rudolf Von JHERING, Scherz und Ernst in der Jurisprudenz, 11th ed., Leipzig, Breitkopf u. H?rtel 1912 1912, 245.馬克斯·韋伯(Max Weber)也把這種基于《學(xué)說匯纂》(潘德克頓)理論體系而發(fā)展出的自恰法律系統(tǒng)視為形式理性法的理想狀態(tài),其中,(1)每一項具體的法律決定都是某一抽象的法律命題向某一具體“事實情境”的“適用”;(2)在每一具體案件中,都必定有可能通過法律邏輯的方法從抽象的法律命題導(dǎo)出裁決;(3)法律必須實際上是一個由法律命題構(gòu)成的“沒有漏洞”(gapless)的體系,或者,至少必須被認(rèn)為是這樣一個沒有空隙的體系;(4)所有不能用法律術(shù)語合理地“分析”的東西也就是法律上無關(guān)的;以及(5)人類的每一項社會行動都必須總是被型構(gòu)為或是一種對法律命題的“適用”或“執(zhí)行”、或是對它們的“違反”,因為法律體系的“沒有漏洞”性(gaplessness)必定導(dǎo)致對所有社會行為的沒有漏洞的“法律排序”(legal ordering)。51Max Weber,Economy and Society: An Outline of Interpretive Sociology, Guenther Roth & Claus Wittich ed., Univer-sity of California Press, 1978 (second printing). V.II, p.657-658.借助符號主義的算法,這樣一個封閉的決定論系統(tǒng)可以變得越來越概念精細(xì)、邏輯融貫。在印刷術(shù)時代孤軍奮戰(zhàn)的布萊克斯通將法律問題分成110個類型,而萬律(Westlaw)在互聯(lián)網(wǎng)技術(shù)的幫助下雇用了數(shù)以百計的“抄寫員”,將法律問題分成了數(shù)以萬計的類型,編寫成了Westlaw Digests。進(jìn)一步的細(xì)分在人工智能時代變得越來越容易。

類比推理是另一種得出法律判斷的重要推理方式。有法學(xué)家寫道:“如果說比喻是語言的點睛之筆,類比就是法學(xué)語言中的頭腦風(fēng)暴(brainstorm)?!?2Scott Brewer, “Exemplary Reasoning: Semantics, Pragmatics. and the Rational Force of Legal Argument by Analo-gy” ,Harvard Law Review ,Vol.109 (1996) ,p.923.在上面提到的《學(xué)說匯纂》中的問答中,法學(xué)家將“放開某物令其對他人造成傷害”類比“主動拿出武器傷害他人”,從而將同樣的規(guī)則適用于這兩種不同的事實情境。普通法的遵循先例(stare decisis)原則的核心就是類比推理,要求找到正在審理的案件與先例之間的事實相似性,從而確定是否適用先例中的規(guī)則。法律推理和醫(yī)學(xué)推理都可以被看成一種為了解決實際問題而展開的決疑術(shù)推理,這種推理實現(xiàn)并不給定大前提,而是從小前提(對問題事實的觀察和描述)中尋找蛛絲馬跡,然后關(guān)聯(lián)到類型化的知識圖譜之中,從而給出一個并不保證絕對正確卻有助于解決問題的方案。決疑術(shù)體現(xiàn)著“通過從一套核心的典型案例分類體系中獲取知識來解決實際問題,借助范式和類推來組織論證”的思維方式。53A.R. Jonsen, S. Toulmin, The Abuse of Casuistry: A History of Moral Reasoning, Berkeley, CA: University of Cali-fornia Press, 1988, p.42.而類比推理正是智能算法的核心理念之一,類推主義是《終極算法》一書所總結(jié)出的五大算法流派之一。54[美]佩德羅·多明戈斯:《終極算法:機(jī)器學(xué)習(xí)和人工智能如何重塑世界》,黃芳萍譯,中信出版集團(tuán)2017年版,第七章。在給定案例數(shù)據(jù)庫的基礎(chǔ)上,算法很容易找出類似的事實情境并將其關(guān)聯(lián)于相應(yīng)的規(guī)則?!跋嗨瓢讣嗨婆袥Q”是借助算法比較容易實現(xiàn)的目標(biāo)。

符號主義和類推主義的算法都可以得出確定的決策,可以變成自主決策系統(tǒng)。但我們可以把這種機(jī)器決策作為參照,在此基礎(chǔ)上由人類決策者作出可執(zhí)行的決策。只要沒有把機(jī)器的自主決策設(shè)定為自動執(zhí)行,就不會取消人類決策者的判斷權(quán)和相應(yīng)的責(zé)任。

(五)遺傳算法與政策/法律的虛擬試錯

薩維尼(Savigny)指出:法律固然是一種“形式”(Gestalt),“但法律存在于人民(Volk)的意識之中的那種形式不是抽象規(guī)則的形式,而是一種活的直觀洞見(Anschauung),這種洞見揭示出存在于生活的有機(jī)整體中的法律構(gòu)造,因此,當(dāng)我們需要知道以邏輯形式表達(dá)的抽象規(guī)則的時候,我們便需要通過一個人工的過程把它從那種整體洞見中抽離出來,然后加以表述”。55Savigny, System des Heutigen R?mischen Rechts, band.1, 1840, De Gruyter, Reprint 2012, s.16.這個“人工的過程”如今也可以用人工智能來實現(xiàn)。

進(jìn)化是生物物種在應(yīng)對紛繁復(fù)雜且不斷變化的外部環(huán)境時通過自然選擇并借助基因傳遞而優(yōu)化自身結(jié)構(gòu)的過程。生物進(jìn)化是一種學(xué)習(xí),不過是在漫長的時間和無數(shù)世代的生存考驗中實現(xiàn)的學(xué)習(xí)。計算機(jī)可以模擬生物進(jìn)化,在較短的時間內(nèi)實現(xiàn)生物在漫長時間里的“學(xué)習(xí)”。

解決人類問題的難點在于我們不能拿人來做試驗,或者說,雖然拿人做試驗的事情在人類社會屢見不鮮,但人類不會認(rèn)為這樣做是正當(dāng)?shù)?。但歷史是一個已完成試驗的資料庫,其中有些試驗是人類付出了數(shù)以千萬計的生命作為慘痛代價的,除了發(fā)思古之幽情或恨古之怨忿外,我們應(yīng)當(dāng)能夠從歷史中學(xué)到些什么,方不枉昔人之犧牲。馬克·吐溫(Mark Twain)說過一句十分機(jī)智的話:“歷史不會重復(fù),它只押韻。”正是因為歷史不僅事件繁多,而且因果關(guān)系復(fù)雜,類似事件放在不同的外部環(huán)境中會產(chǎn)生迥然相異的結(jié)果,所以簡單的線性思維以及同因必然同果的決定論思維不僅無法給我們正確的引導(dǎo),反而會讓我們誤入歧途。此外,往事已矣,留給我們的只是具體的人的記錄,這些記錄本身就是不完整的,越是同時代人的記錄,越體現(xiàn)著記錄者的恩怨情仇乃至政治圖謀,因此會出現(xiàn)完全不同的事件描述和因果敘事。我們?nèi)狈υ谌祟愂聞?wù)領(lǐng)域理性地處理復(fù)雜性問題的能力,這主要不是因為人文學(xué)者缺乏科學(xué)訓(xùn)練,而是因為人類事務(wù)本身無法被化約為幾個變量或幾個參數(shù)。但人工智能的出現(xiàn)使我們看到了新的希望,至少數(shù)字化時代之后的人類經(jīng)驗不再依靠少數(shù)幾個同時代人的記錄,而體現(xiàn)在海量的大數(shù)據(jù)中。整全數(shù)據(jù)分析將取代抽樣分析,強(qiáng)大的計算能力能夠處理無限量的變量。

同時,人類往往面對多個目標(biāo)之間的沖突,實現(xiàn)一個目標(biāo)的優(yōu)化方案往往會損害乃至阻礙另一個目標(biāo)的實現(xiàn)。以環(huán)境保護(hù)為例,單純的環(huán)保主義者往往忽視了經(jīng)濟(jì)因素,未能充分理解經(jīng)濟(jì)發(fā)展必然需要對自然資源的耗費性利用,而試圖在環(huán)境和經(jīng)濟(jì)之間達(dá)致某種平衡的人可能又忽視了環(huán)境成本或經(jīng)濟(jì)發(fā)展利益的不公平分配問題。可持續(xù)發(fā)展需要綜合考慮環(huán)境(Environment)、經(jīng)濟(jì)(Economy)和公平(Equality)這三個目標(biāo)(3E)。面對這種多目標(biāo)決策所蘊(yùn)含的復(fù)雜性,人類決策者往往因為計算能力有限或認(rèn)知偏差而無法找出最優(yōu)解。演進(jìn)算法善于處理復(fù)雜性問題,如今已有將其用于在復(fù)雜情境中生成并測試規(guī)則設(shè)計的嘗試。56J. B. Ruhl, “Sustainable Development: A Five-Dimensional Algorithm for Environmental Law”, Stanford Environ-mental Law Journal ,Vol.18 (1999) ,p.31.

四、未來法治

2016年12月,一件涉及亞馬遜的人工智能家務(wù)助手Echo的新聞引起了廣泛關(guān)注。在偵查一起謀殺案的過程中,阿肯色州本頓維爾(Bentonville)警方要求調(diào)取犯罪嫌疑人詹姆斯·貝茨(James Andrew Bates)家里的Echo在案發(fā)當(dāng)晚錄下的聲音,這些音頻資料儲存在亞馬遜的云端服務(wù)器里。亞馬遜以涉及用戶隱私為由拒絕提供音頻資料,但提供了貝茨的賬戶信息和購買記錄。警方聲稱根據(jù)獲得信息已經(jīng)從Echo裝置里提取了當(dāng)晚的信息,但拒絕透露這些信息的內(nèi)容。此外,貝茨家里還有其他的智能電子設(shè)備,比如智能水表,該水表記錄著案發(fā)時段(凌晨1-3點)貝茨家里一共用了140加侖的水,可以佐證他可能用水沖洗掉了犯罪痕跡。這個事件是我們身處的“物聯(lián)網(wǎng)+人工智能”時代的典型事件,我們周圍的各種智能產(chǎn)品可能隨時“偷聽”或“偷看”著我們的一舉一動,它們記錄下來的信息不僅存儲在設(shè)備本身當(dāng)中,而且還上傳到了“云端”。僅僅刪除設(shè)備中的信息并不能抹掉全部的痕跡。這些信息可以幫助警方破案,幫助司法部門掌握事實真相,但也可能被濫用。即使這些信息是被執(zhí)法和司法部門用來維持法律秩序,這種使用也會與個人的隱私權(quán)發(fā)生沖突。安全、秩序與隱私、個人權(quán)利之間的永恒沖突在技術(shù)碾壓隱私的大背景中顯得無比尖銳,也迫使我們思考法治在人工智能時代的未來走向。

首先,主流的法治理論認(rèn)為法治與法制的主要區(qū)別在于:后者是工具主義的,法律被當(dāng)成統(tǒng)治的工具,但無法約束統(tǒng)治者本身;前者是權(quán)利本位的,法律不僅約束公民,更約束公權(quán)力。在這種法治框架下,政府成為法律(尤其是公法)的監(jiān)控對象。但大數(shù)據(jù)分析技術(shù)和人工智能正在改變社會的治理結(jié)構(gòu)和秩序生成機(jī)制,誰掌握了數(shù)據(jù)和分析數(shù)據(jù)的技術(shù),誰就能影響和控制人的行為。大到總統(tǒng)選舉,小到日常購物,智能化的數(shù)據(jù)分析和行為誘導(dǎo)機(jī)制在其中發(fā)揮著越來越大的作用,而背后的操縱者往往不再是政府。新技術(shù)的發(fā)明者、投資者和鼓吹者們往往會夸大技術(shù)帶來的“解放”效應(yīng),宣稱人工智能和區(qū)塊鏈等技術(shù)將使一切中心和中介變得沒有必要,從而瓦解人類社會的金字塔結(jié)構(gòu),使有序的人際關(guān)系變得越來越呈網(wǎng)狀分布,每個人都是中心,每個人也都不可能控制整個網(wǎng)絡(luò)。但實際結(jié)果卻是,金字塔依然存在,基底依然是蕓蕓眾生,但塔尖卻分裂成了政府、資本力量和技術(shù)力量。三種力量有時會合并起來,有時又會相互對峙,但它們之間的關(guān)系并不受基座的影響。藐視政治權(quán)威的技術(shù)達(dá)人(黑客)并不會解放全人類,而只會破壞既定的法律秩序。與政府討價還價的商業(yè)力量也不會“制衡”公權(quán)力,而只是追逐利潤。上文中提到的“劍橋分析”公司助力特朗普贏得美國總統(tǒng)大選的例子表明,大數(shù)據(jù)掌控者已經(jīng)不只是通過數(shù)據(jù)分析來進(jìn)行預(yù)測,還有能力將某些預(yù)測變成自我實現(xiàn)的寓言。同時,法律所建構(gòu)起來的公與私、政治權(quán)力與商業(yè)力量之間的區(qū)隔已經(jīng)變得弱不禁風(fēng)。

今天的互聯(lián)網(wǎng)和智能產(chǎn)品企業(yè)就像是一個世紀(jì)前的鐵路公司和電報電話公司,它們“創(chuàng)造和統(tǒng)治著我們的交流空間,并因此控制著我們的生活,這種控制程度遠(yuǎn)遠(yuǎn)超過其他任何私人群體”。57Alan Z. Rozenshtein, “Surveillance Intermediaries”, Stanford Law Review ,Vol.70 (2018), p.188.它們被稱為“監(jiān)控中介”(surveillance intermediaries),挑戰(zhàn)著國家對安全和秩序事務(wù)的壟斷,但并沒有帶來更多的安全和秩序。蘋果公司曾經(jīng)因拒絕政府要求披露用戶信息而獲得自由主義者們的普遍贊譽(yù)。2015年12月2日,美國加州圣貝納迪諾發(fā)生了美國本土自“9·11”之后最嚴(yán)重的恐怖襲擊,宣誓效忠“伊斯蘭國”的賽義德·法魯克(Syed Rizwan Farook)和塔什芬·馬利克(Tashfeen Malik)在開槍射殺14人、射傷20多人后被警察擊斃。聯(lián)邦調(diào)查局查獲了法魯克的蘋果手機(jī),為了獲得犯罪調(diào)查和反恐所需要的信息,在獲得法院授權(quán)的情況下向蘋果公司發(fā)出了解鎖該手機(jī)的要求。但蘋果公司拒絕合作,公司總裁蒂姆·庫克(Tim Cook)還在公司網(wǎng)站上發(fā)布了一封公開信,譴責(zé)聯(lián)邦調(diào)查局的要求“破壞了我們的政府旨在保護(hù)的那種權(quán)利和自由”。58Tim Cook, “A Message to Our Customers”, APPLE (Feb. 16, 2016), https://www.apple.com/customer-letter/, accesscd on March 20,2018.對蘋果公司而言,這是一次成功的公眾形象宣傳。對于美國的國家安全和公眾的生命安全而言,這不見得是件好事。

基本公共服務(wù)(包括國防和治安)領(lǐng)域的公、私權(quán)力關(guān)系是未來法治需要解決的首要問題。以政府為主要規(guī)制和防范對象的現(xiàn)有公法體系需要考慮技術(shù)革新和權(quán)力結(jié)構(gòu)變化所帶來的新問題,一方面將透明、公開、程序合法、說明理由等對公權(quán)力行使者的要求延伸到實際上行使著“準(zhǔn)公權(quán)力”的私人(包括企業(yè)和個人),使算法等技術(shù)化的監(jiān)控和決策手段不再是無法被問責(zé)的“黑箱”,另一方面延伸和調(diào)整傳統(tǒng)的公法概念體系(包括“公共服務(wù)”)和規(guī)制手段,以應(yīng)對現(xiàn)時代公私合作、公私共治的普遍現(xiàn)象。

其次,在技術(shù)日益智能化的時候,法律的日益技術(shù)化會使它很容易被技術(shù)所取代,而如果兩者都趨向于只講手段不問目的的工具理性,則人類將被引向不可知的未來,這個未來很可能是萬劫不復(fù)的深淵。工具理性取代價值理性的趨勢在現(xiàn)代化的早期便已經(jīng)暴露無遺了,現(xiàn)代政治思想的奠基者霍布斯系統(tǒng)打造了人類無中生有地創(chuàng)造和管理世界的理論,法律和工程技術(shù)都是這種“創(chuàng)世”工作的工具。奧克肖特(Michael Oakeshott)敏銳地指出了“意志與人造物”在霍布斯思想中的核心地位,他發(fā)現(xiàn)霍布斯“通常不會提及理性,這一將人與上帝聯(lián)系的人類心智的神性光亮;他提及的是推理(reasoning)”。59Michael Oakeshott, Hobbes on Civil Association, Indianapolis, IN.: Liberty Fund, 1975, p.27.霍布斯十分明確地寫道:“舊道德哲學(xué)家所說的那種極終的目的和最高的善根本不存在。欲望終止的人,和感覺與映像停頓的人同樣無法生活下去。幸福就是欲望從一個目標(biāo)到另一個目標(biāo)不斷地發(fā)展,達(dá)到前一個目標(biāo)不過是為后一個目標(biāo)鋪平道路。所以如此的原因在于,人類欲望的目的不是在一頃間享受一次就完了,而是要永遠(yuǎn)確保達(dá)到未來欲望的道路?!?0[英]霍布斯:《利維坦》,黎思復(fù)、黎廷弼譯,商務(wù)印書館1985年版,第72頁。從某種意義上,人類的欲望種類從未改變,只是滿足欲望的技術(shù)手段越來越先進(jìn)。沒有方向和目標(biāo)地追求欲望的滿足在以人工智能作為技術(shù)手段的時代比任何時候都更加危險。

盧曼敏銳地指出:“人工智能研究關(guān)心的是如何操縱‘符號’,而不是如何形成意義?!?1Niklas Luhmann, Theory of Society, Vol. I, translated by Rhodes Barrett, Stanford University Press, 2012, p.315.技術(shù)是在給定目的的前提下追求最優(yōu)解決方案的活動,技術(shù)本身不是目的,也無法自動形成自己的目的。作為一種技術(shù),人工智能也是服務(wù)于特定的人類目的的,我們應(yīng)當(dāng)追問:我們到底想用人工智能來干什么?

當(dāng)然,認(rèn)為人類總是很清楚自己的目的是人文學(xué)者一廂情愿的幻想。在許多時候,人并不清楚自己想干什么?;裟匪乖?jīng)指出:“……我心目中一直認(rèn)為一切都要靠科學(xué),因為最終只有科學(xué)能夠在其已經(jīng)發(fā)展到的水平限度內(nèi)確定我們的不同社會目標(biāo)的相對價值,正如我曾經(jīng)暗示的那樣,正是因為我們對這些目標(biāo)的權(quán)重往往只有盲目和無意識的估算,才導(dǎo)致我們堅持并擴(kuò)大某一原則的適用范圍,而讓其他[或許同樣重要甚至更加重要的]原則逐漸零落成泥?!?2Oliver Wendell Holmes, “Law in Science and Science in Law” , Harvard Law Review,Vol.12 (1898-1899),p. 462.包括人工智能在內(nèi)的科學(xué)技術(shù)可以打開我們的視野,幫我們看到人類可以走多遠(yuǎn),并澄清我們可以選擇的目的的疆界,但最終需要人類自己來做出選擇。法律無法確定人類社會發(fā)展的終極目的,但必須體現(xiàn)一些基礎(chǔ)性的底線價值(如人的尊嚴(yán)和平等)以及程序性的要求(如決策的公開性、透明性、公正性)。體現(xiàn)人類價值的法律框架不可能限定技術(shù)可以到達(dá)的目標(biāo),但卻可以引導(dǎo)它的發(fā)展方向。

最后,人工智能所體現(xiàn)的技術(shù)理性有明顯的化約主義傾向,我們可以借助它來提高效率,取代一部分無需創(chuàng)造性和價值判斷的工作,但不能由它來做出事關(guān)人類福祉的最終決策。 法律所調(diào)整的是人與人之間的關(guān)系,因此法律不必去直接規(guī)制技術(shù),而應(yīng)當(dāng)規(guī)制使用技術(shù)的人。從更深的層面上講,法律應(yīng)當(dāng)去規(guī)制被技術(shù)改變后的社會中的人,從而使技術(shù)對人類社會的影響能夠朝著善和正義的方向去發(fā)展。人不應(yīng)當(dāng)允許自己的自我認(rèn)識被技術(shù)所左右;他應(yīng)當(dāng)向反抗任何導(dǎo)致主體性喪失的支配關(guān)系一樣去反抗對技術(shù)的依賴;如果他想要拯救自己的人性和自主性,他就應(yīng)該把自己從技術(shù)和支配所導(dǎo)致的異化中拯救出來。

法律和技術(shù)都是人造物,越“先進(jìn)”的法律和技術(shù)越是經(jīng)過無數(shù)層人為設(shè)計之遞進(jìn)后遠(yuǎn)離自然的人造物,自然的人的因素很容易在層層遞進(jìn)中消失, 如果我們最終用算法化的法律來制定和實施算法的法律,人最終就會成為可有可無的存在。人必須是算法的立法者和控制者,法律的算法與算法的法律不應(yīng)成為一個閉環(huán),它們中間必須有人作為起點和終點。要將社會生活的復(fù)雜事實帶入一定的法秩序,規(guī)范塑造者需要在相關(guān)事實和基于規(guī)范文本的秩序標(biāo)準(zhǔn)之間保持“目光之往返流轉(zhuǎn)”。能夠做到這一點的只有訓(xùn)練有素的法律人。

猜你喜歡
人工智能法律算法
法律解釋與自然法
法律方法(2021年3期)2021-03-16 05:57:02
基于MapReduce的改進(jìn)Eclat算法
Travellng thg World Full—time for Rree
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
進(jìn)位加法的兩種算法
人工智能與就業(yè)
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
一種改進(jìn)的整周模糊度去相關(guān)算法
讓人死亡的法律
山東青年(2016年1期)2016-02-28 14:25:30
济源市| 淮安市| 南丰县| 泗洪县| 莎车县| 阳朔县| 峨山| 南漳县| 银川市| 邹城市| 永靖县| 抚宁县| 阳泉市| 右玉县| 太仓市| 汝州市| 色达县| 林周县| 筠连县| 南乐县| 固镇县| 文成县| 磐石市| 商河县| 闸北区| 青川县| 延吉市| 沧源| 滨州市| 从江县| 庐江县| 贺兰县| 淮阳县| 大兴区| 泸定县| 大同市| 阳谷县| 安阳县| 蒲江县| 宁远县| 淅川县|