[德]霍斯特·艾丹米勒 著 李 飛 敦小匣 譯
機器人的崛起與人類的法律*
[德]霍斯特·艾丹米勒 著 李 飛 敦小匣 譯**
機器人的崛起和“機器人法律”的出現(xiàn)引發(fā)了一些重要問題。以無人駕駛汽車的場景為例(這些穿梭在公路上的機器人極有可能會給我們的日常生活及商業(yè)帶來革命性變革),可以從法律上得出如下觀點:其一,機器人規(guī)制必須要針對特定機器人以及具體場景而定。這就要求對特定領域的“機器人行為”產(chǎn)生的微觀與宏觀效果有深刻的認識。其二,(完善的)現(xiàn)有法律類型能夠被合理地應用并對機器人予以規(guī)制。其三,機器人法律受到社會“深層次規(guī)范結(jié)構(gòu)”的影響。其四,如果該結(jié)構(gòu)是實用主義的,那么在不遠的將來,智能機器人就會被當作人類來對待。那就意味著,智能機器人應當被賦予法律人格,并因此有能力取得并持有財產(chǎn)以及訂立合同。其五,反對將機器人當作人類一樣對待的理由源自于認識論與本體論層面。
機器人 機器人法律 人工智能 無人駕駛汽車 事故責任 基本法律概念
一旦有法律人士參與到一場討論中,該話題的有趣部分往往就結(jié)束了。工程師與計算機專家在這方面有過之而無不及。在本文中,我將探討的是機器人與法律。因此,受主題所限,本文的娛樂前景可能有限。然而,法律與人工智能(AI)的互動卻會提出一些令人激動且頗為重要的問題;同時,這些問題的答案無疑將會在未來數(shù)十年影響人類的命運。
人工智能正在快速地影響著我們的生活及工作方式。隨著人們的日常工作(包括手工操作及認知層面)變得越來越自動化,預計到2025年,將會有大約三分之一的傳統(tǒng)職業(yè)被機器人(內(nèi)含人工智能[1]See Calo, Robotics and the Lessons of Cyberlaw, California Law Review 103 (2015), pp. 513, 532 et seq.)所取代。[2]See Hernaes, Artificial Intelligence, Legal Responsibility and Civil Rights, 22 August 2015, https://techcrunch.com/2015/08/22artificialintelligence-legal-responsibility-and-civil-rights/ (last visited on 10 March 2017). 關于這一問題的周全應對及明智的政策選擇,See Ford, The Rise of Robots: Technology and the Treat of Mass Unemployment. London: Oneworld, 2015.法律將會決定人工智能的未來,比如,法律將決定人工智能允許使用的領域,新產(chǎn)品和新技術的成本,以及其他方面。此外,對人工智能的最初監(jiān)管決定將至關重要,這些決定可能會創(chuàng)建路徑依賴關系,并使日后更改管理過程變得困難。
規(guī)制人工智能將會充滿挑戰(zhàn)與困難。畢竟,法律是——并且始終是——由人類制定并服務于人類的。想想那些基礎概念吧,比如“人格”與“法律人格”。歷史上,這些概念都與人類(即自然人)有關。因此人工智能將會對法律體系產(chǎn)生影響:我們要如何對待機器人?我們要賦予它們法律人格嗎(使它們有權(quán)取得并持有財產(chǎn)、訂立合同等)?[3]關于這一問題的概要,可參見,比如,Kersten, Menschen und Maschinen, Juristenzeitung (JZ) 2015, pp. 1, 6-7.
在本文中,我將嘗試回答這些問題以及由于機器人崛起和“機器人法律”出現(xiàn)而引發(fā)的其他重要問題。本文的主要論點如下:其一,機器人規(guī)制必須要針對特定機器人以及具體場景而定。這就要求對特定領域的“機器人行為”產(chǎn)生的微觀與宏觀效果有深刻的認識。其二,(完善的)現(xiàn)有法律類型能夠被合理地應用并對機器人予以規(guī)制。其三,機器人法律受到社會“深層次規(guī)范結(jié)構(gòu)”的影響。其四,如果該結(jié)構(gòu)是實用主義的,那么在不遠的將來,智能機器人就會被當作人類來對待。那就意味著,智能機器人應當被賦予法律人格,并因此有能力取得并持有財產(chǎn)以及訂立合同。其五,反對將機器人當作人類一樣對待的理由源自于認識論與本體論層面。這些觀點都關系到機器人是否能思考(它們不能)以及成為人類意味著什么。
我將主要以無人駕駛汽車的場景為例來闡述這些論點——這些穿梭在公路上的機器人極有可能會給我們的日常生活及商業(yè)帶來革命性變革。[4]See Eidenmüller, Whose Fault? Firms, Products and Liability in the Age of Artificial Intelligence, BMW Welcomes: Artificial Intelligence, Munich 21 April 2016, https://www.youtube.com/watch?v=4b6qElmM_Ng&t=14s (last visited on 7 March 2017).然而,為了闡明機器人給我們的社會結(jié)構(gòu)帶來的巨大的潛在影響,我會舉出更多的例子予以說明。
目前,在機器人的諸多發(fā)展領域中,對無人駕駛汽車的討論最多。[5]See, for example, Lipson/Kurman, Driverless: Intelligent Carts and the Road Ahead. Cambridge, MA: MIT Press, 2016.事實的確如此,大多數(shù)汽車生產(chǎn)商都在試驗無人駕駛汽車,這些汽車現(xiàn)已在世界各地的公路上進行測試。[6]See "33 Corporations Working On Autonomous Vehicles", https://www.cbinsights.com/blog/autonomous-driverless-vehiclescorporations-list/ (last visited on 20 March 2017).谷歌似乎在這一領域一直處于領軍地位。[7]See "Google Self-driving Car Project", https://plus.google.com/+SelfDrivingCar (last visited on 10 March 2017).谷歌汽車的一個重要特征是其不斷旋轉(zhuǎn)的車頂攝像頭,這個攝像頭可以發(fā)射出64組激光柱并形成物體的3D影像,使汽車能夠自我定位。這種汽車的駕駛行為由復雜的軟件控制。
機器人另一個重要的應用領域是醫(yī)學界。例如,型號只有1-10/1,000,000毫米大小的納米科技醫(yī)療機器人的模型已經(jīng)問世。[8]See "Nanotech Robots Travel Through Blood to Turn Off Tumor Cells", http://inhabitat.com/nanotech-robots-travel-through-blood-toturn-off-tumor-cells/ (last visited on 10 March 2017).這些納米科技醫(yī)療機器人將在病人的血液中穿行并進入腫瘤,通過驅(qū)除一種重要的癌癥基因來進行治療。
機器人也開始應用于金融及金融咨詢行業(yè)。“機器金融顧問”的問世,可能會以其低成本、自動化投資的優(yōu)勢對經(jīng)濟業(yè)務進行重組。[9]See Bernard, Should A Robot Oversee Your Retirement Money?, New York Times of 3 May 2016, p. 15.比如,瑞銀集團(UBS)最近宣布,其所屬的美國財富管理機構(gòu)的顧問將會利用機器人為資產(chǎn)雄厚的客戶提供服務。[10]See "UBS to Offer SigFig's Robo-platform to Its Financial Advisers", http://www.investmentnews.com/article/20160516/ FREE/160519939/ubs-to-offer-sigfigs-robo-platform-to-its-financial-advisers (last visited on 10 March 2017).這項技術已由一家位于圣弗蘭西斯科的新興公司開發(fā)出來,公司的7,000多名顧問將使用這項技術,這家名為SigFig財富管理(SigFig Wealth Management)的公司是一家發(fā)展迅速的機器顧問生產(chǎn)商。[11]See https://www.sigfig.com/site/#/home/am (last visited 10 March 2017).
最后,人工智能也將會從根本上改變法律職業(yè)。[12]See Remus/Levy, Can Robots Be Lawyers? Computers, Lawyers, and the Practice of Law, https://papers.ssrn.com/so13/papers. cfm?abstract_id=2701092 (last visited on 11 March 2017); Susskind//Susskind, The Future of the Professions: How Technology will Transform the Work of Human Experts. Oxford: Oxford University Press, 2015, pp. 66-71; Kaplan, Humans Need Not Apply: A Guide to Wealth and Work in the Age of Artificial Intelligence. New Haven and London: Yale University Press, 2015, pp. 145-149.實際上,人工智能系統(tǒng)已開始輔助解決(自動化的)糾紛案,[13]See Fatima/Kraus/Wooldridge, Principles of Automated Negotiation. Cambridge: Cambridge University Press, 2014. 在這個領域,領先的私人服務商是Modria公司。See http://modria.com/ (last visited on 11 March 2017).而且,“機器人律師”也開始登上舞臺。例如,2016年,美國一家律師事務所雇用了世界上第一個名為Baker Hostedler的人工智能律師,這個被認證為ROSS-Intelligence的“機器人律師”應用于破產(chǎn)重組與債權(quán)人權(quán)利保護部門。[14]See "The World's First Artificially Intelligent Lawyer Was Just Hired at a Law Firm", http://www.businessinsider.com/the-worlds-firstartificially-intelligent-lawyer-gets-hired-2016-5?IR=T (last visited on 10 March 2017).“機器人律師”主要應用于文件檢索和查找歸類方面。[15]See Sobowale, How Artificial Intelligence is Transforming the Legal Profession, 1 April 2016, http://www.abajournal.com/magazine/ article/how_artificial_intelligence_is_transforming_the_profession (last visited on 20 March 2017).在英格蘭,預測編碼(為查找文件進行的分類)最近在2016年5月17日的Brown vs BCA Trading一案中得到了高等法院的支持。[16]Brown v BCA Trading Ltd [2016] EWHC 1464 (Ch) (17 May 2016).“機器人律師”還將應用于(在線)起草法律文件,[17]On "Computational Law" see, for example, Kaplan, Artificial Intelligence: What Everyone Needs to Know. Oxford: Oxford University Press, 2016, pp. 95-97.同時以區(qū)塊鏈技術為基礎的“智能合約”(smart contracts)將指日可待。[18]See, for example, Eyers, Lawyers Prepare for "Driverless M & A" as Smart Contract Era Dawns, 19 June 2016, http://www.afr.com/ technology/lawyers-prepare-for-driverless-ma-as-smart-contract-era-dawns-20160616-gpknyz (last visited 11 March 2017).
人工智能還會以“機器人法官”的形式出現(xiàn)?;谝唤M150,000例重罪案件組成的數(shù)據(jù),Kleinberg等人研究發(fā)現(xiàn),基于機器學習(machine learning)預測的釋放裁決(尚懸而未決的案件)將會在不提高犯罪率的前提下,減少25%的監(jiān)獄人數(shù),或者在不改變監(jiān)獄人數(shù)的情況下降低20%的犯罪率。[19]See Kleinberg/Lakkaraju/Leskovec/Ludwig/Mullainathan, Human Decisions and Machine Predictions, NBR Working Paper No. 23180, February 2017, http://www.nber.org/papers/w23180 (last visited on 11 March 2017).總之,機器人律師和機器人法官似乎會在諸多方面帶來顯著的正面影響,如使法律咨詢費用更合理,作出的審判更準確,并使多數(shù)人群獲得司法公正的機會。
就上述討論的例子而言,某些“機器人特征”對考慮機器人的規(guī)制很重要。正如前面提到的那樣,機器人是表現(xiàn)人工智能的一種形式,其組成部分包含了一個傳感器或其他的輸入機制、一個起控制作用的運算法則以及對外界作出回應的能力。[20]See Franklin, Introduction, in: Calo/Froomkin/Kerr (eds.), Robot Law. Cheltenham, UK and Northampton, MA: Edward Elgar, 2016, pp. x, xi.這三個部分一起組成了所謂的“感應-思考-行為范式”。[21]See, for example, Hexmoor, Essential Principles for Autonomous Robotics. San Rafael, CA: Morgan & Claypool, 2013, p. 25.傳感器或其他的輸入機制可以從多個源頭獲得感應,就如同“網(wǎng)絡汽車”(networked cars)那樣。[22]See, for example, Lim/Balakrishnan/Eriksson/Gifford/Madden/Rus, Intelligent Transportation with Networked Cars, https://groups.csail. mit.edu/drl/wiki/images/0/0f/LimMobisysDemo08.pdf (last visited on 26 March 2017).如上所述,網(wǎng)絡汽車會利用攝像頭、來自GPS的交通數(shù)據(jù),以及來自互聯(lián)網(wǎng)的地理數(shù)據(jù)。
智能機器人具備機械學習的能力,例如,它們不但可以利用海量的現(xiàn)有數(shù)據(jù),而且還能利用來自實踐的數(shù)據(jù)以及其他新信息去調(diào)整它們的行為。[23]See Brynjolfsson/McAffe, The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies. New York, NY and London: W. W. Norton, 2014, pp. 89-96; Kaplan (note 17 supra), pp. 27 et seq. (“因此,四個趨勢——計算速度與儲存的改進、信息存儲從物理式到電子式的轉(zhuǎn)變、更容易使用 以及低成本、高分辨的數(shù)字感應器——是從象征推理到機器學習過程中重新集中精力的主要驅(qū)動器”, ibid. at p. 39)因此,在一定程度上,這些機器人被刻意設計得變幻莫測。[24]See Millar/Kerr, Delegation, Relinquishment and Responsibility: The Prospect of Expert Robots, in: Calo/Froomkin/Kerr (note 20 supra), pp. 102, 107.一個有趣的問題是,在某個時候,機器人能否達到超人(super-human)的智力水平。[25]See Generally Bostrom, Superintelligence: Paths, Dangers, Strategies. Oxford: Oxford University Press, 2014.這種想法常被歸結(jié)為“奇點”(singularity)。[26]See Bostrom (note 25 supra), pp. 1-3; Ford (note 2 supra), pp. 225-245.機器人可能會獲知它們是怎樣被人類控制的,并實現(xiàn)自我控制。但就目前而言,關于“奇點”的爭辯還更多地停留在學術(以及虛構(gòu)的)層面,而非現(xiàn)實層面。
在各種形態(tài)的機器人當中,一個重要的子類別便是“社交機器人”(social robots)。[27]See KPMG, Social Robots: 2016's New Bread of Social Robots is Ready to Enter Your World, 2016, https://assets.kpmg.com/content/dam/ kpmg/pdf/2016/06/social-robots.pdf (last visited on 26 March 2017).這種機器人是專門設計出來與人類互動的,這類似于那些具有人類特征的兒童玩具。[28]關于這類玩具,比如,可參見"Netzagentur ruft Eltern auf, Puppe 'Cayla' zu zerstren", 16 February 2017, http://www.sueddeutsche. de/digital/ueberwachung-im-kinderzimmer-netzagentur-ruft-eltern-auf-puppe-cayla-zu-zerstoeren-1.3383009 (last visited on 26 March 2017)。研究已經(jīng)確認了“社交機器人”的“社會價值”:人類把擬人化的機器人當成人類一樣對待。[29]See Darling, Extending Legal Protection to Social Robots: The Effects of Anthropomorphism, Empathy, and Violent Behaviour towards Robotic Objects, in: Calo/Froomkin/Kerr (note 20 supra), pp. 213, 216 et seq.這就潛在地產(chǎn)生了重要的規(guī)制意義。
本文提出的第一個論點是,機器人規(guī)制必須基于“特定的機器人語境”,這要求對特定領域的“機器人行為”產(chǎn)生的微觀及宏觀效果有深刻的理解。我將以全自動汽車的事故責任為例來闡述這一論點,這是測試“機器人法律”很好的例子。
在未來的20到25年中,行駛在公路上的汽車大概會有75%為無人駕駛汽車。[30]See Kaplan (note 12 supra), p. 195 (“專家一致意見是,在未來的20年或25年中,公路上的汽車75%將會是自動駕駛汽車); HopgoodGanim, Autonomous Car: The Regulatory and Liability Challenges, 8 April 2016, http://www.hopgoodganim.com.au/page/Publications/ Autonomous_Car_The_regulatory_and_liability_challenges/ (last visited on 11 March 2017).與這一趨勢相關,會隨之出現(xiàn)許多重大的積極進展。首先,我們看到的是,汽車事故會明顯減少。同時——也是更為重要的——死亡事故會減少。目前,世界上每年在汽車事故中喪生的人數(shù)大概有130萬。[31]See Gurney, Sue My Car Not Me: Products Liability and Accidents Involving Autonomous Vehicles, Journal of Law, Technology & Policy 2013, pp. 247, 250.這些致命的事故中大約有90%是由人為失誤造成的,9%是因環(huán)境條件引起的,不到1%的事故是因技術缺陷導致的。[32]See Statistisches Bundesamt, Verkehr auf einen Blick, 2013, p. 36, https://www.destatis.de/DE/Publikationen/Thematisch/ TransportVerkehr/Querschnitt/BroschuereVerkehrBlick0%20080006139004.pdf?__blob=publicationFile (last visited on 11 March 2017).其次,殘疾人、老年人的流動會增加。同時,駕駛的機會成本會顯著降低。平均算下來,我們一生中會花費4年以上的時間用于開車,[33]See "30 Surprising Facts about How We actually Spend Our Time", 7 January 2015, http://distractify.com/old-school/2015/01/07/ astounding-facts-about-how-we-actually-spend-our-time-%201197818577 (last visited on 20 March 2017).而且,我們駕車時,并非總能像開著寶馬一樣給你帶來“純粹的駕駛快感”。[34]See http://www.bmw.com/com/en/insights/brandcampaign_pleasure/experience.html?cm=Facebook (last visited on 9 March 2017).我們可以將花在車輪上的時間用于做更有價值的事情,如閱讀、思考或者僅僅只是做夢。另外,由于汽車的共享,我們在大街上看到的汽車會越來越少,這將會節(jié)省停車空間,縮短出行時間并減少汽車尾氣排放。
不過,也會出現(xiàn)一些負面問題。首先,在某些行業(yè),會有更多人失業(yè)。出租車與公交車駕駛員顯然會首當其沖。其次,隨著汽車聯(lián)網(wǎng)的普及,汽車更容易受到破壞性的網(wǎng)絡攻擊,[35]See Lin, The Ethics of Autonomous Cars, 8 October 2013, https://www.theatlantic.com/technology/archive/2013/10/the-ethics-ofautonomous-cars/280360/ (last visited on 11 March 2017).這樣,發(fā)生“重大事故”的風險就更大了。另外,盡管離奇的“小”事故比較少見,但是仍會發(fā)生。2016年上半年便發(fā)生了兩起這樣的事故。在一起事故中,一輛谷歌汽車在加州的芒廷維尤(Mountain View)變換車道時撞上了一輛公交車。[36]See https://www.youtube.com/watch?v=I9T6LkNm-5w (last visited on 9 March 2017).這輛谷歌汽車損毀嚴重,而公交車只是被輕微地剮蹭。在另一起較為嚴重的事故中,一輛以無人駕駛模式行駛的特斯拉汽車在佛羅里達州撞上了一輛貨車,特斯拉汽車的駕駛者在這起事故中喪生。[37]See https://www.theguardian.com/technology/2016/jun/30/tesla-autopilot-death-self-driving-car-elon-musk (last visited on 9 March 2017).顯而易見,特斯拉的傳感系統(tǒng)沒能識別對向駛來的貨車。
因此,上述事例表明,針對這種技術的宏觀與微觀影響,機器人的有效規(guī)制必須適當調(diào)整——相關規(guī)制必須能夠應對特定機器人帶來的社會變化,并同時能夠應對日常生活中出現(xiàn)的風險與機會。
接下來,針對全自動汽車的事故責任問題,我將闡述第二個論點:(完善的)現(xiàn)有法律類型能夠被合理地應用于機器人,并能有效規(guī)制它們的行為。其中,我將提出并回答的問題是:如果發(fā)生了事故,誰來承擔侵權(quán)責任?我不會分析現(xiàn)有的法律體系是如何處理這一問題的;[38]For the US see Gurney (note 31 supra), pp. 257-271; Karnow, The Application of Traditional Tort Theory to Embodied Machine Intelligence, in: Calo/Froomkin/Kerr (note 20 supra), pp. 51, 61-74; for Germany see Schulte-Nlke, Europisierung des Haftungsrechts, in: E. Lorenz (Hrsg.), Karlsruher Forum 2015: Europisierung des Haftungs- und des Versicherungsvertragsrechts (Karlsruhe: Verlag Versicherungswirtschaft, 2016), pp. 3, 31 et seq.; Lutz, Autonome Fahrzeuge als rechtliche Herausforderung, Neue Juristische Wochenschrift (NJW) 2015, pp. 119, 119-121.相反,如果有人來設計剮蹭事故的責任體系,我將對最佳“方案”頗感興趣。因此,我將考慮各種可能性:①無人承擔責任(“損失自負”);②汽車生產(chǎn)商承擔責任;③人工智能(設備)生產(chǎn)商承擔責任(并非汽車生產(chǎn)商);④汽車所有人承擔責任(全自動汽車沒有“駕駛?cè)恕保?;⑤汽車自己承擔責任。最后一種可能性看上去似乎特別異想天開,但是,事情正在快速地演變。2015年,在瑞士的一件藝術裝置中,一個機器人在暗網(wǎng)(dark web)上購買了搖頭丸和一本偽造的匈牙利護照,還有其他東西。[39]See http://fusion.net/story/122192/robot-that-bought-ecstasy-and-a-fake-passport-online-released-from-swiss-prison/ (last visited on 9 March 2017).這個機器人——而非藝術家或者其他人——被圣加侖的警察局逮捕,并于三個月后釋放。
考慮到上述五種可能性,基于若干原因,汽車生產(chǎn)商的嚴格責任——第二個規(guī)制選擇——似乎更受青睞。[40]See Eidenmüller (note 4 supra); Eidenmüller, Wenn Maschinen tten, Süddeutsche Zeitung of 13 July 2016, p. 2.
首先,無人承擔責任的解決方案顯然無法接受??深A期的(事故)成本將不會被生產(chǎn)商予以內(nèi)化,因此,他們會在不當激勵下以過低的成本與價格生產(chǎn)過量的汽車。與此同時,在“無人承擔責任的機制”之下,我們將不愿意去購買和(或)使用自動汽車——甚至可能會完全逃避此類活動。
在汽車生產(chǎn)商的嚴格責任制度下,該責任的建立并不需要主觀過錯,只要具備有缺陷的產(chǎn)品和因果關系即可。生產(chǎn)商貌似最能有效控制風險并平衡“駕駛”全自動汽車技術的收益與成本:生產(chǎn)商研發(fā)并使用人工智能,而且非常熟悉相關技術。例如,谷歌對上述汽車事故的反應顯然迅速而老練,能夠很快地查找到造成事故的原因。[41]See "Google Self-driving Car Crashes into a Bus (update: statement)", 29 February 2016, https://www.engadget.com/2016/02/29/googleself-driving-car-accident/ (last visited on 26 March 2017).
此外,相較于嚴格責任制度,在生產(chǎn)與銷售全自動汽車的過程中,過失責任制度要求法院確定生產(chǎn)商應保持的謹慎程度。和所有新興、復雜的技術一樣,這項操作非常煩瑣。另外,過失責任制度并不控制生產(chǎn)商的“行為層次”(activity level),如汽車生產(chǎn)與銷售的數(shù)量。[42]See, for example, Jackson/Kaplow/Shavell/Viscusi/Cope, Analytical Methods for Lawyers. New York, NY: Foundation Press, 2003, pp. 404-405.因此,嚴格責任制度似乎是更好的選擇。
第三個規(guī)制選擇——人工智能(設備)生產(chǎn)商與汽車的生產(chǎn)商不是同一家時,前者的責任如何?我認為,在一項復雜的技術產(chǎn)品中,一般來說很難將事故的原因梳理清楚,特別是涉及全自動汽車時。而且汽車生產(chǎn)商“控制著”系統(tǒng),包括所有的組成部件。所以,汽車生產(chǎn)商可能是“最低成本避免者”(cheapest cost avoider)。[43]如果當事人能夠以零(交易)成本就可適用的責任規(guī)則討價還價,他們將以最低的成本就當事人的責任達成合同(避免承擔預見到的事故成本)(科斯定理)。See Coase, The Problem of Social Cost, Journal of Law and Economics 3 (1960), pp. 1 et seq.就對第三方的侵權(quán)責任而言,汽車生產(chǎn)商應當是唯一的責任承擔者。當然,如果事故最終判定是由存在缺陷的人工智能設備造成的,汽車生產(chǎn)商可以從設備生產(chǎn)商那里獲得賠償。為了應對這一風險,法律應該規(guī)定生產(chǎn)商購買產(chǎn)品責任保險。
事實上,責任承擔問題的上述“解決方案”似乎是隨著市場與私人承包業(yè)務的變化而變化的。例如,在2015年年底,沃爾沃宣布將對無人駕駛汽車的后果承擔責任。[44]See "Volvo CEO: We will Accept All Liability When Our Cars are in Autonomous Mode", http://fortune.com/2015/10/07/volvo-liabilityself-driving-cars/ (last visited on 9 March 2017).在這一聲明中,沃爾沃向市場發(fā)出了一個強有力的信號:我們對自己的技術有信心。這個信號給競爭者造成了很大壓力并迫使它們?nèi)绶ㄅ谥?。上述“方案”也借鑒了產(chǎn)品責任指令(85/374/EEC)所規(guī)定的法律現(xiàn)狀,但有一個例外:根據(jù)這一指令,汽車的生產(chǎn)商和零部件的生產(chǎn)商將承擔連帶責任[第3(1)、5、7(f)條]。[45]根據(jù)該指令,如果缺陷是由于生產(chǎn)商關于最終產(chǎn)品的設計或者指示而造成的話,零部件生產(chǎn)商不需要承擔責任。指令規(guī)定的法律責任是用來應對因死亡或人身損害、財產(chǎn)損害(除了缺陷產(chǎn)品自身)的,指令第9條關于責任制度的規(guī)定并不影響第13條的合同責任。
嚴格侵權(quán)責任制度的一個問題就是:源于全自動汽車所有人層面的事故要求汽車生產(chǎn)商承擔責任。所以,顯而易見,事故發(fā)生的可能性很大程度上取決于行為層面:公路上的汽車越多,發(fā)生的交通事故也會越多。同樣明顯的是,汽車所有人控制著行為層面,即取決于他(她)的個人喜好、商業(yè)模型等。只要把出租汽車公司和私家車車主放在一起想想即可。因此,控制汽車車主的行為水平是有效責任機制的重要組成部分。[46]See, for example, Shavell, Liability for Accidents, in: Polinsky/Shavell (eds.), Handbook of Law and Economics, Volume I. Amsterdam: Elsevier, 2007, pp. 139, 146 et seq.
我們可以想想解決這一問題的各種潛在“方案”。一個方案就是根據(jù)汽車所有人的行為情況,要求他們與生產(chǎn)商共同承擔責任;另一個方案就是將汽車的銷售與責任保險捆綁在一起,保險費則依生產(chǎn)商、汽車類型、所有者或使用者的情況來確定。這種個性化的保險現(xiàn)如今已可購得。這種保險常被稱為“黑匣保險”,這是因為汽車上安裝了一臺小型“黑匣”設備,尺寸如智能手機般大小,用來記錄汽車行駛的速度、距離以及汽車白天、晚上行駛的時間。[47]See, for example, http://www.rac.co.uk/insurance/car-insurance/black-box-insurance (last visited on 9 March 2017); https://www. confused.com/car-insurance/black-box/telematics-explained (last visited on 10 March 2017).這個設備通過監(jiān)測速度與轉(zhuǎn)彎也能確定駕駛風格。此外,為了建立全面的駕駛資料,該設備還能記錄汽車通常行駛的道路類型以及晝夜運行的時間。
到目前為止,我尚未討論第五個用于規(guī)制全自動汽車引發(fā)事故的潛在應對措施,即要求汽車自己承擔責任。但是,這個問題可以用來闡述本文的第三個論點,即機器人法律會并且將會受到一個特定社會的“深層次規(guī)范結(jié)構(gòu)”的影響。[48]See also Eidenmüller (note 4 supra); Eidenmüller (note 40 supra); Eidenmüller, Robots' Legal Personality, Oxford Business Law Blog 8 March 2017, https://www.law.ox.ac.uk/business-law-%20blog/blog/2017/03/robots'-legal-personality (last visited on 9 March 2017).例如,如果一個社會的規(guī)范結(jié)構(gòu)是功利主義的(utilitarian),這一結(jié)構(gòu)將如何影響對上述問題的回應呢?[49]未作批判的功利主義面向被采納的例子,參見Schirmer, Rechtsfhige Roboter?, Juristenzeitung (JZ) 2016, pp. 660, 663 et seq. (在符合特定目的的情況下,機器人在一定范圍內(nèi)具有權(quán)利能力。也即在以下兩種情況下總是有必要賦予其人格:或者是在將其視為獨立主體的情況下為了給予其必要的保護;或者借此能夠給法律交往帶來額外的價值)。 然而,功利主義當然屬于一種并不光彩的法律哲學。See, for example, Eidenmüller, Effizienz als Rechtsprinzip: Mglichkeiten und Grenzen derkonomischen Analyse des Rechts. Tübingen: Mohr Siebeck, 4th ed. 2015, pp. 187 et seq.
如前文提到的那樣,因為機器學習,生產(chǎn)商無法(全面)預見智能汽車的行為。所以,我們開始思考可能會在某一時刻,被迫為汽車生產(chǎn)商尋找借口并要求汽車本身來承擔責任。從概念上來說,這暗示了我們需要承認汽車有法律能力(legal capacity)。如果汽車能夠承擔責任,我們也許會得出這一結(jié)論:汽車也有權(quán)取得財產(chǎn)、訂立合同等。確實,在實用主義的背景下,似乎有大量的觀點都支持朝這個方向發(fā)展。
其一,智能汽車看上去(在功能上)能夠有目的地從事一些活動。它們展現(xiàn)了所謂“道德的”或“法律的”行為能力,比如,在某些類似的情境中,智能汽車可以像自然人一樣從事某些活動。[50]Kaplan (note 12 supra), p. 87.其二,我們像對待自然人一樣對待擬人化的機器人??傮w來看,難道我們不應該賦予它們權(quán)利,發(fā)出反對人類虐待的信號嗎?[51]See Darling (note 29 supra), pp. 226-229.用這種方式保護機器人將會對人類的互動產(chǎn)生有益的反饋效應。其三,我們賦予公司以法律人格。法律學者們就公司人格是基于虛構(gòu)(如馮·薩維尼主張[52]See von Savigny, System des heutigen Rmischen Rechts, Zweyter Band (Berlin: Veit und Comp., 1840), p. 236 ["Die Rechtsfhigkeit wurde oben dargestellt als zusammenfallend mit dem Begriff des einzelnen Menschen (§ 60). Wir betrachten sie jetzt als ausgedehnt auf künstliche, durch blo?e Fiction angenommene Subjecte. Ein solches Subject nennen wir eine juristische Person ..."].)還是公司的某種“實體”(real),抑或有什么東西可以稱之為“真實的團體人”(real group-person)(如馮·基爾克主張[53]See von Gierke, Rechtsgeschichte der deutschen Genossenschaft. Berlin: Weidmann, 1868, p. 1 ("Wie sich der Fortschritt der Weltgeschichte unwandelbar vollzieht, so erhebt sich in ununterbrochen aufsteigender Wlbung der erhabene Bau jener organischen Verbnde, welche in immer gr?eren und umfassenderen Kreisen den Zusammenhang alles menschlichen Seins, die Einheit in seiner bunten Mannichfaltigkeit, zuru?eren Erscheinung und Wirksamkeit bringen."))存在長期的爭議。智能汽車(機器人)似乎比公司法人更為“實在”。在此,我應該指出,“人格”(persona)這個拉丁詞的原始意思就是面具或者角色。羅馬法承認了各種作為非自然人卻享有權(quán)利并承擔義務的主體,比如自治城市(municipia)或者工會(collegia)。[54]See, for example, Thomas, Textbook of Roman Law. Amsterdam: North-Holland, 1976, pp. 387-388; du Plessis, Borkowski's Textbook on Roman Law. Oxford: Oxford University Press, 4th ed. 2010, pp. 85-87.
假如我們將智能汽車(機器)當作人類來對待并賦予它們法律人格,我們可以將汽車的所有權(quán)與責任保險捆綁在一起。這種安排將允許我們針對汽車事故考慮其他有創(chuàng)意的制裁措施,如取消汽車的法律能力,將汽車扣押一段時間(像瑞士Art Installation案一樣)或者直接將汽車銷毀。
誠然,對于考慮賦予智能汽車(機器)法律人格,我們大多數(shù)人會感覺非常不安。正如我引入本文論點時所表明的那樣,這些不安停留在認識論[55]有關人工智能引起的認識論的問題的概述,參見Crane, The Mechanical Mind: A Philosophical Introduction to Minds, Machines and Mental Representation. London and New York: Routledge, 3rd ed. 2016, pp. 77-90; Kaplan (note 17 supra), pp. 67 et seq.和本體論的層面上??梢哉f,因為只有人類可以理解權(quán)利與責任的意思,所以法律能力或者人格是與人類相關聯(lián)的。思考涉及對生活的積極投入,融入文化、特定情形的“專有技術”以及永遠不會被規(guī)則架構(gòu)的常識。[56]This point was succinctly made by Dreyfus, What Computers Still Can't Do: A Critique of Artificial Reason. Cambridge, MA: MIT Press, 1992.思考遠非形式上的符號操作(句法),而是涉及對這些符號的意思(語義學)的感知,但機器人卻沒有這種感知能力。[57]Searle, Minds, Brains, and Programs, Behavioral and Brain Sciences 3 (1980), pp. 417-457.我們可以通過編程使機器人符合(conform)規(guī)則,但它們并不能遵守(follow)規(guī)則。[58]正如應該從文中清除那樣,這一評估是基于比縮減的路徑(the reductionist approach)更豐富的遵守規(guī)則的觀念(a conception of rule-following)做成的。參見Kripke, Wittgenstein on Rules and Private Language. Cambridge, MA: Harvard University Press, 1982(. Kripke提出一個“懷疑的方案”。該方案采取了一個遵守規(guī)則的社會標準:一個個體只要其行為與其所屬的群體中其他成員的行為一致就是遵守了規(guī)則。)對規(guī)則的遵守預設了對規(guī)則的意思的理解,然而,機器人并沒有這種理解能力,它們在解釋學(hermeneutics)這個學科并不活躍——而且,它們永遠不會。
我將要提出的第二個論點——反對把機器人當作人類——這類情形的論據(jù)存在于本體論層面。大體上,某一特定社會的法律以及賦予該特定社會成員的權(quán)利與義務是“人類境況”(human condition)的表達。法律反映了我們所認為的人類有序交往的前提條件,但同時也反映了我們認為處于人性核心的東西,以及處于核心的人何以為人的意義。我們要從整體上想想基本人權(quán),特別是言論自由,但也要想想諸如墮胎或者同性婚姻這類頗有爭議的問題。如果我們將法律人格賦予機器(即便這些機器都是智能的,甚至比人類還要聰明),讓它們有權(quán)取得財產(chǎn)、訂立合同,這簡直會使這個世界非人化(dehumanizing)。因此,將機器人當作人類一樣對待將會使人類非人化,所以我們應當避免持有這種態(tài)度。[59]關于“人類的狀況”(human condition)被“大數(shù)據(jù)”的威脅,大體上可參見White, We, Robots: Staying Human in the Age of Big Data. Brooklyn, NY and London: Melville House, 2015.
公司的人格——弱化將機器人當作人類對待的情形——是一個好的對立觀點嗎?本文并不這樣認為。公司與機器人的重大區(qū)別在于,公司總是“通過”人類來運營。由人來組成董事會,且董事會的行為被歸結(jié)為公司的行為。同樣,在公司里,人工智能也變得越來越重要。[60]See Fenwick/Kaal/Vermeulen, The "Unmediated" and "Tech-Driven" Corporate Governance of Today's Winning Companies, https:// papers.ssrn.com/sol3/papers.cfm?abstract_id=2922176 (last visited on 26 March 2017).與此同時,人類也會作出最終決定——至少在“奇點”(singularity)(超人智能的水平)到來之前是這樣的。
最后,人工智能提出了具有重大潛在社會影響且又復雜的監(jiān)管問題。通過上述討論,我們對此應該有所了解了。如前所述,法律須規(guī)定人工智能可以被應用的形式,以及在特定情境下使用(某種)人工智能可能要承擔的責任。只要想想比人類聰明的“醫(yī)療專家”就可以明白這一點。法律須界定機器人與(或)它們的所有者的權(quán)利與責任。由于越來越依賴人工智能,公司管理將會發(fā)生根本變化。
然而,更重要的是,使用人工智能帶來的問題必須予以重視。人工智能的使用無疑會是權(quán)力的重要來源。強勢的當事人為了個人利益可能借助智能技術對交易施加壓力,處于弱勢地位的當事人可能會蒙受損失。某些智能技術會是公共商品(public goods)嗎?它們應當以低成本為公眾所用嗎?
這些及其他問題都引發(fā)了深層次的哲學問題,而機器人法規(guī)將會被我所稱的社會的“深層次規(guī)范結(jié)構(gòu)”所影響。一個社會是基于功利主義的“良善”(the good)概念,還是基于人道主義或康德式的此一恰恰相反的觀點(即并非每一個有效用的或使財富最大化都必然是好政策),這一點是非常重要的。顯而易見的是,功利主義的“良善”概念傾向于將社會推進到機器人依據(jù)法律最終扮演重要角色的方向。這就是機器人法律會形成規(guī)制多樣與規(guī)制競爭特征的其中一個原因:[61]關于不同法律領域中的規(guī)制競爭,比如可參見Eidenmüller, The Transnational Law Market, Regulatory Competition, and Transnational Corporations, Indiana Journal of Global Legal Studies 18 (2011), pp. 707 et seq.由于存在于不同社會的“深層次規(guī)范結(jié)構(gòu)”的重大差異,各國就共同政策(common policies)很難達成一致意見。此外,各國向人工智能產(chǎn)業(yè)吸引投資的動機也激起了規(guī)制競爭。“功能主義的國家”可能會制定更多“機器人友好型”(robot friendly)的法律,并迫使其他法域如法炮制。
最后,如上所述,人工智能也將從根本上改變立法與法律職業(yè)。這提出了一個有趣的問題——在將來某個時刻,(以人工智能為基礎的)智能立法是否會輔助我們規(guī)制人工智能產(chǎn)品與服務?智能技術無疑會在技術層面上為增強立法的效率提供重大幫助。另一個完全不同的問題是,這些技術是否能幫助我們解決需要作出復雜價值判斷的那些煩瑣的監(jiān)管問題?在這一點上,我深感懷疑。再者,機器既不能思考,也不能解決深奧的哲學問題。沒有人比歌德更清楚明白地表述過這一點:“只有人類能夠觸及那些不可思議的事物:他們辨別著、選擇著、判斷著 ”[62]Goethe, Das Gttliche, 1783, Verse 37-40.感謝南京師范大學法學院馬丁副教授提供的德語翻譯。
順便說一下,科學研究與寫作現(xiàn)今也可以得到人工智能的輔助,已經(jīng)有軟件可以寫作學術論文。[63]See http://connectedresearchers.com/online-tools-for-researchers/ (last visited on 26 March 2017).遺憾的是,我沒有找到可以幫助我準備這篇文章的軟件。本文飽含了太多的人類的因素——因此這也是其缺點。
[學科編輯:李 飛 責任編輯:王 艷]
In this article, I attempt to answer fundamental questions raised by the rise of robots and the emergence of "robot law". The main theses developed in this article are the following: (i) robot regulation must be robot-and context-specific. This requires a profound understanding of the micro-and macro-effects of "robot behavior" in specific areas. (ii) (Refined) existing legal categories are capable of being sensibly applied to and regulating robots. (iii) Robot law is shaped by the "deep normative structure" of a society. (iv) If that structure is utilitarian, smart robots should, in the not too distant future, be treated like humans. That means that they should be accorded legal personality, have the power to acquire and hold property and to conclude contracts. (v) The case against treating robots like humans rests on epistemological and ontological arguments. These relate to whether machines can think (they cannot) and what it means to be human. I develop these theses primarily in the context of self-driving cars-robots on the road with a huge potential to revolutionize our daily lives and commerce.
robots; robot law; artificial intelligence; self-driving cars; accident liability; fundamental legal concepts
* 本文是霍斯特·艾丹米勒(Horst Eidenmüller)教授獲聘牛津大學講席教授(Freshfields Professor of Commercial Law)后在2016年6月9日舉行的就職演講基礎上完成的論文。該文保留了演講的形式,經(jīng)作者授權(quán),以中文形式全球首發(fā)。
** 霍斯特·艾丹米勒,牛津大學法律系教授,牛津大學圣休學院(St. Hugh's College)教授級研究員。李飛,南京師范大學法學院副教授,法學博士;敦小匣,外國語言學及應用語言學碩士。