摘 " "要:人工智能可否享有法律主體地位是解決人工智能侵權(quán)責任歸責主體認定這一現(xiàn)實問題的根源問題。從法哲學(xué)角度切入,創(chuàng)造性建構(gòu)法律主體的階層式標準體系及其應(yīng)然條件,在此基礎(chǔ)上提出賦予法律主體地位的階層式判斷體系。從抽象到具體,運用該體系作為判斷標準,就自動駕駛?cè)斯ぶ悄芮謾?quán)責任歸責主體問題展開研究。弱人工智能不能成為法律主體,提出建立在生產(chǎn)方強制保險機制上的法律地位代表說。強人工智能根據(jù)自我意識的根源不同分為“機器倫理”式和“人類情感”式兩類——前者不能成為法律主體,但人類設(shè)計的“機器倫理”將有效減少致?lián)p事件發(fā)生的概率,法律地位代表說依然適用;后者不應(yīng)成為法律主體,否則將不滿足價值判斷,甚至是無意義的討論。從理論到實踐,在人工智能不作為法律主體的前提下,基于我國現(xiàn)行法與機動車責任保險機制,結(jié)合域外立法經(jīng)驗與案例,明確自動駕駛?cè)斯ぶ悄芮謾?quán)責任歸責主體,進而完善具有中國特色的自動駕駛領(lǐng)域人工智能侵權(quán)責任歸責方案。
關(guān)鍵詞:人工智能侵權(quán);自動駕駛;責任主體;階層式體系;機器倫理
中圖分類號:DF523.1 文章標志碼:A 文章編號:1006-6152(2025)01-0107-11
DOI:10.16388/j.cnki.cn42-1843/c.2025.01.010
一、問題的提出
在第四次工業(yè)革命的推動下,一方面,人工智能在很多領(lǐng)域幫助、超越人類;另一方面,人工智能對人類的侵權(quán)糾紛時有發(fā)生,例如,2016年,國內(nèi)首起特斯拉自動駕駛車禍致死案引發(fā)大量關(guān)注[1],經(jīng)長達兩年的檢測,特斯拉承認追尾時,車輛處于自動駕駛模式,然而該案件的結(jié)果目前還未公布;2022年,俄羅斯7歲男孩在莫斯科國際象棋公開賽上因“搶跑”被人工智能對手夾傷手指。
由此,實踐中,人工智能侵權(quán)責任歸責的主體認定問題需要明確。若想明確這一問題,首先要明確人工智能的法律地位,人工智能能否作為法律主體,決定它是否能獨立承擔法律責任。作為法律概念體系中最基本的概念[2],國內(nèi)學(xué)界傳統(tǒng)觀點認為,法律主體是指活躍在法律之中,享有權(quán)利、負有義務(wù)和承擔責任的人。此處之“人”主要是指自然人,在特定情況下,可以將法人等“人合組織”類推為法律主體[3]。本文討論的法律主體是建立在單純權(quán)利義務(wù)資格說上的整體式而非程度式概念[4]。
實質(zhì)上,探討人工智能是否作為法律主體,成為面對科技發(fā)展的時代需求,更是回答一切與人工智能相關(guān)法律問題的基礎(chǔ)。這一問題的結(jié)論代表傳統(tǒng)法律制度在新一代人工智能技術(shù)發(fā)展背景下作出的社會治理模式的選擇[5],國內(nèi)、國外的法律法規(guī)都在大力推動上述問題的研究也印證這個問題對于當今世界的重要意義。例如,2017年,國務(wù)院頒發(fā)《新一代人工智能發(fā)展規(guī)劃》要求“明確人工智能法律主體以及相關(guān)權(quán)利、義務(wù)和責任等”;2020年7月,歐洲議會《人工智能與侵權(quán)責任》研究報告稱:“不能完全否定賦予人工智能法律人格的可能性,但是授予法律人格也不是解決挑戰(zhàn)的唯一辦法,能否授權(quán)法律人格以及如何授予法律人格應(yīng)當具備一套合理的條件?!?/p>
目前,學(xué)界對于這一問題的討論可謂眾說紛紜。已經(jīng)有不少學(xué)者支持承認人工智能的法律主體地位,并提出了不同的論證路徑,包括電子人格說[6]、有限人格說[7]、人格擬制說[8]等。當然,否認人工智能法律主體地位的學(xué)者也不占少數(shù),他們提出工具說[9]、道德能力缺乏說[10]、軟件代理說[11]等學(xué)說,以證明人工智能的客體地位。
由于人工智能種類繁多,發(fā)展程度不一,本文擬選擇人工智能的主要應(yīng)用領(lǐng)域之一——具有特殊性的自動駕駛領(lǐng)域進行研究。近年來,自動駕駛汽車侵權(quán)事件時有發(fā)生,理論與實踐中均存在關(guān)于侵權(quán)責任歸責主體的爭議[12]。甚至在實踐中,已經(jīng)有國家運用“人格擬制說”賦予人工智能法律主體地位,以解決自動駕駛領(lǐng)域人工智能致?lián)p的侵權(quán)責任分配問題。例如,美國國家公路交通安全管理局在2016年2月4日給谷歌公司的回函中表示,根據(jù)美國聯(lián)邦法律,該公司自動駕駛系統(tǒng)可視為“駕駛員”。
基于這一浮出水面卻懸而未決的問題,本文從法律主體這一根源問題切入討論,在法哲學(xué)層面構(gòu)建法律主體的判斷標準,進一步聚焦自動駕駛領(lǐng)域的人工智能,應(yīng)用本文提出的法律主體判斷標準判斷其法律地位,并相應(yīng)地從理論與實踐兩方面提出解決侵權(quán)責任歸責主體認定問題的路徑。
二、法律主體判斷標準的法哲學(xué)構(gòu)建
法律主體,單純從文字層面理解,即法律意義上的主體,“法律”是修飾語,“主體”是核心詞。既然從法哲學(xué)視角討論法律主體這一概念,有必要追本溯源,即首先應(yīng)該明確“主體”的外延與內(nèi)涵。
(一)哲學(xué)主體的概念內(nèi)涵
“主體”是個哲學(xué)概念而非法學(xué)概念[13],其內(nèi)涵最初被徹底否定上帝主義的哲學(xué)觀念——物質(zhì)主義確定下來[14]。物質(zhì)主義哲學(xué)論證的出發(fā)點是人的經(jīng)驗,因此,人開始成為認識的主體。換言之,在哲學(xué)上,主體的外延是人,而非人以外的神或自然。這彰顯著人的覺醒與“以人為本”的原則,即人擁有至高無上的地位與尊嚴。
作為一個與“客體”相對應(yīng)的概念,“主體”概念的內(nèi)涵,是為了描述“誰”在認識、思考與行動。因此,“主體”的獨特性體現(xiàn)在他是具有獨立性與主動性的人[15]。獨立性是相對客體而言的,即不依賴其他主體以外的物質(zhì)而存在。主動性則建立在獨立性的基礎(chǔ)上,指主體特有的自由意志——對內(nèi)能認識并控制欲望、對外能按自己的意識對外界進行認知、行為并自我負責。由哲學(xué)上“主體”概念的外延與內(nèi)涵可知,所有的自然人,都有成為主體的潛能。
從哲學(xué)的主體到法律主體,即法律意義上的主體,是哲學(xué)的主體概念在法的領(lǐng)域之具體運用。哲學(xué)上“主體”的外延是所有的自然人,那么自然人是否是當然的法律主體呢?從人類歷史的發(fā)展角度看,答案是否定的。歷史上,法律主體的概念經(jīng)歷了從“人可非人”到“非人可人”的過程[15]。由此可知,法律主體是規(guī)范層面而非事實層面的概念,是法律對哲學(xué)的“主體”概念的“再建構(gòu)”。那么,建構(gòu)法律主體的標準是什么呢?
(二)法律主體判斷標準的法哲學(xué)構(gòu)建
1. 法律主體的階層式標準體系
若想研究法律主體建構(gòu)之標準,首先需要明確人類制定法律最初的目的。法律是一種人造的人類行為秩序,目的是通過權(quán)利、義務(wù)與責任的規(guī)范來調(diào)整人類行為,提供可預(yù)測性。因此,法律主體,即是具有承載法律賦予權(quán)利、施加義務(wù)與責任資格的實體。由于法律主體概念內(nèi)含的法定性,從法哲學(xué)角度看,自然人也不是當然的法律主體,而是法規(guī)范建構(gòu)的產(chǎn)物。
然而,這并不意味著自然人不應(yīng)該成為法律主體,恰恰相反,整個法律體系的建構(gòu)都是為了人本身服務(wù)的,法律主體概念也不例外。上述法律的制定目的要求法律主體必然具備自由意志,因為自由意志是指導(dǎo)行為可被法律,即外在規(guī)范調(diào)控的關(guān)鍵,而自由意志正是哲學(xué)上的主體獨立性之體現(xiàn)。
由此可知,法哲學(xué)上法律主體概念建構(gòu)的基本標準有二:其一,事實上,具有自由意志——能有選擇地用意志控制、反思、調(diào)整行為;其二,規(guī)范上,被法律認可,即擁有法律賦予的權(quán)利義務(wù)資格。事實標準是規(guī)范標準的前提,但滿足事實標準的實體不一定符合規(guī)范標準[16]——這便解釋了歷史上自然人不是當然的法律主體之原因,即不滿足當時的規(guī)范標準。
如果說,事實標準來自于“以人為本”的思想——哲學(xué)上主體的內(nèi)涵與法律的目的之結(jié)合,那么,規(guī)范標準則主要取決于某一具體時代立法者的考量——被許多法律之外的因素影響。
法律主體規(guī)范條件的建構(gòu)方法源自古羅馬法的人格擬制[17]。通過人格擬制達成的規(guī)范條件,給予法律主體概念可控性與發(fā)展性,使法律在人類的控制下適應(yīng)人類社會的發(fā)展。
值得注意的是,雖然法律主體是經(jīng)由擬制技術(shù)而被建構(gòu)的概念,但這并不意味著任何“非人”都可以被擬制為法律主體。從哲學(xué)上主體之源頭到法律主體之建構(gòu)的分析可知,“主體性”的滿足應(yīng)該優(yōu)先于法律規(guī)定,即法律主體的事實標準的達成是規(guī)范標準考量的前提——法律擬制需要滿足哲學(xué)上主體的標準與人類建構(gòu)法律體系的目的。
由此,法律主體的事實標準與規(guī)范標準之間形成邏輯學(xué)上的位階關(guān)系,即事實標準作為規(guī)范標準的前提,獨立于規(guī)范標準存在;而規(guī)范標準對事實標準具有依附性。二者形成建構(gòu)法律主體的階層式標準體系。
2. 階層式標準體系對應(yīng)的法律主體應(yīng)然條件
在討論法律主體的階層式建構(gòu)標準體系之基礎(chǔ)上,我們已經(jīng)明確,事實標準意味著法律主體的應(yīng)然條件是需要具備自由意志。在滿足事實標準的基礎(chǔ)上,需要討論立足于現(xiàn)實需求的規(guī)范標準之應(yīng)然條件。
縱觀法律思想史,關(guān)于規(guī)范意義上法律主體的應(yīng)然條件,可以大致歸納為理性說、感性說、德性說與神性說[18]。筆者認為,以美德、神性作為法律主體條件的德性說和神性說,是以中國古代的宗法倫理社會和西方中世紀的宗教社會作為必要土壤的學(xué)說,與當今社會的發(fā)展情況已經(jīng)不相適應(yīng);單一的理性說或感性說均不足以成為法律主體的唯一條件。因此,應(yīng)綜合理性說與感性說,形成規(guī)范標準中法律主體的應(yīng)然條件。
根據(jù)理性說,理性主體是法律主體的規(guī)范應(yīng)然條件之一,這已經(jīng)是現(xiàn)代法學(xué)界的通識[19]。那么,這里的“理性”是什么含義?理性的概念起源于古希臘的哲學(xué)思想。啟蒙運動時期,康德將理性分為“理論理性”與“實踐理性”兩個層面[20]。前者是理性存在者認識自然事物或社會存在的先天條件,后者是理性存在者在建立社會秩序時所要服從的法則[21]。法律秩序作為社會秩序的一種,依賴人的實踐理性即按照法律規(guī)范來安排自己行為的能力,才得以建立。因此,法律主體規(guī)范標準的應(yīng)然條件之一是具備實踐理性,能有意識地服從規(guī)則,并在規(guī)則的范圍內(nèi),由內(nèi)而外地自我控制——這是本文所言“理性主體”。
根據(jù)感性說,規(guī)范意義上的法律主體也應(yīng)該是感性主體,或稱欲望主體。要理解這一點,首先要明確欲望在法律上的體現(xiàn)。欲望,即對快樂的追求與對痛苦的躲避,以權(quán)利的形式進入法律[26]。由法律肯定的欲望指導(dǎo)行動,便是在履行權(quán)利;克制自己被法律否定的欲望,即是在履行義務(wù);如果放縱了那部分被法律否定的欲望,就是對義務(wù)的違反,需要承擔責任。正如邊沁所言,“法律正是通過對人的快樂和痛苦,即法律上利益的分配和操控來實現(xiàn)秩序”[22]。作為法律主體,只有具有欲望,才能在意志層面實在地被法律規(guī)范規(guī)制。因此,法律主體規(guī)范標準的應(yīng)然條件之二是具有情感與欲望,在自然條件下追求快樂、躲避痛苦,能意識到自己的利益被法律分配——這是本文所言“感性主體”。
綜上,法律主體的應(yīng)然條件由建構(gòu)法律主體概念的階層式標準體系推導(dǎo)出來:階層一,事實標準意味著法律主體應(yīng)該具有自由意志;在階層一的滿足前提下,考慮階層二,規(guī)范標準意味著法律主體應(yīng)該同時是理性主體和感性主體,以確保法律主體既能認識法律規(guī)則,又能在意志上接受法律規(guī)則的調(diào)控。
3. 賦予法律主體地位的階層式判斷體系
階層式標準體系及其應(yīng)然條件只是賦予法律主體地位判斷的第一步。法律主體的構(gòu)建初衷,是在法律上給予主體資格擁有者以最高的尊嚴,是哲學(xué)上“人的尊嚴至高無上”理念在法律上的具體體現(xiàn)。如今,世界上,法律主體的規(guī)范標準已經(jīng)普遍承認了所有自然人,即自然人已經(jīng)成為毋庸置疑的法律主體。那么,法律賦予其他權(quán)利義務(wù)與責任的承載者以法律主體的資格,意味著其在法律上享有同自然人一樣的尊嚴與平等的地位,并按照法律的規(guī)定享有權(quán)利能力、行為能力與責任能力。
因此,賦予非自然人以法律主體地位,在其滿足階層式標準體系,即通過條件判斷的基礎(chǔ)上,還應(yīng)符合“以人為本”的哲學(xué)主體概念蘊含之原則與法律為人類服務(wù)的規(guī)范目的——以此價值判斷作為條件判斷基礎(chǔ)上的屏障,以從法律角度保護人類的安全、維護人類的尊嚴。如此,形成賦予法律主體地位的階層式判斷體系,階層一是條件判斷,即根據(jù)二、(二)、1、2部分形成的階層式標準體系進行判斷;階層二則是價值判斷,判斷標準即為是否符合人類整體的價值需求——是否利于保障人類的安全與尊嚴。
本文創(chuàng)造性地構(gòu)建出賦予法律地位的階層式判斷體系,具有可推廣性,不僅適用于人工智能的全部領(lǐng)域,而且適用于所有新興產(chǎn)品法律地位的判斷,以兼顧新興行業(yè)的發(fā)展與人類的保護,使新興產(chǎn)品在法律的規(guī)制下行穩(wěn)致遠,為人所用。
三、階層式判斷體系在自動駕駛領(lǐng)域的應(yīng)用
(一)自動駕駛領(lǐng)域人工智能的特殊性、發(fā)展現(xiàn)狀與前景
從抽象到具體,將上文構(gòu)建的賦予法律主體地位的階層式判斷體系運用到人工智能的具體應(yīng)用領(lǐng)域——自動駕駛領(lǐng)域。自動駕駛是人工智能的主要應(yīng)用領(lǐng)域之一,不同于其他人工智能的應(yīng)用領(lǐng)域,自動駕駛汽車具有特殊性——在合理運用過程中天然具有社會允許的對不特定人的侵權(quán)風(fēng)險。因此,判斷自動駕駛領(lǐng)域人工智能的法律地位,進一步確定侵權(quán)責任歸責主體具有必要性和實效性。
自動駕駛汽車是能夠在沒有人類駕駛者干預(yù)的情況下自行監(jiān)測駕駛環(huán)境,承擔駕駛?cè)蝿?wù)的人工智能。當下,結(jié)合國際汽車工程師學(xué)會自動駕駛六級分類體系可知,以L3級別為代表的有條件的自動駕駛汽車具有一定的自主性和學(xué)習(xí)能力,但不具備自我意識。值得注意的是,這里的自主性僅僅體現(xiàn)在技術(shù)層面,而不體現(xiàn)在目的上[23]。按照美國哲學(xué)家約翰·塞爾最初關(guān)于弱人工智能與強人工智能的哲學(xué)定義[24],現(xiàn)階段的自動駕駛汽車仍屬于弱人工智能的范疇。
未來,自動駕駛汽車將可能達到最高級別L5。但這一升級始終是技術(shù)層面自主性和學(xué)習(xí)能力的提升,并不意味著其一定成為強人工智能。至于未來自動駕駛領(lǐng)域是否出現(xiàn)強人工智能,取決于人類對于自動駕駛功能的需求與發(fā)展方向,需要根據(jù)其是否具有自我意識與自由意志進行判斷。
結(jié)合自動駕駛領(lǐng)域弱、強人工智能對應(yīng)的不同特征,本文將應(yīng)用二、(二)、3部分提出的賦予法律主體地位的階層式判斷體系,先條件層面后價值層面進行討論,在此基礎(chǔ)上,進一步解決自動駕駛致?lián)p的侵權(quán)責任分配問題。
(二)弱人工智能
1. 否定法律主體地位的原因
判斷能否成為法律主體,首先要進行條件判斷,考察其是否滿足由事實標準推導(dǎo)出的應(yīng)然條件,即是否具備自由意志——能有選擇地用意志控制、反思、調(diào)整行為。弱人工智能階段的自動駕駛汽車不具有自我意識和自由意志,也就不能有意識地作出選擇,更談不上意志與行為之間的交互關(guān)系。因此,按照本文中法律主體的階層式標準體系,不滿足事實標準的弱人工智能,不能進行規(guī)范標準的考察,不能成為法律主體。
2. 對賦予其法律主體地位的批駁
肯定說的觀點可能會給上述否定說帶來兩點質(zhì)疑。質(zhì)疑一,自動駕駛可以擬制為“電子人”法律主體,并對致?lián)p事故自負責任,利于在相關(guān)自然人均無過錯之時保障公平。
對此,一方面被擬制的“電子人”不具有自我意識,更不可能具有實踐理性。即使它擁有財產(chǎn),也不具備意志上受法律調(diào)整、規(guī)制的可能,這樣的擬制與財產(chǎn)分配對于自動駕駛汽車本身毫無意義。另一方面,如此擬制并將資產(chǎn)特定化,實質(zhì)上意味著本應(yīng)承擔責任的相關(guān)自然人只承擔有限責任,卻得以享有全部利益;同時,即使通過強制保險機制,仍存在無法充分救濟受害人的可能。可見,“電子人”擬制說或許在小范圍內(nèi)保障公平,但將導(dǎo)致大范圍內(nèi)分配正義的失衡,不值得提倡。
需要強調(diào)的是,自動駕駛領(lǐng)域的弱人工智能與法人具有不可類比性,因為法人的意志實質(zhì)是自然人組成團體的統(tǒng)一意志,他從事民事活動實施的民事行為也借助于自然人的行為。而弱人工智能不具備自我意識和自由意志,不滿足法律主體的事實標準。
質(zhì)疑二,自主學(xué)習(xí)能力使自動駕駛汽車具有一定程度的不可預(yù)測性與不可控制性,作為介入因素可能中斷因果關(guān)系,代替相關(guān)自然人成為事故發(fā)生的原因。如果不對弱人工智能的法律主體地位進行肯定,會導(dǎo)致歸責的錯誤。
對此,哈特和奧諾爾討論法律中的因果關(guān)系時,對于人的行為是否構(gòu)成介入原因這一問題所提出的主要判斷標準在于介入的行為是否體現(xiàn)了介入者的自由意志和自主選擇[25]。自動駕駛汽車的“后天”自主學(xué)習(xí)能力的確會帶來不可預(yù)測性,但因為他不具備自由意志和自主選擇,所以并不構(gòu)成中斷因果關(guān)系的介入因素。相反,這正是設(shè)計者運用算法進行設(shè)計的結(jié)果,即這種不可預(yù)測性所帶來的風(fēng)險的存在是設(shè)計者事前認識到并必須承擔的。因此,否認弱人工智能的法律主體地位,并不會導(dǎo)致歸責的錯誤。
3. 侵權(quán)責任歸責主體的理論認定
至于現(xiàn)階段面臨的自動駕駛汽車致?lián)p之侵權(quán)責任分配問題,可以通過確立法律主體地位以外的方式解決。本文構(gòu)想的解決方案,可以概括為在生產(chǎn)方強制保險機制上建立的法律地位代表說,即在法律上賦予生產(chǎn)者在產(chǎn)品生產(chǎn)開始之時便必須履行的強制保險義務(wù),將弱人工智能的所有者和使用者規(guī)定為其法律地位代表。
在弱人工智能致?lián)p的民事案件中,由生產(chǎn)方的保險作為優(yōu)先賠償金,不足的部分由所有法律地位代表,即民事主體承擔替代責任。對于民事主體而言,所有或使用弱人工智能都是自由意識選擇的結(jié)果,應(yīng)該負有避免弱人工智能致他人損害的注意義務(wù)。即便不存在我國《民法典》規(guī)定的過錯,在違反該注意義務(wù)造成損害結(jié)果的情況下,自然人也應(yīng)當承擔相應(yīng)的責任。
這一解決方案不等同于適用產(chǎn)品責任原則。鑒于產(chǎn)品責任原則存在的不足——容易挫傷生產(chǎn)者的積極性,加之我國目前欠缺相關(guān)行業(yè)標準,很難認定人工智能的缺陷[26],本文提出的法律地位代表說擴大責任人的范圍,在以人工智能不存在缺陷的一般情況下,采取生產(chǎn)方保險優(yōu)先,法律地位代表人分擔賠償?shù)脑瓌t,以適當減輕生產(chǎn)者的負擔,同時保證受害人得到法律規(guī)定應(yīng)得的賠償。當然,如果確有證據(jù)證明人工智能存在生產(chǎn)方造成的產(chǎn)品缺陷,那么該致?lián)p之責任由生產(chǎn)方一方全部承擔。
推而廣之,上述方案不僅僅適用于自動駕駛領(lǐng)域的弱人工智能致?lián)p之侵權(quán)責任分配問題。在人工智能尚不具備法律主體的階層式標準體系所對應(yīng)條件時,拋開公法上的責任不談,涉及人工智能的侵權(quán)責任分配問題,均可以適用該方案解決。當然,強制保險所花費的金額需要考慮人工智能的行業(yè)發(fā)展需求,不宜過高。
4. 意義
否定弱人工智能自動駕駛汽車的法律主體地位,是符合法律主體的事實標準與科技發(fā)展現(xiàn)狀的選擇,既維護了自然人在法律上的尊嚴,又有利于自動駕駛技術(shù)在自然人負責的軌道內(nèi)逐步發(fā)展。
建立在強制保險機制上的法律地位代表說這一方案,既解決了弱人工智能致?lián)p的侵權(quán)責任分配問題,又尊重了由人類哲學(xué)之源推導(dǎo)出的法律主體之事實標準,實質(zhì)上是尊重了人在法律上的應(yīng)有的至高無上的尊嚴。
(三)強人工智能
如本文三、(一)部分所述,目前無法確定未來L5級別的自動駕駛汽車是否屬于強人工智能,因此,本部分假設(shè)可能出現(xiàn)強人工智能在自動駕駛領(lǐng)域的應(yīng)用,以完整討論人工智能的法律主體地位問題。
1. 否定法律主體地位的原因
強人工智能指被賦予適當程序以模擬人類大腦的計算機,實際上具有理解與認知能力,亦即能夠自我辨認和控制[27]。強人工智能的定義意味著其具有自我意識,能進行自主學(xué)習(xí)與決策[28],具備自由意志,符合本文法律主體的事實標準之條件。
按照階層式標準體系,應(yīng)進一步討論強人工智能是否符合規(guī)范標準之條件,判斷如下:
其一,強人工智能是合格的理性主體,因為它能夠根據(jù)自主意識進行決策,必然需要服從某種規(guī)則,進一步在規(guī)則的范圍內(nèi),由內(nèi)而外地自我控制,通過自主學(xué)習(xí)認識法律或其他規(guī)則。
其二,強人工智能不一定是合格的感性主體,即不一定具有欲望,并回應(yīng)不同的外界情況而自發(fā)的產(chǎn)生快樂與痛苦等情感。因為現(xiàn)有關(guān)于強人工智能的定義,主要側(cè)重于自我意識指導(dǎo)自主學(xué)習(xí)與決策方面的構(gòu)想。至于由自我意識支配行為的原理,并不一定像人類一樣,來源于與生俱來的欲望或情感,而可以來源于一套人類創(chuàng)造并植入的“機器倫理”。因此,有必要分情況討論。
情況一,“機器倫理”式強人工智能,即自我意識的運作根源于不同于人類欲望的“機器倫理”。由于他不存在可以被法律進行分配的利益,即不滿足規(guī)范標準中的感性主體條件,不能成為法律主體。
情況二,“人類情感”式強人工智能,即自我意識的運作根源是與人類相同的欲望,能擁有自發(fā)的快樂與痛苦,具有能被法律調(diào)控的天然利益。由于其符合法律主體規(guī)范標準的條件之二,即是合格的感性主體。因此,其具備本文提出的法律主體的應(yīng)然條件,按照階層式判斷體系,能成為條件層面的法律主體。
在此基礎(chǔ)上,應(yīng)進一步進行價值判斷。從人類整體價值觀這一價值層面思考,情況二的強人工智能不應(yīng)該成為法律主體。無論科技如何發(fā)展、時代如何變化,法律主體概念的源頭——哲學(xué)上主體的概念都不應(yīng)該被遺忘,即本文二、(一)部分所言,主體在哲學(xué)上指的就是人本身,代表著人對人類這一整體的尊重與“人人平等”的價值追求。法律主體是在法律角度給予主體以資格,固然有便于規(guī)范實踐的功能,但法哲學(xué)上,法律主體概念首先表達的是由人創(chuàng)造的法律對人的服務(wù)與尊重。因此,維護人類整體的安全與尊嚴既是法律主體概念構(gòu)建的原因,也應(yīng)該作為價值判斷的最后一道屏障。
2. 對賦予其法律主體地位的批駁
上述“以人為本”的價值立場也許會被支持“去人類中心主義”的學(xué)者抨擊,并以此為由賦予強人工智能以法律主體地位。應(yīng)該明確的是,賦予法律主體的價值判斷是“以人為本”而非“人類中心主義”,二者存在本質(zhì)區(qū)別——“以人為本”強調(diào)以人類的安全與尊嚴作為發(fā)展之不可動搖的根本,在此基礎(chǔ)上,人類有義務(wù)處理人與“非人”的關(guān)系,即選擇與自然、萬物和諧共生;“人類中心主義”則認為人類為一切的中心,人類的利益高于自然、萬物,即人類的發(fā)展不需要考慮任何“非人”的因素,只需要考慮人類自身需求之滿足。因此,支持“去人類中心主義”的學(xué)者可能忽略了上述區(qū)別,沒有認識到“以人為本”對于法律主體地位的賦予乃至人類發(fā)展的重要意義。退一步講,即使拋開價值層面不談,對于賦予強人工智能以法律主體地位,依然應(yīng)該予以批駁。
事實上,如果對于“人類情感”式強人工智能的想象變?yōu)楝F(xiàn)實,那么是否賦予其法律主體地位的討論幾乎失去意義。因為那時,面對智能程度遠超人類的自動駕駛汽車,人類的法律將不再具備規(guī)制它的能力——人類的智力甚至無法揣測它的主觀意識。換言之,“人類情感”式強人工智能不可能成為人類法律中的法律主體。
綜上,“機器倫理”式強人工智能由于不符合規(guī)范標準中感性主體的條件,不能成為法律主體;“人類情感”式強人工智能符合法律主體的全部標準,能成為條件層面的法律主體,但從價值層面判斷,不應(yīng)該成為法律主體。即使不考慮價值判斷問題,“人類情感”式強人工智能也已經(jīng)超越了人類法律規(guī)制的范疇,不具備成為人類法律之法律主體的可能。
3. 侵權(quán)責任歸責主體的理論認定
“機器倫理”式強人工智能雖然不能成為法律主體,但這并不意味著其將不受人類的約束。恰恰相反,人類可以通過將對強人工智能的約束融入“機器倫理”的方式,來實現(xiàn)從意志的源頭上規(guī)制強人工智能的目的。例如采用阿西莫夫的“機器人三定律”[29]。如此,強人工智能通過意志對行為進行自我規(guī)制,滿足人類的需要。
此種情況是強人工智能發(fā)展的理想狀態(tài),因為強人工智能致?lián)p事件的概率會從根源上極大地減小,并隨著科技的進步越來越小。至于極少數(shù)致?lián)p事件的侵權(quán)責任分配問題,鑒于強人工智能依然是法律客體,可以繼續(xù)使用上文在生產(chǎn)方強制保險機制上建立的法律地位代表說解決。
“人類情感”式強人工智能事實上不可能成為人類法律的法律主體,對于這種情況下的強人工智能與人類的關(guān)系處理,無疑存在人類規(guī)制的困境。面對這種困境,從樂觀的角度考慮,人類必須給予強人工智能足夠的尊重,并與之“共同商討,分而治之”——人類的法律規(guī)制人的行為,強人工智能制定的法律規(guī)制強人工智能的行為,在人類與強人工智能發(fā)生沖突的情況下,需要類似如今國際法那樣由人類與強人工智能共同商定的法律進行規(guī)范。從悲觀的角度來看,或許強人工智能將在自己的法律體系中討論人類的法律主體地位問題。我們能做的,只有爭取全人類在強人工智能法律體系中的法律主體地位。
4. 意義
針對未來強人工智能的實現(xiàn),從法哲學(xué)的角度考量,應(yīng)盡量采取“機器倫理”式的路徑。它不能成為法律主體,使人在法律上的尊嚴得以穩(wěn)固。在應(yīng)用過程中,它既能更高效、智能地服務(wù)人類的需求,又能從源頭上減少致?lián)p事件的發(fā)生,實現(xiàn)科技發(fā)展與法哲學(xué)價值的統(tǒng)一。
畢竟,人類發(fā)展的前提應(yīng)該是安全——最重要的安全莫過于人類在地球上事實與規(guī)范兩階層的最高地位。人類創(chuàng)造一切的初衷都是為了人類整體更有尊嚴地安全生活,法律與人工智能同屬人類的創(chuàng)造物,都應(yīng)該始終為人類本身的目的服務(wù)。
四、自動駕駛領(lǐng)域人工智能侵權(quán)責任歸責
主體的實在法認定
(一)我國的立法現(xiàn)狀
基于本文前三部分的討論,自動駕駛領(lǐng)域人工智能始終應(yīng)被認定為法律客體,不可能獨立承擔侵權(quán)責任。在此前提下,需要在立法中構(gòu)建自動駕駛領(lǐng)域人工智能侵權(quán)的侵權(quán)責任歸責方案。
然而,對于自動駕駛領(lǐng)域人工智能的侵權(quán)事故責任認定,我國尚未作出法律規(guī)定,從相關(guān)的規(guī)范性文件看,依然主要沿用現(xiàn)有的交通法律規(guī)定來處理事故責任,且局限于測試與示范應(yīng)用范圍內(nèi)。例如,我國工信部、公安部、交通運輸部于2021年7月30日發(fā)布《智能網(wǎng)聯(lián)汽車道路測試與示范應(yīng)用管理規(guī)范(試行)》中,唯一涉及歸責原則的條款即第三十四條的規(guī)定,此規(guī)定中“當事人”的概念需要進一步解釋明確,尤其是對于L4—L5階段的不需人類駕駛員的自動駕駛?cè)斯ぶ悄芏浴?/p>
令人欣慰的是,自2022年2月15日起施行的《上海市智能網(wǎng)聯(lián)汽車測試與應(yīng)用管理辦法》中,涉及歸責原則的條款增多,主要有三條,分別是責任保險與風(fēng)險基金,即第四十條;責任認定與承擔,即第四十三條;產(chǎn)品責任,即第四十九條。
可見,我國對自動駕駛領(lǐng)域人工智能侵權(quán)責任歸責的規(guī)范還處于發(fā)展起步階段——自動駕駛?cè)斯ぶ悄芮謾?quán)責任歸責主體存在爭議,各種歸責方式的關(guān)系有待厘清以形成一套侵權(quán)責任歸責方案,相對應(yīng)的保險制度也尚未健全。因此,有必要借鑒域外立法經(jīng)驗,完善我國具有實踐性、特色性的侵權(quán)責任歸責方案。
(二)域外的立法經(jīng)驗與案例
相較于我國存在的不足之一,侵權(quán)責任歸責主體方面,美國立法確立了較為完備的侵權(quán)責任分配與承擔方案,以最大限度保障受害人的權(quán)利。美國眾議院于2017年7月27日通過《自動駕駛法案》,交通部先后配套發(fā)布四版自動駕駛汽車準則(AV1.0-AV4.0),以引導(dǎo)、保障自動駕駛領(lǐng)域人工智能的發(fā)展。具體到自動駕駛領(lǐng)域人工智能侵權(quán)的侵權(quán)責任歸責問題,美國聯(lián)邦把權(quán)力授予給州政府,要求州政府對事故責任分配制定規(guī)則,并由州政府規(guī)定具體由哪一方購買汽車保險。原則上,對于自動駕駛領(lǐng)域的人工智能而言,生產(chǎn)者就相當于操控者,他們對硬件和軟件的絕對控制致使他們負最高謹慎義務(wù),按照產(chǎn)品責任和嚴格責任原則承擔賠償責任[30]。對此,加利福尼亞州法律規(guī)定,生產(chǎn)者作為操作員購買500萬美元的保險責任。對于能證明制造商無過錯且存在第三方過錯時,各州法律都有執(zhí)行事故責任免責的相關(guān)規(guī)定,即在人工智能原本不存在瑕疵,因第三方更改造成侵權(quán)事故的情形下,生產(chǎn)者免于侵權(quán)責任的承擔[31]。
相較于我國存在的不足之二,各種歸責方式的關(guān)系方面,德國運用法解釋論的視角,延續(xù)既有的機動車交通事故侵權(quán)責任和產(chǎn)品責任歸責的傳統(tǒng)框架,即以車輛所有人的危險責任和生產(chǎn)者的產(chǎn)品責任為基礎(chǔ),以生產(chǎn)者過錯責任、使用人過錯推定責任為補充,輔以自動駕駛汽車的準入和駕駛?cè)说臋?quán)利義務(wù)以實現(xiàn)對受害人的多重保護[32]。德國于2017年5月頒布了首部針對人工智能汽車的法律《道路交通法(第八修正案)》,2021年7月27日頒布《自動駕駛法》,二者采取漸進式的“小型解決方案”[33],運用法教義學(xué)方法為無人駕駛技術(shù)的落地運營提供法律依據(jù)和監(jiān)管框架[34]。在德國的侵權(quán)責任歸責框架下,如果智能汽車具有產(chǎn)品缺陷,不符合《道路交通法》第1a條規(guī)定的制造標準,可根據(jù)德國《產(chǎn)品責任法》第1條的規(guī)定,由汽車生產(chǎn)者對產(chǎn)品缺陷造成的損害承擔無過錯責任[35]。而根據(jù)《道路交通法》第7條和第18條,智能汽車所有人和使用人依舊分別承擔危險責任和過錯推定責任。
美國與德國立法中,對于生產(chǎn)者責任在第三方過錯情況下的免除,以及危險責任與產(chǎn)品責任在生產(chǎn)者、所有者與使用者之間的分擔模式值得我國借鑒,以彌補我國在自動駕駛領(lǐng)域人工智能侵權(quán)責任歸責主體以及相應(yīng)的各種歸責方式關(guān)系不明確之不足。
相較于我國存在的不足之三,責任保險制度方面,英國于2018年7月19日通過了《自動與電動汽車法案》,構(gòu)建了“單一承包模型”,即要求自動駕駛領(lǐng)域人工智能的強制保險必須同時覆蓋所有權(quán)人和自動駕駛汽車,所有權(quán)人需要同時為本人和自動駕駛汽車購買強制責任保險產(chǎn)品。當自動駕駛汽車發(fā)生事故時,由保險公司對第三方受害者先行賠付,然后再根據(jù)產(chǎn)品責任法等現(xiàn)行法律規(guī)定向生產(chǎn)者追償[36]。換言之,基于自動駕駛領(lǐng)域人工智能的風(fēng)險原因、對象以及保險人責任基礎(chǔ)與形態(tài)的改變,《自動與電動汽車法案》一方面將自動駕駛領(lǐng)域人工智能的產(chǎn)品瑕疵風(fēng)險與產(chǎn)品責任納入強制保險中,作為所有權(quán)人即保險人承擔責任的基礎(chǔ);另一方面允許受害人非依產(chǎn)品責任而直接向所有權(quán)人即保險人請求賠償,從而簡化和降低了受害人的獲賠程序與獲賠成本,便于對受害人的救濟與保障。對于保險人與所有權(quán)人之間的責任劃分,《自動與電動汽車法案》第2條根據(jù)是否投保進行明確規(guī)定,即在人工智能自動駕駛期間發(fā)生侵權(quán)事故造成他人損失的,已投保的由保險人在賠償限額內(nèi)承擔責任;應(yīng)投保而因法定原因未投保的由所有權(quán)人承擔賠償責任。
英國立法中,對于強制保險的規(guī)定值得我國借鑒,以厘清我國立法上責任保險、產(chǎn)品責任等規(guī)定在侵權(quán)責任分配與承擔中的關(guān)系。
域外的立法較我國更為完備,但自動駕駛汽車侵權(quán)事故的判例也并不豐富。根據(jù)特斯拉官網(wǎng)的數(shù)據(jù),從2013年第一起特斯拉相關(guān)致死事故開始,截至2023年3月26日,被確認的因自動駕駛功能激活致死的人數(shù)僅有19人。盡管數(shù)字似乎可以接受,但當發(fā)生自動駕駛狀態(tài)下的汽車對人類造成嚴重侵權(quán)的案件時,哪怕只有一人死亡,都足以引起全人類的恐懼與質(zhì)疑。比較有代表性的是2018年在美國發(fā)生的全球首例自動駕駛汽車撞死行人案[37]。該案中,優(yōu)步自動駕駛系統(tǒng)把在人行橫道以外的行人識別成物體,車內(nèi)的安全駕駛?cè)藛T在觀看綜藝節(jié)目,車輛報警后未能及時接管,最終導(dǎo)致事故發(fā)生。美國檢方認定優(yōu)步公司對本次事故不負刑事責任,安全駕駛員被指控過失殺人。優(yōu)步公司與遇難女子家屬達成和解,故法院沒有對民事侵權(quán)責任的歸責問題作出判決。
可見,國外對自動駕駛領(lǐng)域人工智能侵權(quán)案件的審判仍處于起步階段,于我國而言,需要在立法中形成更加完善的侵權(quán)責任歸責方案以指導(dǎo)司法實踐。
(三)對我國自動駕駛領(lǐng)域人工智能侵權(quán)責任歸責主體認定的建議
基于中國的立法現(xiàn)狀與現(xiàn)行機動車責任保險制度,結(jié)合上文三、(二)、3部分構(gòu)想的生產(chǎn)方強制保險機制上建立的法律地位代表說,借鑒域外立法經(jīng)驗,本文嘗試解決我國立法上對于產(chǎn)品責任主體范圍爭議、商業(yè)化責任保險缺乏的問題,完善我國自動駕駛領(lǐng)域人工智能立法的侵權(quán)責任歸責方案。
中國現(xiàn)行機動車責任保險在實施模式上采取強制險(交強險)和自愿險(商業(yè)三者險)的組合結(jié)構(gòu),后者發(fā)揮補充作用,彌補前者責任限額之不足。至自動駕駛領(lǐng)域人工智能應(yīng)用階段,交強險發(fā)展為自動駕駛汽車生產(chǎn)強制保險,以生產(chǎn)方強制投保為原則,在《智能網(wǎng)聯(lián)汽車道路測試與示范應(yīng)用管理規(guī)范(試行)》規(guī)定的道路測試或示范應(yīng)用主體存在,且不是生產(chǎn)方的情況下,以二者之一即特殊所有者、使用者與生產(chǎn)方共同強制投保為例外;自愿險發(fā)展為自動駕駛汽車使用自愿保險,由普通所有者、使用者自愿投保,屬于商業(yè)保險,延續(xù)發(fā)揮彌補前者責任限額不足的作用。
在發(fā)生涉及自動駕駛汽車的交通事故時,仍應(yīng)按照現(xiàn)行《道路交通安全法》等法律法規(guī)認定事故責任。若認定自動駕駛模式下的自動駕駛汽車承擔責任,則原則上以自動駕駛汽車生產(chǎn)強制保險優(yōu)先向受害者賠付,在責任限額不足的情況下,以自動駕駛汽車使用自愿保險作為補充。此時,若普通所有者、使用者沒有投保,則由二者作為自動駕駛汽車的法律地位代表,承擔連帶的替代責任,進行補充賠償。例外情況有二:其一,若有證據(jù)證明是生產(chǎn)者之外的第三方過錯,則生產(chǎn)者以自動駕駛汽車生產(chǎn)強制保險優(yōu)先向受害者賠付后,有權(quán)向過錯方追償;其二,若有證據(jù)證明侵權(quán)損害結(jié)果由產(chǎn)品缺陷引起,則參與強制投保的道路測試或示范應(yīng)用主體、承擔補充賠償責任的普通所有者或使用者有權(quán)向生產(chǎn)方追償。如上所述,則建立起我國以自動駕駛領(lǐng)域人工智能侵權(quán)的產(chǎn)品責任強制保險為基礎(chǔ),危險責任自愿保險為補充,過錯責任為例外的侵權(quán)責任歸責方案。
自動駕駛汽車生產(chǎn)強制保險的責任限額可以在交強險的基礎(chǔ)上根據(jù)實際需要適度提高,以平衡自動駕駛領(lǐng)域人工智能的發(fā)展與受害者的救濟。對于保險保障的對象,借鑒英國立法經(jīng)驗,由“純粹的第三者責任保險”演變?yōu)椤敖y(tǒng)一保障車上人員與車下行人的責任保險”,以在自動駕駛領(lǐng)域人工智能的侵權(quán)責任歸責方案中排除“不合理的差別對待”。社會救濟方面,《上海市智能網(wǎng)聯(lián)汽車測試與應(yīng)用管理辦法》中的倡導(dǎo)性條款第四十條第二、三款可以沿用。
五、結(jié) "論
綜上所述,結(jié)合法律的規(guī)范目的與哲學(xué)的“主體”概念內(nèi)涵,得以建構(gòu)賦予法律主體地位之階層式判斷體系。從抽象到具體,運用本文構(gòu)建的階層式判斷體系,弱人工智能不能成為法律主體。對此,本文提出建立在生產(chǎn)方強制保險機制上的法律地位代表說解決問題。強人工智能根據(jù)其自我意識的根源不同,分為“機器倫理”式和“人類情感”式兩類。“機器倫理”式不能成為法律主體,可以通過“機器倫理”的設(shè)計,從源頭上減少致?lián)p事件的發(fā)生?!叭祟惽楦小笔綇娙斯ぶ悄芊蠗l件判斷,但從價值判斷考慮,不應(yīng)該成為法律主體。從理論到實踐,在人工智能不作為法律主體的前提下,在我國現(xiàn)行法與機動車責任保險機制的基礎(chǔ)上完善具有中國特色的自動駕駛領(lǐng)域人工智能侵權(quán)責任歸責主體認定方案。推廣本文的創(chuàng)新成果,階層式判斷體系可以用于判斷人工智能的法律地位,還可以適用于其他新興產(chǎn)品,以法律平衡科技的發(fā)展與人類整體安全與尊嚴的保護,使新興行業(yè)在法律的規(guī)制下行穩(wěn)致遠、為人所用。
參考文獻:
[1] 特斯拉承認在華發(fā)生全球首例“自動駕駛”致死車禍[EB/OL].(2018-02-27)[2024-05-26].http://baijiahao.baidu.com/s?id=1593559005098961144amp;
wfr=spideramp;for=pc.
[2] 龍衛(wèi)球.法律主體概念的基礎(chǔ)性分析(下):兼論法律的主體預(yù)定理論[J].學(xué)術(shù)界,2000(4).
[3] 胡玉鴻.法律主體概念及其特性[J].法學(xué)研究,2008(3).
[4] 馬馳.誰可以成為法律主體:兼談人工智能的法律主體資格問題[J].甘肅社會科學(xué),2022(4).
[5] 劉云.論人工智能的法律人格制度需求與多層應(yīng)對[J].東方法學(xué),2021(1).
[6] 郭少飛.“電子人”法律主體論[J].東方法學(xué),2018 (3).
[7] 袁曾.人工智能有限法律人格審視[J].東方法學(xué),2017 (5).
[8] 金東寒.秩序的重構(gòu):人工智能與人類社會[M].上海:上海大學(xué)出版社,2017.
[9] 郝鐵川.不可幻想和高估人工智能對法治的影響[N].法制日報,2018-01-03(10).
[10] 趙萬一.機器人的法律主體地位辨析:兼談對機器人進行法律規(guī)制的基本要求[J].貴州民族大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2018(3).
[11] Susanne Beck.The Problem of Ascribing Legal Responsibility in the Case of Robotics[J].AI&Soc,2016(1).
[12] 王樂兵.自動駕駛汽車的缺陷及其產(chǎn)品責任[J].清華法學(xué),2020(2).
[13] 劉練軍.人工智能法律主體論的法理反思[J].現(xiàn)代法學(xué),2021(4).
[14] 孫曉飛.主體、主體性概念辨析[J].社會科學(xué)論壇,2019(1).
[15] 楊志航.人工智能法律主體資格之否定[J].財經(jīng)法學(xué),2022(4).
[16] 馮潔.人工智能體法律主體地位的法理反思[J].東方法學(xué),2009(4).
[17] 范進學(xué).人工智能法律主體論:現(xiàn)在與未來[J].政法論叢,2022(3).
[18] 陳勁松.傳統(tǒng)法律主體資格標準理論及其當代變革[J].學(xué)術(shù)交流,2019(7).
[19] 龍衛(wèi)球.民法主體的觀念演化、制度變遷與當下趨勢[J].國家檢察官學(xué)院學(xué)報,2011(4).
[20] 韓水法.啟蒙:理性與理性主義[J].云南大學(xué)學(xué)報,2004(4).
[21] 龍文懋.人工智能法律主體地位的法哲學(xué)思考[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2018(5).
[22] 邊沁.道德與立法原理導(dǎo)論[M].時殷弘,譯.北京:商務(wù)印書館,2000.
[23] 馮玨.自動駕駛汽車致?lián)p的民事侵權(quán)責任[J].中國法學(xué),2018(6).
[24] John R Sear. Minds ,Brains and Programs[J]. The Behavioral and Brain Sciences,1980(3).
[25] 哈特,奧諾爾.法律中的因果關(guān)系[M].張紹謙,等,譯.北京:中國政法大學(xué)出版社,2005.
[26] 彭誠信,陳吉棟.論人工智能體法律人格的考量要素[J].當代法學(xué),2019(2).
[27] 張新平,章崢.強人工智能機器人的主體地位及其法律治理[J].中國科技論壇,2022(1).
[28] 莫宏偉.強人工智能與弱人工智能的倫理問題思考[J].科學(xué)與社會,2018(1).
[29] 艾薩克·阿西莫夫.基地與地球:下[M].葉李華,譯.成都:天地出版社,2005.
[30] Levalley D.Autonomous Vehicle Liability:Application of Common Carrier Liability[J].Seattle University Law Review ,2013(1).
[31] 劉會春.從美國立法經(jīng)驗看我國自動駕駛汽車法律制度的建設(shè)[J].重慶郵電大學(xué)學(xué)報(社會科學(xué)),2020(5).
[32] 董春凱.審判視角下自動駕駛汽車交通事故的侵權(quán)責任:基于現(xiàn)實和未來的雙重考量[J].上海法學(xué)研究,2020(2).
[33] 埃里克·希爾根多夫.自動系統(tǒng)、人工智能和機器人:一個刑法角度的定位[J].黃笑巖,譯.法治現(xiàn)代化研究,2019(1).
[34] 張韜略,錢榕.邁入無人駕駛時代的德國道路交通法:德國《自動駕駛法》的探索與啟示[J].德國研究,2022(1).
[35] 何坦.論我國自動駕駛汽車侵權(quán)責任體系的構(gòu)建:德國《道路交通法》的修訂及其借鑒[J].時代法學(xué),2021(1).
[36] 韓旭至.自動駕駛事故的侵權(quán)責任構(gòu)造:兼論自動駕駛的三層保險結(jié)構(gòu)[J].上海大學(xué)學(xué)報(社會科學(xué)版),2019(2).
[37] Uber無人車撞死人,安全員被控過失殺人,算法免于追責[EB/OL].(2020-09-20)[2024-05-26].https://www.thepaper.cn/newsDetail_forward_9256338.
責任編輯:汪頻高
(E-mail:470597273@qq. com)