国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能產(chǎn)品致人損害民事責(zé)任研究

2018-04-30 13:09:46張童
社會(huì)科學(xué) 2018年4期
關(guān)鍵詞:制度構(gòu)建侵權(quán)責(zé)任人工智能

張童

摘 要:人工智能技術(shù)現(xiàn)已廣泛應(yīng)用到各個(gè)行業(yè)。人工智能具有顯著的擬人特征,這導(dǎo)致智能機(jī)器人、自動(dòng)駕駛汽車(chē)等人工智能產(chǎn)品致人損害的民事責(zé)任認(rèn)定及承擔(dān)面臨若干法律疑難,包括人工智能產(chǎn)品能否成為獨(dú)立責(zé)任主體、過(guò)錯(cuò)責(zé)任原則難以適用、侵害事實(shí)與因果關(guān)系查明困難等,這些是我國(guó)傳統(tǒng)民事責(zé)任制度沒(méi)有預(yù)料與考慮的新問(wèn)題。美國(guó)、德國(guó)及歐盟近年來(lái)已涉足人工智能民事責(zé)任相關(guān)探討及立法嘗試。參考這些國(guó)家的經(jīng)驗(yàn)與不足,考慮到人工智能的技術(shù)屬性,雖然人工智能產(chǎn)品不宜成為獨(dú)立的責(zé)任主體,但仍需要建立專(zhuān)門(mén)的倫理準(zhǔn)則、登記公示制度與召回處置機(jī)制,確立生產(chǎn)者、銷(xiāo)售者與使用者之間差異化的歸責(zé)原則,并側(cè)重強(qiáng)調(diào)生產(chǎn)者的舉證責(zé)任,以及在保護(hù)隱私權(quán)的前提下記錄并保存侵害原由與過(guò)程的電子數(shù)據(jù)。

關(guān)鍵詞:人工智能;擬人屬性;侵權(quán)責(zé)任;制度構(gòu)建

中圖分類(lèi)號(hào): DF51 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):0257-5833(2018)04-0103-10

現(xiàn)今,人工智能技術(shù)現(xiàn)已廣泛應(yīng)用到物流、交通、運(yùn)輸、醫(yī)療、制造、服務(wù)等各個(gè)行業(yè),它在未來(lái)必然更加普及,也不可避免地對(duì)人類(lèi)造成傷害。例如:日本早在20世紀(jì)80 年代就發(fā)生了工業(yè)機(jī)器人壓死工人的事故;美國(guó)食品藥品監(jiān)督管理局則在2007年收到了200余次投訴,指控醫(yī)療外科手術(shù)機(jī)器人導(dǎo)致病人遭受燒傷、切割傷與感染,甚至造成89例死亡事故;①可預(yù)見(jiàn)到,自動(dòng)駕駛汽車(chē)、物流或制造作業(yè)機(jī)器人也必然會(huì)發(fā)生交通肇事或者生產(chǎn)事故,損害人類(lèi)的生命健康、財(cái)產(chǎn)安全。隨著人工智能的迅速推廣,此類(lèi)侵害現(xiàn)象將持續(xù)增多,引起有關(guān)民事責(zé)任認(rèn)定與承擔(dān)的一系列問(wèn)題。然而,人工智能系統(tǒng)是一種新興的現(xiàn)象,它具備高度的行為自主性與獨(dú)立性,能夠完成自我學(xué)習(xí)與調(diào)整,甚至脫離了人類(lèi)控制,這導(dǎo)致由它實(shí)施的侵害呈現(xiàn)顯著的擬人性、復(fù)雜性、特異性,進(jìn)而引起傳統(tǒng)民事責(zé)任法律制度能否適用、如何適用的擔(dān)憂和困惑。鑒于此,筆者嘗試結(jié)合人工智能的技術(shù)特性,分析傳統(tǒng)民事責(zé)任制度調(diào)整人工智能侵害現(xiàn)象的局限與困境,并探究國(guó)外做法的經(jīng)驗(yàn)與不足,在此基礎(chǔ)上,提出我國(guó)人工智能民事責(zé)任制度構(gòu)建相關(guān)對(duì)策建議。

一、傳統(tǒng)民事責(zé)任制度適用人工智能的困境

人工智能所涉及的民事責(zé)任通常表現(xiàn)為,智能機(jī)器人、自動(dòng)駕駛汽車(chē)等人工智能產(chǎn)品侵害人身或財(cái)產(chǎn)而引起的侵權(quán)責(zé)任。對(duì)此,現(xiàn)行法律制度能否予以有效規(guī)制?進(jìn)一步而言,這種侵害是否存在某些特殊的特征,不宜適用傳統(tǒng)的民事責(zé)任制度?這是人工智能技術(shù)應(yīng)用無(wú)法回避的現(xiàn)實(shí)問(wèn)題。以往,人們一般將人工智能與人形機(jī)器人聯(lián)系起來(lái),初級(jí)階段的人工智能研究也的確側(cè)重于機(jī)器人對(duì)人腦的模擬效果等宏觀問(wèn)題,忽視了人工智能的實(shí)際應(yīng)用。然而,在互聯(lián)網(wǎng)技術(shù)高度發(fā)達(dá)的今天,人工智能不再局限于創(chuàng)造一個(gè)擁有人腦效果的完美機(jī)器人,而是依托算法、數(shù)據(jù)處理技術(shù),由機(jī)器人自主獨(dú)立地搜集、分析、篩選與預(yù)測(cè)浩如煙海的數(shù)據(jù),并通過(guò)互聯(lián)網(wǎng)控制下的分布式傳感設(shè)置實(shí)現(xiàn)數(shù)據(jù)的實(shí)時(shí)更新,持續(xù)傳輸至“大腦”,按照算法做出進(jìn)一步的優(yōu)化選擇、調(diào)整、決策或者指令,最終讓機(jī)器人實(shí)施具體行動(dòng)。胡凌:《人工智能的法律想象》,《文化縱橫》2017年第2期。通過(guò)上述技術(shù),人工智能得以實(shí)際應(yīng)用于社會(huì)生產(chǎn)、經(jīng)營(yíng)及生活。例如,“物聯(lián)網(wǎng)”是人工智能應(yīng)用于物流供應(yīng)鏈的生動(dòng)體現(xiàn),也是當(dāng)代物流行業(yè)轉(zhuǎn)型發(fā)展的共同目標(biāo)。它使用智能機(jī)器人、無(wú)人車(chē)、無(wú)人船、無(wú)人倉(cāng)與數(shù)據(jù)系統(tǒng),能夠自動(dòng)完成運(yùn)輸、搬運(yùn)、揀貨、裝卸、信息處理等一系列無(wú)人化作業(yè),并且在集裝箱、快件或包裹等貨物包裝上安置統(tǒng)一標(biāo)準(zhǔn)的電子標(biāo)識(shí),通過(guò)射頻識(shí)別系統(tǒng)、全球定位系統(tǒng)等傳感工具直接掃描電子標(biāo)簽、采集貨物信息并且上傳互聯(lián)網(wǎng),由數(shù)據(jù)系統(tǒng)對(duì)貨物信息完成集中、全程、實(shí)時(shí)、高效的采集、定位、跟蹤與更新,黃玉蘭:《物聯(lián)網(wǎng)射頻識(shí)別(RFID) 核心技術(shù)詳解(第2版)》,人民郵電出版社2012 年版,第3頁(yè)。并根據(jù)這些信息做出進(jìn)一步分析判斷,發(fā)出指令以合理配置物流資源、優(yōu)化物流過(guò)程,從而實(shí)現(xiàn)提升效率、降低成本?;谏鲜龇治?,人工智能的特殊表征可總結(jié)為非常復(fù)雜的“擬人屬性”,這種屬性具體表現(xiàn)為幾方面:其一,它擁有外在可見(jiàn)的物理形體,這是人工智能影響外界的直接載體。其二,它依托算法、代碼及信息傳感技術(shù),擁有海量數(shù)據(jù)的采集、分析、交換、更新與處理能力,幾乎不受任何的人類(lèi)外部控制,表現(xiàn)出高度的自主性或獨(dú)立性。其三,它以大數(shù)據(jù)、算法、機(jī)器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)等技術(shù)為主導(dǎo),可獨(dú)立從外部世界發(fā)現(xiàn)并汲取新的知識(shí),完成人工智能系統(tǒng)自身的持續(xù)學(xué)習(xí)、積累與提升,完成源源不斷的“深度學(xué)習(xí)”過(guò)程,James Hendler,Alice M. Mulvehill, Social Machine:The Coming Collision of Artificial Intelligence, Social Networking, and Humanity, APress,2016,p.101.并且實(shí)現(xiàn)自我調(diào)整以適應(yīng)環(huán)境的變化。因此,人工智能可視為以算法為主導(dǎo)的硬件處理系統(tǒng),它并非簡(jiǎn)單替代人力勞動(dòng),已不能等同于純粹供人類(lèi)操縱的工具。因此,對(duì)于人工智能侵害的民事責(zé)任,也不宜簡(jiǎn)單適用傳統(tǒng)民事責(zé)任制度的處理原則,而應(yīng)當(dāng)結(jié)合人工智能的擬人屬性,予以特殊的綜合考量。

(一)責(zé)任主體構(gòu)成的疑惑

究竟由誰(shuí)承擔(dān)人工智能產(chǎn)品致人損害的民事責(zé)任?按照侵權(quán)責(zé)任法、產(chǎn)品質(zhì)量法的調(diào)整規(guī)則,人工智能產(chǎn)品的生產(chǎn)者、銷(xiāo)售者可按照《產(chǎn)品質(zhì)量法》承擔(dān)產(chǎn)品缺陷致人損害的賠償責(zé)任,使用者也可承擔(dān)使用不當(dāng)導(dǎo)致的侵權(quán)責(zé)任。然而,依托高科技的人工智能產(chǎn)品具備高度自主的分析處理能力,并且擁有人類(lèi)無(wú)法企及的超強(qiáng)認(rèn)知能力,即能夠?qū)ψ晕壹寄?、行為?zhǔn)則產(chǎn)生特定的認(rèn)識(shí)與遵守,它們跟人類(lèi)大腦的差距愈加縮短,甚至具備情感之外幾乎全部的人腦功能,從這一角度考量,人工智能產(chǎn)品的行為似乎可理解為自身獨(dú)立實(shí)施。由此引起的疑問(wèn)是,可否將人工智能產(chǎn)品直接確定為侵權(quán)責(zé)任主體?這直接關(guān)乎賦予它們以獨(dú)立法律人格有無(wú)必要、是否可行的問(wèn)題。毋庸置疑,這對(duì)傳統(tǒng)法學(xué)理念提出了重大挑戰(zhàn)。

依據(jù)傳統(tǒng)民法理論,法律關(guān)系主體與客體之間存在不可逾越的“鴻溝”,只有兩類(lèi)形態(tài)能取得法律關(guān)系的主體資格或人格,其一是自然人,其二是作為自然人集合的法人或其他組織,無(wú)精神意志之物不應(yīng)成為主體,只能視為法律關(guān)系的客體。然而,在人工智能背景下,上述觀點(diǎn)正遭受不斷沖擊,實(shí)際上,呼吁賦予高度自主的人工智能產(chǎn)品以擬制人格的主張已屢見(jiàn)不鮮。有學(xué)者主張,民事法律關(guān)系主體所提及的“人格”是非常抽象的概念,評(píng)判可否取得人格的依據(jù)應(yīng)為賦予其“權(quán)利能力”的必要性,由此方能揭示法律關(guān)系主體及人格的內(nèi)在實(shí)質(zhì),進(jìn)而劃分出法律關(guān)系主體與客體之間的清晰邊界。[日]北川善太郎:《日本民法體系》,李毅多譯,科學(xué)出版社1995年版,第56頁(yè)。以法人為例,雖然它并不擁有精神意志,但作為眾多自然人的集合,能夠基于自然人(股東及管理人員)之共同意思而實(shí)施法律行為,產(chǎn)生相應(yīng)的權(quán)利、義務(wù)及責(zé)任等法律效果,并將這些效果最終歸于自身,因此法人取得“權(quán)利能力”具備充分的理由,各國(guó)立法也幾乎均賦予了法人以擬制人格。對(duì)此,國(guó)內(nèi)也有論者指出:“人工智能具有獨(dú)立自主的行為能力,有資格享有法律權(quán)利并承擔(dān)義務(wù),人工智能應(yīng)當(dāng)具有法律人格?!痹骸度斯ぶ悄苡邢薹扇烁駥徱暋?,《東方法學(xué)》2017年第5期。按照上述觀點(diǎn),法律關(guān)系主體與客體的區(qū)分依據(jù)并非局限于是否擁有生命、是否擁有獨(dú)立意志,而是應(yīng)當(dāng)將重點(diǎn)放在衡量有無(wú)必要賦予主體資格使其享有權(quán)利能力,如法人擁有擬制人格那般,賦予人工智能產(chǎn)品以擬制人格并非不可。在現(xiàn)有技術(shù)條件下,人工智能產(chǎn)品可以自己的“大腦”(人工智能系統(tǒng))分析信息、做出判斷并發(fā)出侵害人身或財(cái)產(chǎn)的指令,當(dāng)然,這一指令既可能源自人工智能系統(tǒng)為完成預(yù)設(shè)工作任務(wù)而排除妨礙的明確意圖,也可能源自人工智能系統(tǒng)存在沒(méi)有料到該指令將造成侵害的漏洞。該指令可通過(guò)“神經(jīng)網(wǎng)絡(luò)”(如液壓裝置、電子線路)操縱“器官”(例如各類(lèi)機(jī)械或裝置)對(duì)人身或財(cái)產(chǎn)實(shí)施傷害。此時(shí),可能引起法律意義的侵權(quán)關(guān)系,似乎可將責(zé)任后果直接歸于自身。然而,人工智能產(chǎn)品并非自然人的集合,而是生產(chǎn)者、使用者實(shí)現(xiàn)某一生產(chǎn)經(jīng)營(yíng)目標(biāo)的工具,它是基于生產(chǎn)者、使用者的意思或指令而實(shí)施行為,因而可理解為它擔(dān)當(dāng)了“無(wú)辜代理人”的角色Lawrence B. Solum, “Legal Personhood for Artificial Intelligences”, 70 N.C. L. REV. 1992, p. 1231.,進(jìn)而基于替代關(guān)系而將法律效果歸于背后的生產(chǎn)者或使用者,該情形實(shí)際上已不再考慮人工智能產(chǎn)品的擬人屬性??傊瑔?wèn)題在于,有無(wú)必要或理由賦予人工智能產(chǎn)品以承擔(dān)侵權(quán)責(zé)任的獨(dú)立人格?如果不賦予,如何解決人工智能產(chǎn)品所擁有高度自主性之特殊現(xiàn)象及后果?針對(duì)這些法律與道德交叉、避無(wú)可避、亟待解決的前沿問(wèn)題,我國(guó)學(xué)界、立法及司法領(lǐng)域尚未達(dá)成一致觀點(diǎn)。

(二)過(guò)錯(cuò)責(zé)任原則的適用困境

人工智能背景下的智能機(jī)器人擁有高度自主的選擇判斷能力,甚至擺脫了外部的人為控制或影響,表現(xiàn)出突出的“智能化”屬性。這導(dǎo)致傳統(tǒng)侵權(quán)理論秉承的主觀過(guò)錯(cuò)要件難以詮釋?zhuān)豕鹆幔骸肚謾?quán)責(zé)任法保護(hù)的民事權(quán)益的表達(dá)模式與完善路徑》,《政法論叢》2016年第2期。不宜適用于人工智能產(chǎn)品實(shí)際實(shí)施之侵害行為,主要原因是過(guò)錯(cuò)判定一般以侵權(quán)人在主觀上“應(yīng)知”或“明知”的注意義務(wù)為準(zhǔn)則。然而,人工智能產(chǎn)品是基于獨(dú)立自主的思考、判斷而決定做出侵害,并非源自人為的操縱與控制,但直接將“應(yīng)知”或“明知”的注意義務(wù)準(zhǔn)則歸于人工智能產(chǎn)品自身似乎也不妥。

在人工智能產(chǎn)品實(shí)現(xiàn)完全自動(dòng)化、智能化的情況下,使用者已不再需要進(jìn)行直接操控,也無(wú)需監(jiān)控周邊的環(huán)境狀況,甚至無(wú)需在緊急狀況下予以干預(yù)。一旦人工智能產(chǎn)品發(fā)生事故而損害人身或者財(cái)產(chǎn),使用者既無(wú)主觀過(guò)錯(cuò),也與人工智能系統(tǒng)自身引起的事故不存在因果關(guān)系,就此而言,“無(wú)辜”的使用者無(wú)需承擔(dān)責(zé)任。例如,在物流運(yùn)輸過(guò)程中,自動(dòng)駕駛汽車(chē)擁有高度發(fā)達(dá)的自動(dòng)系統(tǒng)及裝置,不需要駕駛?cè)藛T或其背后的物流運(yùn)輸公司進(jìn)行直接操控,實(shí)現(xiàn)了乘客或貨物的無(wú)人化載運(yùn)。在此情形下,一旦發(fā)生交通肇事,物流運(yùn)輸公司、乘客及貨物托運(yùn)人均不應(yīng)負(fù)有合理的注意義務(wù),除非他們實(shí)施了干擾、破壞或阻礙自動(dòng)駕駛汽車(chē)正常運(yùn)作的故意或過(guò)失行為,這明顯改變了傳統(tǒng)侵權(quán)法關(guān)于交通事故的責(zé)任原則??梢?jiàn),人工智能實(shí)現(xiàn)了無(wú)人化的操作,導(dǎo)致其使用者不再負(fù)有主觀上的注意義務(wù),使得過(guò)錯(cuò)歸責(zé)原則最終變得無(wú)所適從。另外,在人工智能產(chǎn)品應(yīng)否獲得獨(dú)立人格的爭(zhēng)議狀態(tài)下,探究人工智能產(chǎn)品是否存在主觀過(guò)錯(cuò)似乎也無(wú)所適從,而且沒(méi)有任何實(shí)際意義,原因是即使人工智能產(chǎn)品可被認(rèn)定為承擔(dān)過(guò)錯(cuò)責(zé)任的責(zé)任承擔(dān)者,它也無(wú)法實(shí)際履行經(jīng)濟(jì)賠償或其他救濟(jì)。

既然不宜追究使用者、人工智能產(chǎn)品的過(guò)錯(cuò)責(zé)任,那么可否追溯生產(chǎn)者、銷(xiāo)售者等其他主體的責(zé)任?如果追究生產(chǎn)者、銷(xiāo)售者的責(zé)任,則似乎離不開(kāi)《產(chǎn)品質(zhì)量法》傾向維護(hù)消費(fèi)者利益的調(diào)整規(guī)制,尤其在排除使用者過(guò)錯(cuò)責(zé)任的前提下,將不再?gòu)?qiáng)調(diào)主觀上的故意或過(guò)失,而是更強(qiáng)調(diào)侵權(quán)行為導(dǎo)致的事實(shí)及損失,劉笑岑:《關(guān)于無(wú)人駕駛汽車(chē)的法律問(wèn)題訪談》,《法制日?qǐng)?bào)》2016年11月26日。此時(shí)將依據(jù)《產(chǎn)品質(zhì)量法》追究生產(chǎn)者的無(wú)過(guò)錯(cuò)責(zé)任,以及銷(xiāo)售者的有限過(guò)錯(cuò)責(zé)任。然而,有觀點(diǎn)并不贊同《產(chǎn)品質(zhì)量法》的適用,而是基于人工智能所具備的技術(shù)特性,主張采用“技術(shù)中立”原則,即技術(shù)自身一般不產(chǎn)生責(zé)任,嚴(yán)義挺:《技術(shù)、構(gòu)罪與證明——“互聯(lián)網(wǎng)+”語(yǔ)境下訴訟的“+互聯(lián)網(wǎng)”性》,《上海政法學(xué)院學(xué)報(bào)(法治論叢)》2017年第3期。具體而言,針對(duì)人工智能技術(shù)自身引起的侵害,使用者除自身過(guò)失外均可豁免責(zé)任,生產(chǎn)者、銷(xiāo)售者也均不承擔(dān)責(zé)任,除非該技術(shù)的最初商業(yè)用途即是意圖侵權(quán)或違法。徐愛(ài)國(guó):《英美侵權(quán)行為法》,法律出版社1999年版,第247頁(yè)??梢?jiàn),與《產(chǎn)品質(zhì)量法》相比較,技術(shù)中立原則同樣不再關(guān)注生產(chǎn)者、銷(xiāo)售者的主觀要件,但也不再重視產(chǎn)品有無(wú)缺陷,劉志云、劉盛:《供給側(cè)改革背景下的經(jīng)濟(jì)法:挑戰(zhàn)與回應(yīng)》,《政法論叢》2017年第4期。即針對(duì)人工智能自身技術(shù)缺陷引起的侵害,生產(chǎn)者、銷(xiāo)售者可能仍無(wú)需承擔(dān)責(zé)任。顯然,技術(shù)中立原則不利于維護(hù)受害方利益、保障安全秩序,但也擁有一定的存在理由,人工智能系統(tǒng)本就是極度復(fù)雜的技術(shù)難題,這區(qū)別于常規(guī)意義、批量生產(chǎn)的普通產(chǎn)品,如果對(duì)生產(chǎn)者給予過(guò)于嚴(yán)格的無(wú)過(guò)錯(cuò)責(zé)任,無(wú)疑會(huì)打消生產(chǎn)者尤其是技術(shù)人員的研發(fā)積極性,最終可能妨礙人工智能的推廣應(yīng)用。雖然生產(chǎn)者承擔(dān)無(wú)過(guò)錯(cuò)責(zé)任更符合現(xiàn)行法律架構(gòu)與目標(biāo),但不意味著可將人工智能產(chǎn)品與無(wú)思維之“物”等同,進(jìn)而僵硬套用《產(chǎn)品質(zhì)量法》有關(guān)普通產(chǎn)品的侵權(quán)責(zé)任認(rèn)定,主要原因是生產(chǎn)者按《產(chǎn)品質(zhì)量法》承擔(dān)無(wú)過(guò)錯(cuò)責(zé)任僅限于技術(shù)缺陷情形,但人工智能產(chǎn)品所實(shí)施侵害既可能源自技術(shù)缺陷,也可能源自系統(tǒng)本身的思維判斷而非技術(shù)缺陷,而判定真正的侵害來(lái)源是非常困難的。

(三)引起責(zé)任的事實(shí)難以查明

侵權(quán)行為認(rèn)定是一個(gè)推理過(guò)程,事實(shí)差異直接則決定了結(jié)論的不同。John A. Barnden, Donald M. Peterson,“Artificial Intelligence, Mindreading, and Reasoning in Law”, Cardozo L. Rev, 2001,p.1381.人工智能產(chǎn)品實(shí)施侵害的原因可劃分為多類(lèi)事實(shí),既可能是生產(chǎn)與設(shè)計(jì)環(huán)節(jié)的瑕疵,也可能是銷(xiāo)售者的管理失誤,或是使用者的干預(yù)不當(dāng),甚至是人工智能系統(tǒng)自身的高度智能化、自主化而獨(dú)立做出的判斷與決定。這些事實(shí)分別對(duì)應(yīng)不同的因果關(guān)系,直接決定了生產(chǎn)者、銷(xiāo)售者、使用者之間的過(guò)錯(cuò)比例、責(zé)任分擔(dān)。然而,證明哪種事實(shí)、哪種因果關(guān)系成立是非常不易的事情,主要表現(xiàn)為:

其一,人工智能系統(tǒng)自身的缺陷難以證明。按照《產(chǎn)品質(zhì)量法》確立的原則,只要產(chǎn)品存在缺陷并導(dǎo)致?lián)p害,生產(chǎn)者將承擔(dān)無(wú)過(guò)錯(cuò)責(zé)任,這似乎從法條設(shè)計(jì)角度為人工智能產(chǎn)品實(shí)施侵害的責(zé)任認(rèn)定提供了出路。然而,關(guān)于人工智能系統(tǒng)是否存在缺陷的事實(shí)認(rèn)定問(wèn)題,在實(shí)踐中一般面臨很大難度。按照《產(chǎn)品質(zhì)量法》第46條規(guī)定,產(chǎn)品缺陷的認(rèn)定標(biāo)準(zhǔn)包括兩項(xiàng):(1)產(chǎn)品存在危及人身或財(cái)產(chǎn)安全的不合理危險(xiǎn);(2)若產(chǎn)品有保障人體健康、人身財(cái)產(chǎn)安全的國(guó)家標(biāo)準(zhǔn)或行業(yè)標(biāo)準(zhǔn),不符合該標(biāo)準(zhǔn)就視為存在缺陷。然而,按照我國(guó)現(xiàn)行民事舉證規(guī)則的要求,受害方負(fù)有證明產(chǎn)品存在缺陷的舉證責(zé)任,生產(chǎn)者就法律規(guī)定的免責(zé)事由承擔(dān)舉證責(zé)任。在此背景下,鑒于人工智能技術(shù)的高度復(fù)雜性,受害方證明存在《產(chǎn)品質(zhì)量法》第46條所規(guī)定缺陷將異常困難,而人工智能系統(tǒng)的高度自主性將導(dǎo)致侵害事實(shí)難以合理歸咎于生產(chǎn)設(shè)計(jì)缺陷,即缺陷與侵害事實(shí)之間的因果關(guān)系舉證極其不易。另外,我國(guó)尚未制定人工智能技術(shù)相關(guān)保障人身及財(cái)產(chǎn)安全的國(guó)家標(biāo)準(zhǔn)、行業(yè)標(biāo)準(zhǔn),使得受害方舉證也無(wú)從援引。

其二,人工智能系統(tǒng)引起損害的原由難以解釋。人工智能系統(tǒng)一般具備高度的自主或擬人屬性,它并非依賴(lài)程序員手動(dòng)編程來(lái)完成一步一步的演算和學(xué)習(xí),而是依據(jù)算法和數(shù)據(jù)中心持續(xù)采集、分析數(shù)據(jù)而達(dá)到學(xué)習(xí)目標(biāo),甚至能夠完成手動(dòng)編程無(wú)法企及的復(fù)雜任務(wù),例如圖像識(shí)別、汽車(chē)或船舶自動(dòng)駕駛等,因此其復(fù)雜性可見(jiàn)一斑。從這一角度審視,人工智能系統(tǒng)的算法可能是公開(kāi)的,但是它依據(jù)算法完成學(xué)習(xí)、分析、決策、推理的過(guò)程是難以理解與解釋清楚的,甚至設(shè)計(jì)者也難以徹底搞明白,社會(huì)公眾更是無(wú)從知曉。由此導(dǎo)致的結(jié)果是,即使其算法得到了公開(kāi),法院及當(dāng)事方均將面臨查明侵害原因、因果關(guān)系的技術(shù)障礙。司曉,曹建峰:《論人工智能的民事責(zé)任:以自動(dòng)駕駛汽車(chē)和智能機(jī)器人為切入點(diǎn)》,《法律科學(xué)(西北政法大學(xué)學(xué)報(bào))》2017年第5期。

二、國(guó)外人工智能民事責(zé)任規(guī)制的探索

美國(guó)、德國(guó)、歐盟均較早涉足人工智能領(lǐng)域,最先接觸了人工智能產(chǎn)品致人損害責(zé)任的憂慮和難處,也意識(shí)到施以特定法律或道德規(guī)制的必要。

(一)美德有關(guān)自動(dòng)駕駛汽車(chē)交通肇事責(zé)任的規(guī)制

自動(dòng)駕駛汽車(chē)是人工智能技術(shù)應(yīng)用的典型。美國(guó)在2016年9月發(fā)布的《聯(lián)邦自動(dòng)駕駛汽車(chē)政策》、德國(guó)在2017年5月通過(guò)的《道路交通法》修正案均正式承認(rèn)了自動(dòng)駕駛汽車(chē)上路行駛的資格,這兩個(gè)國(guó)家也較早涉足了自動(dòng)駕駛領(lǐng)域的法律或行政規(guī)制,尤其關(guān)注了自動(dòng)駕駛汽車(chē)發(fā)生事故所引起的民事責(zé)任問(wèn)題,可概括為如下方面:

其一,確立了人工智能產(chǎn)品實(shí)施侵害后的責(zé)任承擔(dān)原則。美國(guó)密歇根州、佛羅里達(dá)州已通過(guò)立法確立了自動(dòng)駕駛汽車(chē)的原始生產(chǎn)者、改造者之間的責(zé)任分擔(dān),一旦車(chē)輛由第三方改造為自動(dòng)駕駛汽車(chē),則原始生產(chǎn)者不再對(duì)車(chē)輛缺陷承擔(dān)責(zé)任,除非有證據(jù)證明改造前車(chē)輛已有缺陷。倫一:《美德加快健全自動(dòng)駕駛制度對(duì)我國(guó)的啟示》,http://www.sohu.com/a/155637742_683365,2017-11-14。德國(guó)2017年《道路交通法》修正案確立了車(chē)輛使用者或駕駛者必須承擔(dān)責(zé)任,同時(shí)德國(guó)有學(xué)者預(yù)測(cè)未來(lái)的責(zé)任主體必然實(shí)現(xiàn)由駕駛者或使用者向生產(chǎn)者的變遷。倫一:《美德加快健全自動(dòng)駕駛制度對(duì)我國(guó)的啟示》,http://www.sohu.com/a/155637742_683365,2017-11-14??梢?jiàn),美國(guó)、德國(guó)立法僅確認(rèn)了追究生產(chǎn)者、改造者及使用者的責(zé)任,基本沒(méi)有考慮自動(dòng)駕駛汽車(chē)作為獨(dú)立侵權(quán)責(zé)任主體的問(wèn)題,甚至可理解為持否定觀點(diǎn)。然而,這并非意味著無(wú)需對(duì)肇事汽車(chē)予以必要“懲戒”,例如,美國(guó)高速公路交通安全管理局出臺(tái)的文件中規(guī)定:一旦自動(dòng)駕駛系統(tǒng)發(fā)生危險(xiǎn)導(dǎo)致無(wú)法重新控制車(chē)輛,本局將強(qiáng)制召回車(chē)輛并處理,由此創(chuàng)立了自動(dòng)駕駛汽車(chē)存在侵害風(fēng)險(xiǎn)后的召回處置機(jī)制?!癠.S. Department of Transportation Releases Policy on Automated Vehicle Development ”,U.S. Department of Transportation https://www.transportation.gov/briefing-room/us-department-transportation-releases-policy-automated-vehicle-development,2017-10-11.

其二,強(qiáng)調(diào)自動(dòng)駕駛系統(tǒng)所涉安全技術(shù)規(guī)范的調(diào)整作用,依托法律或行政規(guī)制以規(guī)范自動(dòng)駕駛汽車(chē)的設(shè)計(jì)與應(yīng)用。這既實(shí)現(xiàn)了侵害的規(guī)避,也可作為證明系統(tǒng)是否存在缺陷、考量侵權(quán)認(rèn)定及責(zé)任程度之參考。例如,美國(guó)《聯(lián)邦自動(dòng)駕駛汽車(chē)政策》在“安全評(píng)估”章節(jié)中具體提出了自動(dòng)駕駛汽車(chē)設(shè)計(jì)、測(cè)試與應(yīng)用所涉及的十五項(xiàng)安全標(biāo)準(zhǔn),“U.S. DOT Issues Federal Policy for Safe Testing and Deployment of Automated Vehicles”,http://www.nhtsa.gov/About+NHTSA/Press+Releases/dot-federal-policy-for-automated-vehicles-09202016,2016-12-28.密歇根州、佛羅里達(dá)州也已分別在2016年4月與9月通過(guò)了新法案,刪除了自動(dòng)駕駛汽車(chē)中必須有駕駛員的要求,增加要求技術(shù)人員應(yīng)當(dāng)有能力在必要情況下迅速接管與控制車(chē)輛,或者確保車(chē)輛本身務(wù)必有能力實(shí)現(xiàn)減速或停車(chē),David Eggert,“Michigan Moves to Not Require Human in Driverless Test Cars”,http://www.usnews.com/news/business/articles/2016-09-07/michigan-may-not-require-a-human-in-self-driving-test-cars,2017-11-14.如果生產(chǎn)者、設(shè)計(jì)者違反上述要求,將承擔(dān)相應(yīng)的產(chǎn)品質(zhì)量責(zé)任。與之不同,德國(guó)《道路交通法》仍要求自動(dòng)駕駛汽車(chē)上保留駕駛?cè)藛T。

其三,除了法律規(guī)制之外,從根源上探求防范與規(guī)避侵害責(zé)任風(fēng)險(xiǎn)的解決之策,嘗試從道德倫理角度對(duì)自動(dòng)駕駛系統(tǒng)的生產(chǎn)、設(shè)計(jì)施以必要的規(guī)范或者指引,并且為侵權(quán)認(rèn)定創(chuàng)設(shè)了倫理準(zhǔn)則。這方面以施行力度最強(qiáng)、影響范圍最廣、規(guī)制內(nèi)容最細(xì)的德國(guó)為典型。德國(guó)聯(lián)邦交通部在2017年6月召集了交通、法律、信息、工程、哲學(xué)、神學(xué)、企業(yè)等各領(lǐng)域14名專(zhuān)家成立了自動(dòng)駕駛系統(tǒng)倫理委員會(huì),制定并發(fā)布了一份報(bào)告,提出了自動(dòng)駕駛系統(tǒng)生產(chǎn)者在設(shè)計(jì)算法過(guò)程中應(yīng)遵守的20條倫理指導(dǎo)準(zhǔn)則,例如,第7條要求如遇任何危險(xiǎn),保護(hù)人類(lèi)生命始終優(yōu)于避免財(cái)產(chǎn)或動(dòng)物受損;第8條則要求如果算法設(shè)計(jì)無(wú)法解決為避免多人受害而選擇傷害一人的倫理疑難,則生產(chǎn)者應(yīng)將程序設(shè)計(jì)為人工介入此類(lèi)情況的處置。MaBnahmenplan der BundesregierungzumBerichtderEthik,“KommissionAutomatisiertes und VernetztesFahren (Ethik-Regelnfür Fahrcomputer)”,http://www.bmvi.de/SharedDocs/DE/Publikationen/DG/massnahmenplan-zum- bericht- der- ethikkommission- avf.pdf?__blob=publicationFile,2017-12-28.

其四,強(qiáng)調(diào)自動(dòng)駕駛系統(tǒng)運(yùn)作全過(guò)程的數(shù)據(jù)保留,用以還原侵害事實(shí)的原由,但也高度關(guān)注個(gè)人隱私權(quán)的保護(hù)。美國(guó)眾議院在2017年9月通過(guò)的《自動(dòng)駕駛法》第12條對(duì)生產(chǎn)者、銷(xiāo)售者提出了一系列隱私保護(hù)的技術(shù)標(biāo)準(zhǔn),以防止輸入人工智能系統(tǒng)的隱私信息遭受惡意竊取、篡改、刪除或?yàn)E用。德國(guó)《道路交通法》則強(qiáng)制要求生產(chǎn)者在自動(dòng)駕駛汽車(chē)上安置黑匣子,用以記錄全部行駛過(guò)程及細(xì)節(jié),記錄信息保存至少半年,這有助于查明事故原因及因果關(guān)系。

(二)歐盟有關(guān)智能機(jī)器人責(zé)任的立法建議

歐盟有關(guān)人工智能的民事責(zé)任立法研究與實(shí)踐最具有創(chuàng)造性。2016年,歐盟議會(huì)所轄法律事務(wù)委員會(huì)正式提出了立法建議,建議制定民事法律規(guī)范,用以調(diào)整智能機(jī)器人的生產(chǎn)、銷(xiāo)售及使用活動(dòng),針對(duì)智能機(jī)器人致人損害的民事責(zé)任,主要?dú)w納為幾方面:首先,重構(gòu)適用于智能機(jī)器人的民事責(zé)任規(guī)范已勢(shì)在必行。簡(jiǎn)言之,智能機(jī)器人已不能等同于人類(lèi)驅(qū)使的工具,它們實(shí)施侵害的原因過(guò)程更是人類(lèi)無(wú)法預(yù)測(cè)與控制的。因此,按照傳統(tǒng)侵權(quán)理論只追究生產(chǎn)者、銷(xiāo)售者或使用者的責(zé)任已不合時(shí)宜,有必要考慮讓智能機(jī)器人為其自身行為承擔(dān)部分或全部責(zé)任,因此亟需審視可否賦予智能機(jī)器人以獨(dú)立人格。為此,立法建議中第50(f)項(xiàng)提出,從長(zhǎng)遠(yuǎn)角度考慮,有必要確立智能機(jī)器人的特殊地位,至少應(yīng)當(dāng)確保技術(shù)系統(tǒng)最復(fù)雜的智能機(jī)器人擁有“電子人”(Electronic Persons)的獨(dú)立地位,使其有資格擔(dān)負(fù)彌補(bǔ)自身所致?lián)p害的責(zé)任;也建議建立智能機(jī)器人的登記公示制度,從而與其獨(dú)立的法律地位相匹配。既然侵害行為由智能機(jī)器人獨(dú)立實(shí)施,也出自智能機(jī)器人本身的獨(dú)立推理、判斷及決定,并且不受人類(lèi)的外部干預(yù),那么智能機(jī)器人作為侵權(quán)主體并非不可。Gabriel Hallevy,“The Criminal Liability of Artificial Intelligence Entities-From Science Fiction to Legal Social Control”, Journal of Akron Intell. Prop, No.4,2010,p. 171.人工智能技術(shù)進(jìn)步使得智能機(jī)器人與人類(lèi)之間差距僅留下喜愛(ài)、嫉妒、厭惡等“情感”的缺乏,但這不應(yīng)是智能機(jī)器人無(wú)法成為侵權(quán)主體的必然阻礙,從侵權(quán)認(rèn)定角度考慮,即使是對(duì)人類(lèi)實(shí)施的侵害之認(rèn)定也沒(méi)有將情感因素歸入必備的主觀要件,更不必說(shuō)僅供人類(lèi)使用的智能機(jī)器人。George R. Cross,Cary G. Debessonet,“An Artificial Intelligence Application in the Law:CCLIPS,A Computer Program that Processes Legal Information”, Journal of HIGH TECH. L, No.1,1986, p.329.基于上述考量,歐盟立法建議的結(jié)論是倡議賦予智能機(jī)器人以獨(dú)立的電子人格,尤其是針對(duì)它負(fù)有責(zé)任彌補(bǔ)自身所引起的侵害,以及它自主決定的、與第三方獨(dú)立交往的情形。Susanne Beck,“The Problem of Ascribing Legal Responsibility in the Case of Robotics”, Journal of AI &Society, No.31,2016,p. 473.其次,民事責(zé)任追究應(yīng)與智能機(jī)器人的自主性程度成反比。立法建議初衷是,一旦發(fā)生侵害事實(shí),則必然要追究責(zé)任、彌補(bǔ)受害方的損失,而不論哪一主體最終實(shí)際承擔(dān)責(zé)任。至于是否承擔(dān)責(zé)任、承擔(dān)多大責(zé)任,則取決于智能機(jī)器人的自主性程度,自主性愈高,那么承擔(dān)責(zé)任愈小。最后,建立強(qiáng)制責(zé)任保險(xiǎn)制度,要求智能機(jī)器人的生產(chǎn)者或者最終所有者負(fù)有強(qiáng)制投保義務(wù),也可設(shè)立賠償責(zé)任專(zhuān)項(xiàng)基金。曹建峰:《10大建議!看歐盟如何預(yù)測(cè)AI 立法新趨勢(shì)》,《機(jī)器人產(chǎn)業(yè)》2017年第2期。“此舉將大大減少人工智能侵權(quán)事件發(fā)生時(shí)的經(jīng)濟(jì)賠償糾紛,直接促進(jìn)人工智能行業(yè)的良性發(fā)展”。袁曾:《人工智能有限法律人格審視》,《東方法學(xué)》2017年第5期。

綜上,在探索的深度與廣度上,美國(guó)、德國(guó)、歐盟呈現(xiàn)了遞進(jìn)狀態(tài)。這些國(guó)家基于人工智能產(chǎn)品的技術(shù)特性,研究與實(shí)踐主要集中在人工智能產(chǎn)品(尤其是自動(dòng)駕駛汽車(chē)、智能機(jī)器人)實(shí)施侵害后的責(zé)任承擔(dān)問(wèn)題,它們從不同角度地將法律規(guī)制的重點(diǎn)放在了責(zé)任主體、歸責(zé)原則、事實(shí)查明、賠償方式及其衍生的隱私權(quán)保護(hù)問(wèn)題,并且提出了若干應(yīng)對(duì)機(jī)制。比較而言,德國(guó)、美國(guó)對(duì)人工智能侵權(quán)現(xiàn)象持有相對(duì)保守的態(tài)度,限于從產(chǎn)品責(zé)任角度將侵權(quán)后果歸咎于生產(chǎn)者、銷(xiāo)售者或使用者;與之不同,歐盟立法建議提出將人工智能產(chǎn)品確立為獨(dú)立的責(zé)任主體,可謂對(duì)傳統(tǒng)民事責(zé)任原理的挑戰(zhàn)和創(chuàng)新。究其原因,這一差別的根源在于它們對(duì)現(xiàn)階段人工智能侵權(quán)現(xiàn)狀及后果的可控程度存有不同認(rèn)識(shí),歐盟立法建議的背景是人工智能產(chǎn)品的大規(guī)模應(yīng)用趨勢(shì),它甚至列明了銷(xiāo)售及申請(qǐng)專(zhuān)利的具體數(shù)字,而且也意識(shí)到它們現(xiàn)已具備、未來(lái)必然愈加成熟的“超強(qiáng)大腦”及擬人屬性,因此取得獨(dú)立人格并非毫無(wú)根據(jù)。遺憾的是,歐盟立法建議僅是單純提出智能機(jī)器人應(yīng)當(dāng)取得獨(dú)立人格,卻沒(méi)有說(shuō)明具體如何讓它們承擔(dān)責(zé)任。德國(guó)與美國(guó)不認(rèn)為目前人工智能侵權(quán)的復(fù)雜程度及后果足以根本改變現(xiàn)有侵權(quán)責(zé)任制度,按既有的產(chǎn)品質(zhì)量責(zé)任規(guī)則追究生產(chǎn)者、銷(xiāo)售者及使用者責(zé)任業(yè)已足夠。正如德國(guó)某一機(jī)器人協(xié)會(huì)的觀點(diǎn):歐盟立法建議只是看到人工智能產(chǎn)品應(yīng)用的數(shù)量規(guī)模,但沒(méi)有提及它們實(shí)際造成的損害及后果情況,目前人工智能帶來(lái)的利益遠(yuǎn)遠(yuǎn)超出弊端,就此而言,立法不宜限制其發(fā)展,給予充分討論是必要的,然而,暫不需要制定詳細(xì)的法律規(guī)則以遏制人工智能發(fā)展,Gerhard Hegmann,“So will die EU jetzt Roboter per Gesetz ba¨ndigen”, Welt, N.24, https://www.welt.de/amp/wirtschaft/article156463323/So- willdie-EU-jetzt-Roboter-per-Gesetz-baendigen.html.2017-11-22.賦予它們以獨(dú)立主體地位涉及過(guò)度超前之嫌。該協(xié)會(huì)的觀點(diǎn)具備一定合理性,但也存在偏頗,暫不考慮人工智能產(chǎn)品應(yīng)否取得獨(dú)立人格,現(xiàn)有法律規(guī)則對(duì)于人工智能侵權(quán)責(zé)任之認(rèn)定與處理早已捉襟見(jiàn)肘,正因此,德國(guó)、美國(guó)、歐盟上述立法趨勢(shì)均已對(duì)原先規(guī)則做了調(diào)整和更新,具體表現(xiàn)為如下類(lèi)似做法:針對(duì)歸責(zé)原則而言,均結(jié)合責(zé)任主體對(duì)人工智能系統(tǒng)的掌控水平,將控制能力最強(qiáng)的生產(chǎn)者確立為嚴(yán)格責(zé)任,控制能力稍弱的銷(xiāo)售者、使用者為過(guò)錯(cuò)責(zé)任;鑒于人工智能產(chǎn)品侵權(quán)過(guò)程高度復(fù)雜、侵權(quán)事實(shí)及因果關(guān)系難以查明,均通過(guò)立法強(qiáng)制要求采取技術(shù)手段(如安裝黑匣子)以記錄和留存數(shù)據(jù)信息,同時(shí)注意避免造成個(gè)人隱私信息的泄露和侵犯;考慮到統(tǒng)一規(guī)范管理、確立責(zé)任評(píng)價(jià)的標(biāo)準(zhǔn),制定了人工智能產(chǎn)品生產(chǎn)及使用的一系列技術(shù)與安全規(guī)則;除了法律措施以外,也積極探索在道德規(guī)范層面引導(dǎo)人工智能系統(tǒng)的設(shè)計(jì)人員及系統(tǒng)本身確立遏制侵害的意識(shí)或目標(biāo),從根源上避免人工智能侵權(quán)的發(fā)生。此外,它們也有各具特色的侵權(quán)責(zé)任處理方式,例如歐盟立法建議提出建立強(qiáng)制責(zé)任保險(xiǎn)以及賠償責(zé)任專(zhuān)項(xiàng)基金,這有助于受害方及時(shí)受償,并且使得生產(chǎn)者避免過(guò)高賠付而影響正常經(jīng)營(yíng)、保持人工智能技術(shù)開(kāi)發(fā)的積極性;美國(guó)則建立了存在侵害風(fēng)險(xiǎn)的自動(dòng)駕駛汽車(chē)召回制度,剝奪了肇事車(chē)輛上路行駛的資格,以避免它的人工智能系統(tǒng)再次做出侵害他人的指令。無(wú)論是參考這些國(guó)家的經(jīng)驗(yàn),還是總結(jié)其存在的不足,均有助于周延、理智、客觀地看待與解決我國(guó)人工智能所涉民事責(zé)任問(wèn)題。

三、我國(guó)人工智能產(chǎn)品民事責(zé)任制度的構(gòu)建

隨著人工智能產(chǎn)品的廣泛普及,人類(lèi)大部分活動(dòng)所涉及的數(shù)據(jù)均提交到人工智能創(chuàng)造的超強(qiáng)大腦,由其進(jìn)行儲(chǔ)存、分類(lèi)、分析乃至判斷與決策,這一系列過(guò)程對(duì)于人類(lèi)而言是非常隱蔽和難以理解的,由此導(dǎo)致人類(lèi)被人工智能牽著鼻子走,此時(shí),人類(lèi)將脫離法律或道德的規(guī)制,陷入交由設(shè)計(jì)者所植入算法進(jìn)行統(tǒng)治的怪圈。Michael Rundle,“Zuckerberg: Telepathy is the Future of Facebook”,Wired UK,http://www. wired.co.uk/article/facebook-zuckerberg-qa-the-future.2017-11-28. 在此背景下,人工智能產(chǎn)品造成的侵害必然使得人類(lèi)摸不著頭腦、無(wú)所適從,其危害后果更是讓人無(wú)法想象。因此,無(wú)論是參考國(guó)外做法,還是考慮到上述現(xiàn)狀,針對(duì)人工智能引起的民事責(zé)任予以特殊規(guī)制已是大勢(shì)所趨。

(一)針對(duì)人工智能產(chǎn)品的特殊規(guī)制

對(duì)于人工智能產(chǎn)品實(shí)施侵害的責(zé)任主體,美國(guó)、德國(guó)、歐盟均將生產(chǎn)者、銷(xiāo)售者以及使用者納入其中,但是否將人工智能產(chǎn)品視為擁有獨(dú)立人格的責(zé)任主體?歐盟立法建議是倡導(dǎo)賦予智能機(jī)器人以擬制的法律人格。但遺憾的是,歐盟立法建議僅提出了賦予智能機(jī)器人以獨(dú)立法律地位的訴求,卻沒(méi)有具體解決賦予獨(dú)立法律地位后權(quán)利、義務(wù)與責(zé)任分配的規(guī)則設(shè)計(jì)。應(yīng)當(dāng)將實(shí)施侵害的智能機(jī)器人交由受害方或其親屬處置?還是予以限制自由、召回或者銷(xiāo)毀?還是讓智能機(jī)器人自己承擔(dān)賠償?這幾種方案都沒(méi)有解決實(shí)際問(wèn)題,因?yàn)橹悄軝C(jī)器人無(wú)法支付金錢(qián),最終仍需其背后的生產(chǎn)者、銷(xiāo)售者或所有者承擔(dān)責(zé)任,限制自由、召回或銷(xiāo)毀也只是防止它“繼續(xù)作惡”,此外沒(méi)有其他意義,甚至可能引起過(guò)度限制或剝奪了他人財(cái)產(chǎn)權(quán)的嫌疑。因此,無(wú)論采取上述何種責(zé)任方式,最終仍是自然人或其集合(例如法人)承擔(dān)不利后果,其結(jié)果是智能機(jī)器人取得獨(dú)立人格毫無(wú)意義。此外,立法建議提出了建立強(qiáng)制責(zé)任保險(xiǎn)制度、責(zé)任賠償基金,這似乎也否定了取得獨(dú)立人格的必要性,原因是保險(xiǎn)和基金就可以圓滿(mǎn)完成金錢(qián)賠付,智能機(jī)器人能否自行承擔(dān)責(zé)任已無(wú)關(guān)緊要。從技術(shù)角度考慮,智能機(jī)器人是由人類(lèi)設(shè)計(jì)與生產(chǎn)出來(lái)的,它們實(shí)施各類(lèi)操作之目的完全取決于人類(lèi)事先輸入的有限程序或指令,鐘義信:《人工智能:“熱鬧”背后的“門(mén)道”》,《科技導(dǎo)報(bào)》2016年第34期。并不具備人類(lèi)的靈性、意識(shí)或精神,也離不開(kāi)人類(lèi)的保養(yǎng)、維護(hù)與監(jiān)控。此外,若要人工智能產(chǎn)品得以擔(dān)當(dāng)獨(dú)立的主體地位、實(shí)施獨(dú)立的行為、承擔(dān)獨(dú)立的責(zé)任,離不開(kāi)各類(lèi)法律、政策及道德規(guī)范的體系化支持與調(diào)整,然而,在這些規(guī)范嚴(yán)重缺失的目前狀態(tài)下,不宜賦予人工智能產(chǎn)品以上述獨(dú)立地位和權(quán)能,否則將導(dǎo)致其運(yùn)作偏離可允許的合理限度,難以預(yù)見(jiàn)可能引起的混亂后果。因此,人工智能產(chǎn)品取得獨(dú)立人格仍缺少充足的理由。

盡管人工智能產(chǎn)品并不具備獨(dú)立責(zé)任主體的條件,但不意味著無(wú)需考慮其特性而施以專(zhuān)門(mén)規(guī)制,以滿(mǎn)足妥善處置致人損害民事責(zé)任之必需。人類(lèi)并不熟悉人工智能系統(tǒng)的運(yùn)作思路、原理、算法或者程序。它們對(duì)人身健康及財(cái)產(chǎn)造成損害的概率、原因、過(guò)程及后果更是難以預(yù)測(cè),必然引起社會(huì)公眾的恐懼或抵觸。對(duì)此,有學(xué)者認(rèn)為:“部分應(yīng)用基礎(chǔ)較好的機(jī)器人,我國(guó)應(yīng)當(dāng)加快制定專(zhuān)門(mén)的安全管理規(guī)定”,張玉潔:《論人工智能時(shí)代的機(jī)器人權(quán)利及風(fēng)險(xiǎn)規(guī)制》,《東方法學(xué)》2017年第6期。以便加強(qiáng)監(jiān)管,回應(yīng)社會(huì)訴求。因此,有必要對(duì)于人工智能產(chǎn)品本身確立必要的規(guī)制、監(jiān)管或處置機(jī)制,主要包括三項(xiàng)舉措:其一,針對(duì)人工智能這一新的現(xiàn)象,有必要從根源上探究、識(shí)別與規(guī)避人工智能產(chǎn)品致人損害的內(nèi)在原由,法律規(guī)范一般存在僵硬、滯后、瑣碎等缺陷,難以實(shí)現(xiàn)一步到位的有效規(guī)制,相比之下,更宜先確立相對(duì)彈性的倫理道德規(guī)范,待時(shí)機(jī)成熟后再上升為強(qiáng)制立法。在人工智能算法高深復(fù)雜、侵權(quán)過(guò)程難以查明的狀況下,對(duì)于生產(chǎn)設(shè)計(jì)者施以道德規(guī)制將有助于避免或降低算法產(chǎn)生缺陷的可能。為此,可考慮借鑒德國(guó)做法,成立專(zhuān)門(mén)的人工智能倫理組織,由其研究與制定人工智能系統(tǒng)生產(chǎn)設(shè)計(jì)所應(yīng)遵守的倫理指導(dǎo)準(zhǔn)則,引導(dǎo)和規(guī)范生產(chǎn)者、設(shè)計(jì)者在意識(shí)與行為上建立以保護(hù)人類(lèi)生命為核心的具體道德準(zhǔn)則,也可作為生產(chǎn)設(shè)計(jì)者主觀過(guò)錯(cuò)之評(píng)價(jià)參考。其二,可參考?xì)W盟立法建議,針對(duì)智能機(jī)器人、自動(dòng)駕駛汽車(chē)或船舶等高度自主化的人工智能產(chǎn)品施行登記公示制度,登記宜采取實(shí)質(zhì)審查而非形式審查,從而嚴(yán)格把關(guān)人工智能系統(tǒng)的技術(shù)安全性,這有助于增強(qiáng)社會(huì)公眾對(duì)人工智能的信任,登記公示信息也可作為評(píng)判人工智能系統(tǒng)有無(wú)缺陷、是否滿(mǎn)足安全標(biāo)準(zhǔn)的參考。其三,雖然人工智能產(chǎn)品本身無(wú)需承擔(dān)經(jīng)濟(jì)賠償責(zé)任,仍有必要追究實(shí)際肇事之“物”的合理責(zé)任,原因是人們往往無(wú)法弄清它究竟如何實(shí)施侵害,也難保日后它再次實(shí)施侵害,如果保留和繼續(xù)使用,則安全風(fēng)險(xiǎn)依然存在。基于此,可考慮參考美國(guó)做法,針對(duì)已發(fā)生侵害行為、存在安全風(fēng)險(xiǎn)的人工智能產(chǎn)品,建立強(qiáng)制銷(xiāo)毀或召回制度。李欲曉:《物聯(lián)網(wǎng)安全相關(guān)法律問(wèn)題研究》,《法學(xué)論壇》2014年第6期。

(二)確立差別化的歸責(zé)原則

如前所述,是否承擔(dān)責(zé)任、承擔(dān)多大責(zé)任應(yīng)與與人工智能系統(tǒng)的自主性程度成反比。生產(chǎn)者直接設(shè)計(jì)并決定了人工智能系統(tǒng)的算法設(shè)計(jì)、自主性能、智能水平,相比之下,銷(xiāo)售者、使用者仍停留在人工智能產(chǎn)品的交易與應(yīng)用層面,他們幾乎不了解人工智能系統(tǒng)最基本的運(yùn)作原理,更何談控制。因此,生產(chǎn)者、銷(xiāo)售者、使用者之間的責(zé)任原則必然存在區(qū)別。

生產(chǎn)者擔(dān)當(dāng)人工智能產(chǎn)品的“啟蒙”,理應(yīng)適用嚴(yán)格責(zé)任,日本、美國(guó)及歐盟均持有此態(tài)度,這也是基于人工智能技術(shù)的內(nèi)在屬性與要求。人工智能系統(tǒng)幾乎擺脫了人類(lèi)操控,因而人類(lèi)在主觀上的故意或過(guò)失已無(wú)多大意義,更有必要關(guān)注侵害引起的事實(shí)與損失,這契合嚴(yán)格責(zé)任之初衷。一旦人工智能系統(tǒng)引起了事故、造成了損害,證明系統(tǒng)自身缺陷、侵害原因、因果關(guān)系將會(huì)異常困難,如仍堅(jiān)持過(guò)錯(cuò)責(zé)任,將無(wú)異于排除了生產(chǎn)者承擔(dān)責(zé)任的可能,導(dǎo)致受害方難以取得充分救濟(jì)、有失公平。因此,生產(chǎn)者適用嚴(yán)格責(zé)任更為適宜。然而,嚴(yán)格責(zé)任的不利后果是加大了生產(chǎn)者的責(zé)任,甚至打消其研發(fā)技術(shù)、拓展經(jīng)營(yíng)的積極性。鑒于此,歐盟立法建議中提及的強(qiáng)制責(zé)任保險(xiǎn)、賠償責(zé)任基金有助于轉(zhuǎn)移生產(chǎn)者的賠償負(fù)擔(dān)。我國(guó)可參考該做法,通過(guò)法律規(guī)則強(qiáng)制要求人工智能產(chǎn)品的生產(chǎn)者投保責(zé)任保險(xiǎn),或建立專(zhuān)項(xiàng)賠償責(zé)任基金,經(jīng)費(fèi)來(lái)源可包含社會(huì)捐助、財(cái)政撥款、生產(chǎn)者分?jǐn)偟?。值得注意的是,生產(chǎn)者承擔(dān)嚴(yán)格責(zé)任的必要前提為人工智能系統(tǒng)自身存在缺陷,但如何認(rèn)定缺陷是非常困難的。對(duì)此,可參考美國(guó)做法,由科技管理相關(guān)行政部門(mén)或行業(yè)協(xié)會(huì)制定統(tǒng)一的人工智能相應(yīng)安全標(biāo)準(zhǔn),可作為判定有無(wú)缺陷的參考。例如,國(guó)家郵政局在2013年發(fā)布了《中華人民共和國(guó)郵政行業(yè)標(biāo)準(zhǔn):智能快件箱》,詳述了智能快件箱的功能需求、硬件配置及控制系統(tǒng)等方面的標(biāo)準(zhǔn),較好發(fā)揮了上述功用。除此之外,針對(duì)自動(dòng)駕駛汽車(chē)或船舶等具備更高自主性能的人工智能產(chǎn)品,制定專(zhuān)項(xiàng)的安全技術(shù)標(biāo)準(zhǔn)尤為必要。

銷(xiāo)售者、使用者與生產(chǎn)者不同,它們不介入人工智能系統(tǒng)的設(shè)計(jì)與生產(chǎn)過(guò)程,也完全不掌握算法、程序或指令,因而無(wú)必要對(duì)系統(tǒng)自身缺陷承擔(dān)責(zé)任,僅需依據(jù)各自的注意義務(wù)范圍,承擔(dān)有限的過(guò)錯(cuò)責(zé)任。具體而言,銷(xiāo)售者的過(guò)錯(cuò)責(zé)任主要表現(xiàn)為進(jìn)貨檢查與驗(yàn)收不當(dāng)、驗(yàn)明合格證明或標(biāo)識(shí)不當(dāng)以及保持產(chǎn)品質(zhì)量不當(dāng)?shù)确矫?使用者的過(guò)錯(cuò)責(zé)任則主要表現(xiàn)為對(duì)人工智能系統(tǒng)的管理、改裝、使用或其他不當(dāng)行為。

(三)事實(shí)查明與隱私保護(hù)的共生

人工智能系統(tǒng)的算法如此復(fù)雜與不透明,使得證明其自身存在缺陷很不輕松,也嚴(yán)重阻礙了侵害原由、過(guò)程、因果關(guān)系及目的等事實(shí)的追溯。究竟是算法自身缺陷引起了侵害?還是人工智能系統(tǒng)基于算法而自主實(shí)施了侵害?這兩類(lèi)事實(shí)將產(chǎn)生迥然不同的法律后果,前者導(dǎo)致生產(chǎn)者對(duì)算法缺陷承擔(dān)嚴(yán)格責(zé)任,后者則使生產(chǎn)者擺脫了責(zé)任。因此,探求復(fù)原事實(shí)真相的路徑變得尤為重要??陀^而言,這更多是一個(gè)技術(shù)問(wèn)題,而非純粹的法律問(wèn)題。立法機(jī)關(guān)、司法機(jī)關(guān)都無(wú)力掌握高深的算法或代碼,他們通常探究這些復(fù)雜問(wèn)題的本質(zhì)特征,據(jù)此確立一般性的簡(jiǎn)易規(guī)則加以解決。基于此,從法律角度審視,為了更準(zhǔn)確地查明侵害事實(shí),可考慮由生產(chǎn)者承擔(dān)嚴(yán)格責(zé)任的前提下,由其進(jìn)一步承擔(dān)證明人工智能系統(tǒng)不存在缺陷,或缺陷與損害事實(shí)之間無(wú)因果關(guān)系的義務(wù)及不利后果,這一處理原則導(dǎo)源于生產(chǎn)者作為“最接近真相”的設(shè)計(jì)與制造者身份,也是歸因于生產(chǎn)者在理解算法或代碼等方面的天然優(yōu)勢(shì),有助于解決事實(shí)查明之現(xiàn)實(shí)困境。尤為重要的是,有必要依托法律規(guī)則的規(guī)定,強(qiáng)制要求生產(chǎn)者對(duì)人工智能系統(tǒng)運(yùn)作完成全程化、可視化、數(shù)據(jù)化的監(jiān)控,以確保侵害事實(shí)發(fā)生原因及過(guò)程的透明最大化。因此,可參照德國(guó)《道路交通法》,要求生產(chǎn)者在自動(dòng)駕駛汽車(chē)或船舶及其他人工智能產(chǎn)品上安裝黑匣子或類(lèi)似的數(shù)據(jù)記錄裝置,并且設(shè)定數(shù)據(jù)保留的最低年限。

然而,以上兩項(xiàng)舉措也招致了侵害事實(shí)查明、隱私權(quán)保護(hù)之間的沖突。它們?cè)跀U(kuò)大算法透明度的同時(shí),也增加了生產(chǎn)者保存與披露人工智能系統(tǒng)所載信息的壓力和風(fēng)險(xiǎn),并且使得黑匣子記錄了大量的個(gè)人隱私信息,如不加強(qiáng)安全保障措施,這些信息可能面臨被侵犯和濫用的風(fēng)險(xiǎn)。鄭戈:《人工智能與法律的未來(lái)》,《探索與爭(zhēng)鳴》2017年第10期。我國(guó)可借鑒美國(guó)、德國(guó)、歐盟做法,除技術(shù)嚴(yán)密防范之外,有必要實(shí)行具體可行的法律規(guī)制,主要包括:其一,制定個(gè)人數(shù)據(jù)信息保護(hù)管理規(guī)則,既要賦予數(shù)據(jù)信息所有人或合法取得者對(duì)于電子數(shù)據(jù)的獲取、修改、刪除及其他處理權(quán)利,但也要對(duì)上述權(quán)利行使予以必要限制,例如要求至少保留一定期限,以確保事后調(diào)閱數(shù)據(jù)和舉證的完整度。其二,制定人工智能技術(shù)的隱私權(quán)保護(hù)規(guī)則,以防范隱私權(quán)受侵為目標(biāo),針對(duì)人工智能系統(tǒng)的設(shè)計(jì)、生產(chǎn)與使用提出一系列必須滿(mǎn)足的市場(chǎng)準(zhǔn)入條件、技術(shù)安全標(biāo)準(zhǔn)及違反后果,并建立數(shù)據(jù)記錄硬件載體的定期回收、銷(xiāo)毀與生物降解制度,羅茍新:《我國(guó)物聯(lián)網(wǎng)產(chǎn)業(yè)的法律維度初探——基于國(guó)際視野的慎思》,《西華師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué))》2012年第2期。以避免隱私信息遭受竊取、修改、刪除或?yàn)E用。

(責(zé)任編輯:徐遠(yuǎn)澄)

A Study on the Civil Liability for Damage Caused by

Artificial Intelligent Products

Zhang Tong

Abstract:Artificial intelligent system has been applied to many fields.However,several legal issues concerning the recognition and assumption of civil tort liability for damage caused by artificial intelligent products,such as smart robots and self-driving cars,have occurred resulting from the above features. These issues include that whether artificial intelligent products could assume responsibility independently,that it is difficult to apply the principle of fault liability and find out infringement facts and causations,all of which are new problems that Chinese traditional civil liability system never anticipates or considers. In recent years,the United States,Germany and EU have made some study and legislative attempts related to civil liability arising from artificial intelligence. By analyzing experiences and shortcomings of these countries attempts,and combining with technical properties of artificial intelligence,it is found that artificial intelligent products should not be regarded as one independent liability subject,however,it is still necessary to set up the specific moral code,public registry system and recall mechanism,to establish differentiated doctrines of liability fixation between producers,sellers and users of,and to emphasize on strengthening the producers' burden of proof,as well as record and preservation of the causes and processes of infringements on the premise of privacy protection.

Keywords:Artificial Intelligence;Humanoid Attribute;Liability in Tort;System Construction

猜你喜歡
制度構(gòu)建侵權(quán)責(zé)任人工智能
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
論消費(fèi)者后悔權(quán)
法制博覽(2016年12期)2016-12-28 19:10:23
消費(fèi)欺詐的構(gòu)成要件及侵權(quán)責(zé)任問(wèn)題研究
法制博覽(2016年12期)2016-12-28 13:29:59
農(nóng)村集體經(jīng)濟(jì)組織收益分配糾紛解決的路徑選擇
論人工智能產(chǎn)品侵權(quán)行為責(zé)任認(rèn)定
商(2016年33期)2016-11-24 23:34:02
試論我國(guó)行政訴訟調(diào)解制度的構(gòu)建
法制博覽(2016年11期)2016-11-14 10:34:05
網(wǎng)約出租車(chē)交通事故責(zé)任認(rèn)定
法制博覽(2016年11期)2016-11-14 09:46:13
論侵權(quán)責(zé)任的違法性要件
商(2016年27期)2016-10-17 06:45:36
福鼎市| 深州市| 屏南县| 晋宁县| 密山市| 霸州市| 称多县| 吐鲁番市| 孟村| 韶山市| 玛曲县| 江陵县| 子洲县| 东海县| 武功县| 竹溪县| 自贡市| 延川县| 容城县| 迁安市| 凌源市| 中江县| 孝昌县| 淄博市| 安丘市| 七台河市| 东宁县| 二连浩特市| 淮滨县| 佳木斯市| 乌什县| 思南县| 沙洋县| 普格县| 福清市| 瓮安县| 买车| 库尔勒市| 仁怀市| 景洪市| 米林县|