周 鑫,徐海東
(1.銅仁學(xué)院銅仁市文化科技產(chǎn)業(yè)創(chuàng)新研究中心與重慶大學(xué)法學(xué)院聯(lián)合博士后站,貴州銅仁 554300;2.黔南民族師范學(xué)院歷史與民族學(xué)院,貴州都勻 558000;3.廊坊師范學(xué)院社會(huì)發(fā)展學(xué)院,河北廊坊 065000)
在人工智能侵權(quán)案件歸責(zé)判斷中,智能機(jī)器人是具有獨(dú)立性的主體,可以“自主決定”一定的行為??傮w上看,智能機(jī)器人具有以下特點(diǎn)。(1)專業(yè)性。如果說法人是商業(yè)社會(huì)發(fā)展到一定階段的必然產(chǎn)物,那么人工智能則是科技發(fā)展?jié)M足人類生產(chǎn)、生活需求的必然結(jié)果。人工智能的創(chuàng)意、程序設(shè)計(jì)或開發(fā)工作雖然可能由某個(gè)人或某一團(tuán)隊(duì)具體操作完成,但是要想形成規(guī)模和產(chǎn)業(yè),必須依靠大型集團(tuán)或政府機(jī)構(gòu)。因?yàn)槿斯ぶ悄茏鳛橐豁?xiàng)新的科技成果,只有具備充足的人才儲(chǔ)備、雄厚的資金基礎(chǔ)和強(qiáng)大的經(jīng)濟(jì)規(guī)模的實(shí)體才能涉足這一領(lǐng)域。(2)不透明性。由于智能機(jī)器人的設(shè)計(jì)程序、內(nèi)在運(yùn)轉(zhuǎn)系統(tǒng)及工作機(jī)理是設(shè)計(jì)者、開發(fā)公司的專利,普通人無法知曉,更無法獲知智能機(jī)器人是如何“思考”和如何做出決定的。(3)不可預(yù)測(cè)性。智能機(jī)器人在設(shè)計(jì)者創(chuàng)設(shè)的程序運(yùn)行的基礎(chǔ)上,對(duì)接收到的大量數(shù)據(jù)進(jìn)行分析、計(jì)算和編程,生成新的程序指令,形成“自主的決定”。這一過程可能是智能系統(tǒng)設(shè)計(jì)者最初期待的結(jié)果,或許將超出設(shè)計(jì)者的掌控,因此智能機(jī)器人雖然是人類設(shè)計(jì)制造的產(chǎn)物,但是將來其行為及引發(fā)的后果很可能超越人類設(shè)想的范圍。(4)難防控性。基于智能機(jī)器人的不透明性及其行為的不可預(yù)見性,智能機(jī)器人在獲取了與預(yù)定規(guī)則不一致的信息后,一旦依據(jù)自己的計(jì)算和“思考”而出現(xiàn)異常反應(yīng),就可能“完全自主”地做出有損他人權(quán)益的決策。人類對(duì)此情形難以預(yù)防,而只能在嗣后予以補(bǔ)救。因而,囿于智能機(jī)器人的上述特性及其設(shè)計(jì)的高端性和結(jié)構(gòu)的復(fù)雜性,由被害人來證明人工智能存在過錯(cuò)與否顯然不公平。在這種情況下,侵權(quán)案件裁決更宜適用無過錯(cuò)責(zé)任的歸責(zé)原則。
人工智能介入司法程序的載體是智能機(jī)器。就智能機(jī)器造成的損害而言,其管理人應(yīng)當(dāng)適用無過錯(cuò)責(zé)任,這是符合無過錯(cuò)責(zé)任制度的本意的。無過錯(cuò)責(zé)任制度源于資本主義機(jī)器大生產(chǎn)時(shí)代[1]650,設(shè)立該制度的目的之一就是保障機(jī)器事故中的受害者能得到賠償。機(jī)器大生產(chǎn)造成的事故,依據(jù)過錯(cuò)責(zé)任無法給予受害者賠償,無過錯(cuò)責(zé)任應(yīng)運(yùn)而生。無過錯(cuò)責(zé)任最早出現(xiàn)在普魯士王國(guó)1838 年的《鐵路企業(yè)法》中,1839年《礦業(yè)法》將其擴(kuò)大到礦害賠償領(lǐng)域。德國(guó)1884 年的《勞工傷害賠償法》規(guī)定了工業(yè)事故社會(huì)保險(xiǎn)制度,確立了事故責(zé)任的無過錯(cuò)責(zé)任制度。此后,無過錯(cuò)責(zé)任原則被廣泛應(yīng)用于社會(huì)各個(gè)方面。就這一點(diǎn)而言,機(jī)器生產(chǎn)與人工智能服務(wù)在無過錯(cuò)責(zé)任應(yīng)用方面完全契合。
當(dāng)然,無過錯(cuò)責(zé)任原則的適用需要有明確的法律規(guī)定,不僅需要有《民法典》關(guān)于侵權(quán)的原則性規(guī)定,還需要有相關(guān)法律如《產(chǎn)品質(zhì)量法》關(guān)于特殊侵權(quán)損害的規(guī)定。有學(xué)者提出可以對(duì)人工智能專門立法[2],在相關(guān)條文中規(guī)定無過錯(cuò)責(zé)任原則,即使未來人工智能成為民事主體,依據(jù)對(duì)其適用的監(jiān)護(hù)制度,無過錯(cuò)責(zé)任也適用于監(jiān)護(hù)人,這與現(xiàn)有法律并不沖突。
既然依據(jù)無過錯(cuò)責(zé)任原則免責(zé)事由是成立的,那么人工智能侵權(quán)也不例外。在任何人工智能侵權(quán)損害中,管理人是可以有免責(zé)事由的。管理人唯一的免責(zé)事由就是生產(chǎn)瑕疵,此時(shí)責(zé)任推向生產(chǎn)者與銷售者。而生產(chǎn)者和銷售者的免責(zé)事由適用產(chǎn)品責(zé)任,即證明現(xiàn)有技術(shù)尚不足以發(fā)現(xiàn)該產(chǎn)品瑕疵。這樣做雖然加重了生產(chǎn)者的注意義務(wù)與道德責(zé)任,但好處是反向加強(qiáng)了生產(chǎn)者的技術(shù)研發(fā)精準(zhǔn)度壓力和管理人的管理注意義務(wù)。
為保障人工智能的賠償能力,不少學(xué)者提出應(yīng)當(dāng)強(qiáng)制繳納保險(xiǎn)與賠償基金[3],在人工智能造成侵權(quán)時(shí)用于賠付給受害方。這就要求在研發(fā)、生產(chǎn)和消費(fèi)的各個(gè)環(huán)節(jié),生產(chǎn)者、銷售者和消費(fèi)者需要分別繳納相應(yīng)費(fèi)用,用來購(gòu)買保險(xiǎn)或設(shè)立專項(xiàng)基金。人工智能可以通過“勞動(dòng)”獲得報(bào)酬,以此作為基金來源,在侵權(quán)時(shí)向受害方做出賠償。保險(xiǎn)或基金是強(qiáng)制性的,只要人工智能構(gòu)成損害需要賠償,均由保險(xiǎn)公司或基金先行賠償,不足部分由責(zé)任人進(jìn)行賠償。當(dāng)然,這需要保險(xiǎn)公司提供新險(xiǎn)種、相關(guān)基金會(huì)提供配套服務(wù)。
責(zé)任承擔(dān)涉及技術(shù)干預(yù)與責(zé)任承擔(dān)的分配比例問題。在從研發(fā)到使用的過程中,所有參與者承擔(dān)的人工智能的侵權(quán)責(zé)任與他們對(duì)該人工智能的影響成正相關(guān)。也就是說,對(duì)人工智能的影響越大,承擔(dān)的侵權(quán)責(zé)任應(yīng)當(dāng)越重。從研發(fā)、生產(chǎn)到銷售再到使用,人類對(duì)人工智能的干預(yù)度逐漸減弱。研發(fā)過程直接決定了人工智能的性質(zhì)功能、智能等級(jí)、服務(wù)對(duì)象、操作方式;生產(chǎn)決定了人工智能的外觀形式與使用壽命;消費(fèi)終端的影響僅限于對(duì)人工智能的“教育”:后一環(huán)節(jié)均建立在先前環(huán)節(jié)的基礎(chǔ)上。如果人工智能出現(xiàn)侵權(quán)問題,作為使用者的管理人要提供“產(chǎn)品瑕疵”證明就很困難,甚至有些管理人并非人工智能的實(shí)際操作者,要舉證“產(chǎn)品瑕疵”就更加困難。當(dāng)人工智能侵權(quán)出現(xiàn)時(shí),管理人免責(zé)需要證明產(chǎn)品制造有瑕疵,生產(chǎn)銷售者免責(zé)需要證明他們生產(chǎn)時(shí)現(xiàn)有技術(shù)尚無法預(yù)見這一瑕疵帶來的問題。相比之下,管理人的責(zé)任要輕于生產(chǎn)者。生產(chǎn)者、銷售者、消費(fèi)者(管理人或使用人)對(duì)人工智能的影響逐漸減弱,承擔(dān)的侵權(quán)責(zé)任依次遞減,這是合理的。
與技術(shù)發(fā)展密切相關(guān)的因素是工程師的道德操守。人工智能的技術(shù)發(fā)展并不單指科學(xué)技術(shù)的進(jìn)步,更在于人工智能技術(shù)工程師道德操守的提高[4]。人工智能的自主性與人類的操控度成負(fù)相關(guān),又與人類生活的便捷程度成正相關(guān)。人類某項(xiàng)偉大創(chuàng)造可以對(duì)人類有益,也可能給人類造成損害,未來人工智能將會(huì)與人類在長(zhǎng)期博弈中共存。于是,人工智能被創(chuàng)造的目的與它在博弈過程中的表現(xiàn)有著密切關(guān)系,這對(duì)人工智能的制造者提出了極高的道德要求。目前世界各國(guó)對(duì)人工智能工程師的行為操守有共同的要求,即尊重人類尊嚴(yán)、遵守人類道德、保障人類安全、保護(hù)人類隱私。如果違反以上準(zhǔn)則,后果不堪設(shè)想?!氨U先祟惏踩?、保護(hù)人類隱私”的道德操守在未來人類與人工智能的博弈過程中舉足輕重,制造者必須嚴(yán)格遵守。
人工智能是物不是人,其侵權(quán)責(zé)任應(yīng)該由管理人承擔(dān)。管理人可以是生產(chǎn)制造者,可以是使用者,還可以是登記授權(quán)的其他相關(guān)利益人。此時(shí)責(zé)任問題是產(chǎn)品責(zé)任,也是生產(chǎn)者、銷售者的責(zé)任,但是需要分清責(zé)任事故因何而起。事故的產(chǎn)生是設(shè)計(jì)人的技術(shù)漏洞,還是操作人的不當(dāng)使用,或者是智能機(jī)器人超越原控制方案的擅自所為,是此類事故責(zé)任追究需要明確的。
有損害就會(huì)有賠償,而賠償?shù)氖滓?zé)任應(yīng)當(dāng)由過錯(cuò)方承擔(dān),即誰導(dǎo)致了損害,就由誰來進(jìn)行賠償,這才是合理的。對(duì)于自然人而言,賠償責(zé)任與侵權(quán)責(zé)任是統(tǒng)一的,但對(duì)于人工智能而言,賠償責(zé)任與侵權(quán)責(zé)任可能不統(tǒng)一,因?yàn)槿斯ぶ悄苁俏?,無法承擔(dān)侵權(quán)責(zé)任。然而,與一般機(jī)器侵權(quán)的無過錯(cuò)責(zé)任不同的是,人工智能可以用相關(guān)保險(xiǎn)賠付金、基金或勞動(dòng)報(bào)酬來支付損害賠償。管理人的責(zé)任程度與人工智能賠償數(shù)額不一定成正相關(guān),因?yàn)榭赡軙?huì)出現(xiàn)管理人為人工智能損害賠償?shù)牟蛔悴糠痔峁┭a(bǔ)償?shù)那闆r。因此,現(xiàn)有法律有關(guān)條款內(nèi)容需要調(diào)整,對(duì)管理人的補(bǔ)充賠償責(zé)任進(jìn)行具體規(guī)定。
人工智能損害賠償、責(zé)任承擔(dān)與技術(shù)發(fā)展的平衡點(diǎn)在于管理人與生產(chǎn)者對(duì)人工智能侵權(quán)責(zé)任的補(bǔ)充賠償責(zé)任。如果是人工智能產(chǎn)品本身的瑕疵,可以依照產(chǎn)品責(zé)任來規(guī)制;如果是人工智能管理人的失誤,則應(yīng)當(dāng)追究管理人的侵權(quán)責(zé)任。人工智能發(fā)生侵權(quán)事故時(shí),損害賠償由人工智能自身的保險(xiǎn)賠付金、基金和報(bào)酬賠償,不足部分由侵權(quán)責(zé)任承擔(dān)者補(bǔ)充賠償。如果管理人確實(shí)盡到了注意義務(wù)并且成功舉證侵害是由人工智能機(jī)器本身的“自主性”問題造成的,賠償責(zé)任就應(yīng)該由生產(chǎn)者承擔(dān)。同理,生產(chǎn)者賠償前也可以根據(jù)產(chǎn)品責(zé)任主張免責(zé)事由,而技術(shù)發(fā)展的限制確實(shí)可能會(huì)免除生產(chǎn)者的賠償責(zé)任,使受害者無法得到管理人及生產(chǎn)者的任何一方的補(bǔ)充賠償。需要說明的是,損害賠償?shù)墓芾砣伺c生產(chǎn)者之間并不承擔(dān)連帶責(zé)任。前文已述,每個(gè)環(huán)節(jié)的相關(guān)利益人對(duì)于人工智能的影響程度不同。單就造成損害結(jié)果看,管理人的注意義務(wù)應(yīng)當(dāng)強(qiáng)于生產(chǎn)者的技術(shù)設(shè)定義務(wù),所以損害賠償責(zé)任應(yīng)當(dāng)先由管理人承擔(dān),當(dāng)管理人免責(zé)事由出現(xiàn)時(shí)再將責(zé)任推向生產(chǎn)者。處于弱勢(shì)的受害者在無法獲得足額賠償時(shí),只能按法律規(guī)定通過提高人工智能的保險(xiǎn)金或基金數(shù)額進(jìn)行彌補(bǔ)。于是,在人工智能的制造、流通、服務(wù)的各環(huán)節(jié),監(jiān)管部門應(yīng)當(dāng)充分發(fā)揮監(jiān)管作用,加強(qiáng)監(jiān)管力度,保證人工智能保險(xiǎn)金和基金數(shù)額足以承擔(dān)其日后可能產(chǎn)生的侵權(quán)后果。這就需要配套的法律規(guī)定提供保障,促使監(jiān)管機(jī)構(gòu)在設(shè)立保險(xiǎn)和基金規(guī)則時(shí)嚴(yán)格對(duì)人工智能進(jìn)行盡可能精準(zhǔn)的預(yù)測(cè)。人工智能自主程度越高,造成的傷害可能越嚴(yán)重,那么與它對(duì)應(yīng)的保險(xiǎn)金和基金數(shù)額就應(yīng)當(dāng)越高,以此來保障它能夠獨(dú)立承擔(dān)損害賠償責(zé)任。
一般來說,有關(guān)人工智能的法律調(diào)整往往落后于科學(xué)技術(shù)的更新,法律的滯后性和科技的快速發(fā)展決定了有關(guān)人工智能的法律規(guī)范的制定晚于人工智能問題的出現(xiàn)。因而,需要針對(duì)當(dāng)前人工智能侵權(quán)責(zé)任認(rèn)定問題采取相應(yīng)的措施。
與普通機(jī)器相比,人工智能更加自主和聰慧,這一點(diǎn)源于對(duì)人類的模仿。人工智能侵權(quán)與一般侵權(quán)相比,主要不同點(diǎn)在于人工智能具有高度自主性卻無法認(rèn)定其是否具有“主觀過錯(cuò)”。人工智能侵權(quán)出現(xiàn)后,現(xiàn)有法律的弊端隨之顯現(xiàn)。人工智能是具有自主性的機(jī)器,是既有人性又有物性的“矛盾體”。其“物”性使侵權(quán)的過錯(cuò)無法認(rèn)定,其“人”性又使得人工智能不完全受控于人的意志。于是,人工智能侵權(quán)不可適用一般侵權(quán)責(zé)任相關(guān)法規(guī),而特殊侵權(quán)規(guī)則的適用又存在弊端??梢?,傳統(tǒng)的侵權(quán)法已經(jīng)不足以解決人工智能的侵權(quán)問題。
要討論人工智能的侵權(quán)責(zé)任,首先要弄清楚它是人還是物,這是人工智能侵權(quán)責(zé)任認(rèn)定的基點(diǎn)。學(xué)界對(duì)人工智能的法律屬性的討論分為兩派。一派主張代理說和法律擬制說,認(rèn)為人工智能應(yīng)當(dāng)成為民事法律主體,可以看作法律上的“人”;另一派主張工具說和電子奴隸說,認(rèn)為人工智能是機(jī)器,是法律上的“物”。從當(dāng)前各類侵權(quán)歸責(zé)的主張來看,代理人責(zé)任、法人責(zé)任、替代責(zé)任等主張都是偏向于人工智能的“人”的屬性,或者將人工智能類比于自然人,或者將人工智能類比于法律擬制之人。而產(chǎn)品責(zé)任和動(dòng)物致人損害責(zé)任等主張,偏向于人工智能的“物”的屬性,認(rèn)為人工智能應(yīng)當(dāng)是法律上的“物”。從法理上看,人工智能不具有獨(dú)立的權(quán)利義務(wù)與責(zé)任能力,而是否具有民事法律資格歸根結(jié)底要看其是否可以獨(dú)立享有民事權(quán)利并承擔(dān)義務(wù)。只有獨(dú)立享有民事權(quán)利并承擔(dān)民事義務(wù),才能獨(dú)立承擔(dān)民事責(zé)任,否則就不具有獨(dú)立的民事主體資格。在當(dāng)前技術(shù)下,不應(yīng)當(dāng)過分強(qiáng)調(diào)人工智能的“人”之屬性,否則人類與其博弈時(shí)將失去優(yōu)勢(shì)。當(dāng)然,這并不妨礙將來科學(xué)技術(shù)和立法技術(shù)發(fā)展到更高程度時(shí)立法態(tài)度的改變。
在處理人工智能侵權(quán)問題方面,我們可以學(xué)習(xí)、借鑒國(guó)外的司法經(jīng)驗(yàn),設(shè)立專門的監(jiān)管部門,同時(shí)施行強(qiáng)制登記制度,對(duì)人工智能的數(shù)據(jù)和行為進(jìn)行監(jiān)控。對(duì)于侵權(quán)責(zé)任,適用管理人無過錯(cuò)責(zé)任原則,以減輕管理人的舉證責(zé)任。人工智能與其生產(chǎn)者、管理人之間的侵權(quán)責(zé)任分擔(dān),要在責(zé)任承擔(dān)、損害賠償和技術(shù)發(fā)展之間尋求一個(gè)平衡點(diǎn)。這個(gè)平衡點(diǎn)的關(guān)鍵在于管理人與生產(chǎn)者對(duì)人工智能侵權(quán)責(zé)任的補(bǔ)充賠償責(zé)任,其賠償責(zé)任順序依次為“人工智能—管理人—生產(chǎn)者”。人工智能發(fā)生侵權(quán)事故時(shí),損害賠償由人工智能自身的保險(xiǎn)賠付金、基金或報(bào)酬承擔(dān),不足部分由侵權(quán)責(zé)任承擔(dān)者補(bǔ)充賠償,而管理人和生產(chǎn)者之間不承擔(dān)連帶責(zé)任。