鐘曉雯
(西南政法大學(xué) 民商法學(xué)院,重慶 渝北 401120)
人工智能技術(shù)在蘊(yùn)含巨大的經(jīng)濟(jì)驅(qū)動(dòng)潛力的同時(shí),也存在因人工智能系統(tǒng)故障、系統(tǒng)自身瑕疵等原因產(chǎn)生的致人損害危機(jī)。機(jī)器人“殺人”“傷害”等侵權(quán)事件在日本、美國(guó)、德國(guó)等地屢見(jiàn)不鮮。1978年日本一家工廠的切割機(jī)器人突然“轉(zhuǎn)身”將工人抓住并切割,這是世界上第一宗機(jī)器人“殺人”事件。近年來(lái)自動(dòng)駕駛汽車在推廣運(yùn)用中也發(fā)生了侵權(quán)事例,2017年美國(guó)賭城拉斯維加斯的自動(dòng)駕駛?cè)妱?dòng)穿梭巴士?jī)H投入運(yùn)營(yíng)不到兩小時(shí)就發(fā)生撞車事件。無(wú)獨(dú)有偶,2018年美國(guó)亞利桑那州坦佩再次發(fā)生了自動(dòng)駕駛汽車致人死亡事件。自此人工智能產(chǎn)品責(zé)任、侵權(quán)責(zé)任等一直備受全球關(guān)注。
人工智能的侵權(quán)責(zé)任風(fēng)險(xiǎn)主要以三種類型存在:一是第三人通過(guò)非法入侵的方式控制人工智能系統(tǒng)進(jìn)而造成他人損害;二是人工智能系統(tǒng)的使用者因不當(dāng)使用導(dǎo)致?lián)p害后果發(fā)生;三是人工智能系統(tǒng)自身存在缺陷而致人損害。在第一種與第二種人工智能侵權(quán)類型中,人工智能以人類工具的形態(tài)存在,侵權(quán)主體仍然為行為人,與傳統(tǒng)侵權(quán)行為并無(wú)本質(zhì)區(qū)別,尚未超出現(xiàn)代侵權(quán)責(zé)任制度體系的規(guī)制范疇,可在既有法律秩序下,適用一般過(guò)錯(cuò)侵權(quán)責(zé)任進(jìn)行解決。因此,人工智能侵權(quán)責(zé)任風(fēng)險(xiǎn)的法律控制難點(diǎn)主要集中于第三種類型——人工智能系統(tǒng)自身存在缺陷致人損害的情形,下文所稱“人工智能侵權(quán)”即特指此種類型。
我國(guó)傳統(tǒng)的一般侵權(quán)責(zé)任規(guī)則遵循的是過(guò)錯(cuò)責(zé)任原則,即行為人具有過(guò)錯(cuò)是其承擔(dān)侵權(quán)責(zé)任的必要條件。然而,近年來(lái),人工智能技術(shù)的發(fā)展使得人工智能系統(tǒng)具有了一定的自主性。人工智能已經(jīng)能夠通過(guò)算法進(jìn)行深度學(xué)習(xí),從外部世界獲取大量數(shù)據(jù),并獲得相應(yīng)的知識(shí)和技能,進(jìn)而能夠在無(wú)需人類干預(yù)的情況下自主運(yùn)行,自動(dòng)駕駛汽車即為典型的示例。在此種情形下,由于人工智能是處于自主、自動(dòng)運(yùn)行狀態(tài),并未由人類直接進(jìn)行干預(yù),人類僅僅起到了設(shè)定程序的作用,一旦發(fā)生侵權(quán)事故,如何確定責(zé)任承擔(dān)者則成為一個(gè)難題。蓋因人工智能的法律主體地位問(wèn)題雖然已經(jīng)在學(xué)界引起了激辯,但并未達(dá)成共識(shí),我國(guó)法律也未明確賦予人工智能以法律主體地位,由人工智能作為侵權(quán)事故的責(zé)任承擔(dān)者不符合既有的法律秩序。同時(shí),由于人工智能的管理者、使用者、所有者等并無(wú)實(shí)施致人損害的行為,亦無(wú)法避免或阻止人工智能侵權(quán)行為的發(fā)生,且法律尚未就人工智能的管理、使用等行為規(guī)定注意義務(wù),故而同樣無(wú)法認(rèn)定他們存在過(guò)錯(cuò)。因此,一般侵權(quán)責(zé)任規(guī)則無(wú)法調(diào)整因人工智能系統(tǒng)自身存在缺陷致人損害的情形。
倘若因人工智能系統(tǒng)自身存在缺陷致人損害之情形無(wú)法適用一般侵權(quán)責(zé)任規(guī)則,那么現(xiàn)有其他侵權(quán)責(zé)任規(guī)則和理論能否解決這一問(wèn)題?除一般侵權(quán)責(zé)任規(guī)則外,我國(guó)侵權(quán)責(zé)任法中亦規(guī)定了特殊侵權(quán)責(zé)任規(guī)則,具體包括監(jiān)護(hù)人責(zé)任、用人者責(zé)任、產(chǎn)品責(zé)任、高度危險(xiǎn)責(zé)任等。在這些特殊侵權(quán)責(zé)任中,人工智能侵權(quán)更類同于高度危險(xiǎn)作業(yè),因人工智能的運(yùn)行方式與決策體系呈現(xiàn)出“黑匣子”效應(yīng),其潛在風(fēng)險(xiǎn)較大且難以控制。俄羅斯發(fā)布的《在完善機(jī)器人領(lǐng)域關(guān)系法律調(diào)整部分修改俄羅斯聯(lián)邦民法典的聯(lián)邦法律》(又稱《格里申法案》)也曾針對(duì)人工智能致人損害的情形,提出應(yīng)當(dāng)使用高度危險(xiǎn)來(lái)源占有人責(zé)任的規(guī)范[1]?,F(xiàn)代社會(huì)是一個(gè)風(fēng)險(xiǎn)社會(huì),科學(xué)技術(shù)在提高人類生活品質(zhì)的同時(shí)不可避免地創(chuàng)造出了大量危險(xiǎn)物質(zhì)和危險(xiǎn)活動(dòng),在立法中規(guī)定高度危險(xiǎn)責(zé)任的主要目的是為了敦促?gòu)氖赂叨任kU(xiǎn)作業(yè)的民事主體能夠盡到足夠高的注意義務(wù),盡力防范、避免損害的發(fā)生。然而,在人工智能領(lǐng)域,囿于人工智能已經(jīng)具有相當(dāng)?shù)膹?fù)雜性①、非透明性②以及自主性③,人類往往在對(duì)人工智能程序進(jìn)行設(shè)定后,即無(wú)法控制人工智能的運(yùn)行與發(fā)展。因此,通過(guò)高度危險(xiǎn)責(zé)任規(guī)制人工智能侵權(quán),并無(wú)法實(shí)現(xiàn)防范、避免損害發(fā)生的立法初衷。相反,這會(huì)增加人工智能管理者、使用者、所有者等的經(jīng)濟(jì)與法律負(fù)擔(dān)。
事實(shí)上,當(dāng)前的人工智能雖然具有了一定的自主性,但尚處于弱人工智能時(shí)代④。迄今為止的人工智能系統(tǒng)仍然是由人類通過(guò)算法設(shè)計(jì)、程序設(shè)定的,用以實(shí)現(xiàn)特定功能的專用智能,尚未具有與人類一樣的情感與思維能力,無(wú)法不斷適應(yīng)復(fù)雜的新環(huán)境,并涌現(xiàn)新的功能。從這一角度而言,盡管人工智能技術(shù)發(fā)展迅速,當(dāng)下的人工智能在人類社會(huì)所充當(dāng)?shù)娜匀皇恰肮ぞ摺钡慕巧?,并未超越人類視野下“物”的范疇,仍然處于人類的控制下[2]。此處并無(wú)意否認(rèn)人工智能未來(lái)超越人類,擺脫人類控制,進(jìn)入強(qiáng)人工智能或超人工智能階段,以致于無(wú)法用人類固有的法律規(guī)則進(jìn)行調(diào)整的可能性,現(xiàn)代法學(xué)體系也確應(yīng)作出前瞻性的立法考量。但對(duì)于當(dāng)前以工具形態(tài)呈現(xiàn)的人工智能侵權(quán)問(wèn)題,立法也不應(yīng)熟視無(wú)睹,而是應(yīng)當(dāng)立足于人工智能的“工具”的角色屬性,及時(shí)作出回應(yīng)。
如前述,盡管人工智能系統(tǒng)的復(fù)雜性、非透明性以及自主性使得其對(duì)現(xiàn)行侵權(quán)責(zé)任制度產(chǎn)生挑戰(zhàn),但由于當(dāng)前我國(guó)仍處于弱人工智能時(shí)代,人工智能是以人類“工具”的角色屬性存在,隸屬于“物”的范疇,故而或可考慮采用產(chǎn)品責(zé)任制度來(lái)規(guī)制人工智能侵權(quán)。人工智能系統(tǒng)是由硬件組件與智能軟件構(gòu)成,其自主性也來(lái)源于智能軟件的發(fā)展,可以說(shuō),人工智能系統(tǒng)的本質(zhì)是一個(gè)實(shí)現(xiàn)特定功能的智能軟件。因此,法律上能否將智能軟件納入“產(chǎn)品”的外延,直接決定了因智能軟件存在缺陷導(dǎo)致人工智能產(chǎn)品致人損害時(shí),能否適用產(chǎn)品責(zé)任的相關(guān)規(guī)則。
對(duì)于智能軟件能否納入產(chǎn)品責(zé)任法的“產(chǎn)品”范疇,我國(guó)立法未作出明確規(guī)定,學(xué)界對(duì)此問(wèn)題的觀點(diǎn)也存在分歧。判斷智能軟件能否納入“產(chǎn)品”范疇,需要厘清“產(chǎn)品”的概念及其外延。在比較法上,諸多國(guó)家在立法上已就“產(chǎn)品”這一概念作出界定,例如,《德國(guó)產(chǎn)品責(zé)任法》第2條規(guī)定:“產(chǎn)品是指一切動(dòng)產(chǎn),包括構(gòu)成另一動(dòng)產(chǎn)或不動(dòng)產(chǎn)的一部分的物……”也有少數(shù)立法例將不動(dòng)產(chǎn)納入產(chǎn)品責(zé)任的保護(hù)范圍,如我國(guó)臺(tái)灣地區(qū)《消費(fèi)者保護(hù)法施行細(xì)則》第4條[3]。《中華人民共和國(guó)民法典》(簡(jiǎn)稱《民法典》)侵權(quán)責(zé)任編未明確規(guī)定“產(chǎn)品”的概念和范圍,僅在《中華人民共和國(guó)產(chǎn)品質(zhì)量法》(簡(jiǎn)稱《產(chǎn)品質(zhì)量法》)中作了初步規(guī)定。結(jié)合《產(chǎn)品質(zhì)量法》第2條第2款⑤和第3款⑥分析,《產(chǎn)品質(zhì)量法》對(duì)于“產(chǎn)品”概念的內(nèi)涵與外延采用了“抽象概念+否定式列舉”的立法方式。從比較法與《產(chǎn)品質(zhì)量法》第2條第2款的文義解釋上來(lái)說(shuō),《產(chǎn)品質(zhì)量法》中的“產(chǎn)品”是指經(jīng)過(guò)加工、制作,用于流通的有形物(不包括建筑工程)。但因該條款的規(guī)定過(guò)于簡(jiǎn)略,反映到智能軟件上即出現(xiàn)困境:當(dāng)因?yàn)橹悄苘浖旧淼某绦蝈e(cuò)誤、信息錯(cuò)誤等,導(dǎo)致侵權(quán)事故發(fā)生時(shí),可否適用產(chǎn)品責(zé)任?對(duì)此,理論學(xué)說(shuō)以及司法實(shí)踐的觀點(diǎn)不一。有學(xué)者采否定說(shuō),認(rèn)為信息產(chǎn)品原則上不適用產(chǎn)品責(zé)任中的無(wú)過(guò)錯(cuò)責(zé)任,因信息產(chǎn)品的缺陷而遭受損害的侵權(quán)糾紛適用過(guò)錯(cuò)責(zé)任原則[4]492。有學(xué)者采肯定說(shuō),認(rèn)為基于未來(lái)的科技發(fā)展與司法實(shí)踐考量,應(yīng)當(dāng)將智能軟件納入我國(guó)的“產(chǎn)品”范圍[5]。我國(guó)司法實(shí)踐中曾出現(xiàn)承認(rèn)軟件作為“產(chǎn)品”的案例,即“北京北信源自動(dòng)化技術(shù)有限公司、上海林皓網(wǎng)絡(luò)技術(shù)有限公司訴金信證券有限責(zé)任公司東陽(yáng)吳寧西路證券營(yíng)業(yè)部產(chǎn)品責(zé)任糾紛抗訴案”⑦。也有學(xué)者采擬制說(shuō),認(rèn)為在軟件本身屬于知識(shí)內(nèi)容且非有體物,因而并非“產(chǎn)品”,但倘若軟件被裝入電腦等機(jī)器,同時(shí)由于該軟件存在缺陷致人損害,這種缺陷就被視為“產(chǎn)品”本身的缺陷,成為該法的適用對(duì)象[3]。
筆者贊同擬制說(shuō)的觀點(diǎn)?!懂a(chǎn)品質(zhì)量法》頒布于1993年,該時(shí)期正處于第三次工業(yè)革命時(shí)期,也是我國(guó)社會(huì)主義市場(chǎng)經(jīng)濟(jì)的開(kāi)端之際。從立法初衷來(lái)看,該法主要是為了規(guī)范工業(yè)制造領(lǐng)域的產(chǎn)品質(zhì)量問(wèn)題,確保在受害方與生產(chǎn)者、銷售者之間公平分配與工業(yè)制造相關(guān)的風(fēng)險(xiǎn),因此在《產(chǎn)品質(zhì)量法》之后,國(guó)家對(duì)于食品、藥品等領(lǐng)域的產(chǎn)品質(zhì)量問(wèn)題又采取進(jìn)一步單獨(dú)立法的形式。根據(jù)我國(guó)《產(chǎn)品質(zhì)量法》,是否為有形物是認(rèn)定“產(chǎn)品”的核心要素,故而如果軟件存儲(chǔ)在有形介質(zhì)(例如DVD或閃存驅(qū)動(dòng)器)上,則它有資格作為“產(chǎn)品”。但當(dāng)前處于數(shù)字化時(shí)代,軟件往往已經(jīng)不再分布在硬盤、CD或U盤等有形存儲(chǔ)介質(zhì)上,而是通過(guò)云服務(wù)器下載。一方面,從《產(chǎn)品質(zhì)量法》的立法目的——控制工業(yè)制造領(lǐng)域因產(chǎn)品質(zhì)量引起的風(fēng)險(xiǎn)來(lái)看,集成了缺陷智能軟件的計(jì)算機(jī)等機(jī)器與存儲(chǔ)了缺陷傳統(tǒng)軟件的DVD等有形介質(zhì)所帶來(lái)的工業(yè)制造領(lǐng)域的產(chǎn)品質(zhì)量風(fēng)險(xiǎn)并無(wú)本質(zhì)區(qū)別;另一方面,通過(guò)軟件集成到計(jì)算機(jī)等機(jī)器上同樣能夠滿足《產(chǎn)品質(zhì)量法》中蘊(yùn)含的有形物要求。此外,將集成到計(jì)算機(jī)等機(jī)器上的軟件缺陷視為“產(chǎn)品”本身的缺陷,在現(xiàn)實(shí)生活中也符合一般人的理解范疇。
需要注意的是,隨著云計(jì)算能力的提高,數(shù)字商品模糊了產(chǎn)品和服務(wù)之間的區(qū)別,過(guò)去消費(fèi)者購(gòu)買的屬于產(chǎn)品的物品已經(jīng)能夠?qū)崿F(xiàn)云交付,而且通常由服務(wù)提供商以提供服務(wù)的方式交付[6],例如,消費(fèi)者以前購(gòu)買CD,現(xiàn)在可以訂閱網(wǎng)易云音樂(lè)。這意味著未來(lái)可能會(huì)出現(xiàn)更多的人工智能系統(tǒng)在服務(wù)模型上運(yùn)行,即不僅產(chǎn)生人工智能實(shí)體商品,還將出現(xiàn)人工智能數(shù)字商品[7]。未來(lái)還需要在《產(chǎn)品質(zhì)量法》中就人工智能產(chǎn)品與人工智能服務(wù)之間的界限作出區(qū)分。
盡管人工智能能夠納入“產(chǎn)品”的范疇,但人工智能產(chǎn)品與以往人類生產(chǎn)的產(chǎn)品存在極大差別,其具有相當(dāng)?shù)膹?fù)雜性、非透明性以及自主性,不僅能夠協(xié)助人類工作,且已經(jīng)在諸多領(lǐng)域能夠直接替代人類的工作。審視人工智能技術(shù)的發(fā)展軌跡,不難發(fā)現(xiàn),實(shí)現(xiàn)人工智能系統(tǒng)的自主性與自動(dòng)性的常態(tài)化僅僅是一個(gè)時(shí)間問(wèn)題。因此,傳統(tǒng)的產(chǎn)品責(zé)任制度在調(diào)整人工智能侵權(quán)時(shí)不可避免會(huì)存在立法供給上的不足。具體而言,主要體現(xiàn)在以下幾方面。
隨著機(jī)器學(xué)習(xí)和深度學(xué)習(xí)能力的進(jìn)步,人工智能系統(tǒng)逐步具有自主性,在技術(shù)上可能能夠獨(dú)立作出決策,并削減人類對(duì)人工智能系統(tǒng)的人為控制[8]。同時(shí),欲將人工智能系統(tǒng)的有害決策歸因于生產(chǎn)者也變得更加困難。與傳統(tǒng)的工程和設(shè)計(jì)不同,自主性人工智能的實(shí)際功能不一定像大多數(shù)工程系統(tǒng)一樣具有可預(yù)測(cè)性。正如阿薩羅(Asaro)指出的:“雖然任何工程產(chǎn)品都可能由于故障或不可預(yù)見(jiàn)的使用情況而存在一定程度的不可預(yù)測(cè)性,但人們對(duì)產(chǎn)品的性能、性能極限測(cè)試和故障可能性以及可預(yù)見(jiàn)風(fēng)險(xiǎn)的管理有著共同的期望。就高級(jí)人工智能而言,從環(huán)境數(shù)據(jù)中學(xué)習(xí)的系統(tǒng)可能會(huì)以設(shè)計(jì)者無(wú)法預(yù)見(jiàn)的方式行事?!盵9]從產(chǎn)品責(zé)任的角度分析,產(chǎn)品責(zé)任適用的是嚴(yán)格責(zé)任原則,其要求生產(chǎn)者或銷售者對(duì)產(chǎn)品的設(shè)計(jì)、生產(chǎn)等工作負(fù)責(zé),并預(yù)見(jiàn)可能導(dǎo)致的危害。倘若人工智能產(chǎn)品缺乏可預(yù)測(cè)性是由于在開(kāi)發(fā)應(yīng)用程序時(shí)不夠謹(jǐn)慎,或是由于采用節(jié)省成本的措施等原因?qū)е碌模m用嚴(yán)格責(zé)任原則追究生產(chǎn)者的責(zé)任并無(wú)異議,但當(dāng)人工智能系統(tǒng)處于半自主性甚至完全自主性的狀態(tài)下,生產(chǎn)者或銷售者無(wú)法預(yù)見(jiàn)人工智能產(chǎn)品在投放市場(chǎng)后將如何決策或行動(dòng),仍然適用嚴(yán)格責(zé)任原則未免存在有失公平之嫌疑。
首先,人工智能系統(tǒng)具有非透明性,這一特性又被稱為“黑匣子效應(yīng)”。人工智能的“黑匣子效應(yīng)”主要源于人工智能算法的不可解釋性⑧、人工智能訓(xùn)練數(shù)據(jù)集的可視性缺乏⑨以及人工智能系統(tǒng)運(yùn)行過(guò)程的難以驗(yàn)證性⑩。這就導(dǎo)致受害方無(wú)法確定他們是否受到人工智能產(chǎn)品的侵害以及受到什么類型的侵害,更難以追蹤并證明人工智能產(chǎn)品存在“缺陷”。正如斯馬特(Smart)等所指出的:“對(duì)于許多具有潛在危害的非自動(dòng)化產(chǎn)品,如帶鋸(保護(hù)罩)和廚房電器(短線),設(shè)計(jì)和危害之間通常存在相對(duì)可追蹤和可預(yù)測(cè)的界限,但現(xiàn)有的用于物體識(shí)別和控制系統(tǒng)的軟件包卻并非如此?!盵10]其次,人工智能產(chǎn)品缺陷與損害之間的因果關(guān)系存在舉證困難。人工智能技術(shù)的自主性和復(fù)雜性導(dǎo)致人們難以預(yù)測(cè)其作出的決策。盡管人工智能產(chǎn)品的學(xué)習(xí)算法的過(guò)程可能是公開(kāi)和透明的,但由于算法黑箱的存在,其產(chǎn)生的模型不一定是公開(kāi)透明的,其學(xué)習(xí)模型的內(nèi)部決策邏輯也并不一定能夠被理解,甚至可能連程序設(shè)計(jì)者也無(wú)法完全理解[11]。最后,在人工智能產(chǎn)品缺陷的抗辯事由上,我國(guó)《產(chǎn)品質(zhì)量法》第41條第2款規(guī)定的第三項(xiàng)抗辯事由“將產(chǎn)品投入流通時(shí)的科學(xué)技術(shù)水平尚不能發(fā)現(xiàn)缺陷的存在的”(又被稱為“發(fā)展風(fēng)險(xiǎn)抗辯”)存在爭(zhēng)議。對(duì)于該抗辯事由在人工智能缺陷產(chǎn)品致人損害中的適用問(wèn)題,或有學(xué)者認(rèn)為該抗辯事由有助于鼓勵(lì)生產(chǎn)者為新產(chǎn)品積極投入研發(fā),為社會(huì)的創(chuàng)新進(jìn)步營(yíng)造寬松環(huán)境,廢除該抗辯事由會(huì)導(dǎo)致生產(chǎn)者產(chǎn)生趨利避害的心理,進(jìn)而采取較為保守的發(fā)展策略,不利于社會(huì)的創(chuàng)新發(fā)展[5];或有學(xué)者認(rèn)為發(fā)展風(fēng)險(xiǎn)抗辯本質(zhì)上是過(guò)失責(zé)任的產(chǎn)物,過(guò)多適用可能危及產(chǎn)品的嚴(yán)格責(zé)任制度的發(fā)展,不利于對(duì)弱勢(shì)消費(fèi)者群體的傾斜保護(hù)等[12]。
人工智能產(chǎn)品通常并非由一個(gè)生產(chǎn)者獨(dú)立完成,而是涉及眾多參與生產(chǎn)人工智能系統(tǒng)的利益相關(guān)者,蓋因人工智能系統(tǒng)的生產(chǎn)是諸多組件的系統(tǒng)組合,不僅需要智能軟件的嵌入,也需要相關(guān)硬件的支持,且組件與組件間是相互依存、相互作用的,例如有形設(shè)備,如傳感器或硬件,與軟件組件、應(yīng)用程序、數(shù)據(jù)本身、數(shù)據(jù)服務(wù)以及連接特性之間相互依賴。因此,當(dāng)人工智能系統(tǒng)存在缺陷并致人損害時(shí),司法實(shí)踐中將難以合理確定人工智能產(chǎn)品責(zé)任的承擔(dān)主體。這主要體現(xiàn)在兩個(gè)方面:一是由于難以判斷是構(gòu)成人工智能系統(tǒng)的某個(gè)軟件抑或硬件存在缺陷,進(jìn)而無(wú)法合理確定人工智能產(chǎn)品責(zé)任承擔(dān)主體;二是人工智能產(chǎn)品的組件是相互依存、相互連接的,如果來(lái)自不同生產(chǎn)者的組件之間存在兼容性問(wèn)題,則損害責(zé)任難以區(qū)分。即便生產(chǎn)者能夠確保組件兼容,組件之間的交互仍然可能影響損害責(zé)任的分配,因?yàn)椴煌M件之間的交互可能產(chǎn)生互補(bǔ)作用,也可能產(chǎn)生替代作用。
囿于傳統(tǒng)產(chǎn)品責(zé)任制度在規(guī)制人工智能侵權(quán)時(shí)對(duì)于能否適用嚴(yán)格責(zé)任原則存在疑問(wèn),且難以證明人工智能產(chǎn)品是否存在缺陷,以及難以確定責(zé)任承擔(dān)主體并合理分配責(zé)任,故而為了更好地在產(chǎn)品責(zé)任制度框架下解決人工智能侵權(quán)問(wèn)題,需要完善現(xiàn)行產(chǎn)品責(zé)任制度。
產(chǎn)品責(zé)任歸責(zé)理論的歷史演變,大致經(jīng)歷了從合同責(zé)任到侵權(quán)責(zé)任、從過(guò)失責(zé)任到嚴(yán)格責(zé)任的發(fā)展軌跡。嚴(yán)格責(zé)任原則的形成和確立絕非偶然,而是有著深刻的社會(huì)經(jīng)濟(jì)基礎(chǔ)[5]。無(wú)論是從比較法的角度觀察,抑或是從我國(guó)經(jīng)濟(jì)發(fā)展與司法實(shí)踐的角度審視,嚴(yán)格責(zé)任原則在人工智能系統(tǒng)缺陷致人損害中的運(yùn)用均有其合理性。
首先,從比較法的角度來(lái)看,歐美國(guó)家在規(guī)制生產(chǎn)者因缺陷產(chǎn)品致人損害的法律問(wèn)題中普遍采用嚴(yán)格責(zé)任原則。1985年的歐共體第85/374號(hào)關(guān)于產(chǎn)品責(zé)任的指令明確指出,“考慮到對(duì)于我們這個(gè)技術(shù)日益進(jìn)步的時(shí)代,唯有生產(chǎn)者的無(wú)過(guò)錯(cuò)責(zé)任能夠以一種適當(dāng)?shù)姆绞浇鉀Q現(xiàn)代化技術(shù)生產(chǎn)固有風(fēng)險(xiǎn)的公平分擔(dān)問(wèn)題”,該指令第1條即規(guī)定:“生產(chǎn)者應(yīng)當(dāng)對(duì)其產(chǎn)品的缺陷所造成的損害承擔(dān)責(zé)任?!盵4]484美國(guó)作為世界上侵權(quán)責(zé)任法最為完善的國(guó)家,其產(chǎn)品責(zé)任中的嚴(yán)格責(zé)任原則發(fā)端于1842年的溫特伯頓訴萊特案,并持續(xù)適用至20世紀(jì)80年代。此后由于產(chǎn)品責(zé)任訴訟案件的逐年劇增,以及理論與司法實(shí)踐對(duì)產(chǎn)品設(shè)計(jì)缺陷采取嚴(yán)格責(zé)任的諸多批判,美國(guó)在1979年公布了《統(tǒng)一產(chǎn)品責(zé)任示范法》,其目的是為了明晰和限制嚴(yán)格責(zé)任原則[13]。該示范法作為美國(guó)各州侵權(quán)責(zé)任立法的潛在導(dǎo)向,最終引起了美國(guó)《侵權(quán)法重述第三版:產(chǎn)品責(zé)任》對(duì)嚴(yán)格責(zé)任原則的改革:僅適用于產(chǎn)品制造缺陷,不再適用于設(shè)計(jì)缺陷與警示缺陷[14]。但是嚴(yán)格來(lái)說(shuō),該原則在美國(guó)侵權(quán)責(zé)任法上的改革并未從根本上動(dòng)搖現(xiàn)代產(chǎn)品責(zé)任制度普遍奉行的嚴(yán)格歸責(zé)原則的基本精神,只是為了避免嚴(yán)格責(zé)任在具體適用時(shí)演化為絕對(duì)責(zé)任而進(jìn)行的必要矯正[5]。因此,從比較法的角度審視,嚴(yán)格責(zé)任原則在歐美國(guó)家的產(chǎn)品責(zé)任法中仍然普遍存在。
其次,適用嚴(yán)格責(zé)任原則有利于司法機(jī)關(guān)解決人工智能產(chǎn)品侵權(quán)糾紛。對(duì)于人工智能產(chǎn)品致人損害引起的糾紛,倘若采取過(guò)錯(cuò)責(zé)任原則進(jìn)行規(guī)制,會(huì)面臨以下兩方面的問(wèn)題:一方面,受害者需要舉證證明生產(chǎn)者在人工智能產(chǎn)品的生產(chǎn)過(guò)程中存在過(guò)錯(cuò),以及生產(chǎn)者的過(guò)錯(cuò)與受害者所受損害間存在因果關(guān)系。但如前所述,由于人工智能產(chǎn)品具有復(fù)雜性、非透明性以及自主性,受害者本就難以證明其損害結(jié)果是源自人工智能系統(tǒng)的缺陷,更難以證明生產(chǎn)者或銷售者存在過(guò)錯(cuò),或生產(chǎn)者、銷售者的過(guò)錯(cuò)與受害者遭受損害間存在因果關(guān)系。另一方面,立法者需要根據(jù)實(shí)際情況,在利益平衡的基礎(chǔ)上合理確定各方當(dāng)事人的注意義務(wù)。倘若立法者能夠設(shè)置合理標(biāo)準(zhǔn)的注意義務(wù),則能夠促使各方當(dāng)事人對(duì)人工智能產(chǎn)品采取有效的安全防范措施;但倘若課以當(dāng)事人過(guò)高或過(guò)低的注意義務(wù),則無(wú)法達(dá)到立法的預(yù)期效果。囿于人工智能產(chǎn)品的三大特性,立法者難以預(yù)見(jiàn)人工智能產(chǎn)品致人損害所帶來(lái)的實(shí)際責(zé)任風(fēng)險(xiǎn),更難以清晰判斷各方當(dāng)事人的注意義務(wù)的合理邊界。但采用嚴(yán)格責(zé)任原則能夠減輕甚至避免上述問(wèn)題:一是嚴(yán)格責(zé)任原則降低了受害者的證明責(zé)任標(biāo)準(zhǔn),尤其在產(chǎn)品責(zé)任中,通常情況下受害者只需要證明產(chǎn)品存在缺陷,司法實(shí)務(wù)中即推定損害結(jié)果與存在缺陷的產(chǎn)品之間存在因果關(guān)系,毋需受害者再就相關(guān)因果關(guān)系作進(jìn)一步證明。二是在產(chǎn)品存在缺陷的情況下,嚴(yán)格責(zé)任原則要求生產(chǎn)者或銷售者承擔(dān)全部損害賠償責(zé)任(其中生產(chǎn)者與銷售者間為不真正連帶責(zé)任),毋需進(jìn)一步考量當(dāng)事人的注意義務(wù)。
最后,適用嚴(yán)格責(zé)任原則有利于提高人工智能產(chǎn)品安全性與責(zé)任風(fēng)險(xiǎn)分散承擔(dān)。由于嚴(yán)格責(zé)任原則要求生產(chǎn)者或銷售者承擔(dān)因人工智能系統(tǒng)缺陷導(dǎo)致的全部損害賠償責(zé)任,這可以促使生產(chǎn)者開(kāi)發(fā)安全系數(shù)更高的人工智能產(chǎn)品,銷售者采取更為有效的人工智能產(chǎn)品安全預(yù)防措施等,從而也為社會(huì)帶來(lái)顯著好處,使具有自主功能的汽車更加安全,人工智能診斷工具在檢測(cè)疾病方面更為準(zhǔn)確等。此外,從個(gè)體的角度來(lái)看,因人工智能系統(tǒng)缺陷遭致?lián)p害是一個(gè)高度不可預(yù)測(cè)的隨機(jī)事件,但對(duì)于生產(chǎn)者或銷售者(通常為企業(yè))而言,結(jié)果是可以預(yù)見(jiàn)的,因?yàn)橥ㄟ^(guò)大數(shù)據(jù)分析,生產(chǎn)者或銷售者可以預(yù)見(jiàn)相關(guān)事故發(fā)生的平均數(shù)量、可能概率以及致?lián)p程度。盡管采用嚴(yán)格責(zé)任原則從理論上分析會(huì)加重生產(chǎn)者或銷售者的單位成本,但在實(shí)際企業(yè)運(yùn)營(yíng)中,企業(yè)可以更好地將預(yù)期可能增加的傷害成本內(nèi)化為社會(huì)活動(dòng)成本,進(jìn)而分散轉(zhuǎn)移至產(chǎn)品使用者身上,還可通過(guò)保險(xiǎn)機(jī)制分散侵權(quán)責(zé)任風(fēng)險(xiǎn)的承擔(dān)。因此,在人工智能系統(tǒng)缺陷致人損害的法律控制中應(yīng)當(dāng)堅(jiān)持嚴(yán)格責(zé)任原則。
產(chǎn)品責(zé)任取決于產(chǎn)品是否有缺陷,“缺陷”的定義對(duì)于確定開(kāi)發(fā)、制造人工智能系統(tǒng)的生產(chǎn)者責(zé)任至關(guān)重要。證明一個(gè)產(chǎn)品是否存在“缺陷”,不僅需要依據(jù)缺陷認(rèn)定標(biāo)準(zhǔn)進(jìn)行判斷(判斷過(guò)程中將涉及舉證責(zé)任分配問(wèn)題),同時(shí)倘若判斷該產(chǎn)品存在缺陷,還需要進(jìn)一步審查產(chǎn)品缺陷是否存在抗辯事由。因此,明確人工智能產(chǎn)品“缺陷”的認(rèn)定規(guī)則包括三方面:一是明確人工智能產(chǎn)品“缺陷”的認(rèn)定標(biāo)準(zhǔn);二是減輕人工智能產(chǎn)品“缺陷”與損害結(jié)果因果關(guān)系的舉證責(zé)任;三是調(diào)整人工智能產(chǎn)品“缺陷”的抗辯事由。
1.明確人工智能產(chǎn)品“缺陷”的認(rèn)定標(biāo)準(zhǔn)
根據(jù)我國(guó)《民法典》與《產(chǎn)品質(zhì)量法》的相關(guān)規(guī)定,產(chǎn)品缺陷的認(rèn)定分為兩個(gè)方面:一是產(chǎn)品本身具有不合理的危險(xiǎn);二是產(chǎn)品不符合國(guó)家標(biāo)準(zhǔn)和行業(yè)標(biāo)準(zhǔn)。結(jié)合《產(chǎn)品質(zhì)量法》第46條分析,當(dāng)致人損害的人工智能產(chǎn)品所在領(lǐng)域缺乏國(guó)家標(biāo)準(zhǔn)、行業(yè)標(biāo)準(zhǔn),以及雖然符合國(guó)家標(biāo)準(zhǔn)、行業(yè)標(biāo)準(zhǔn),但受害者仍然欲證明該產(chǎn)品存在“缺陷”時(shí),判斷人工智能產(chǎn)品是否存在缺陷僅能以“是否存在危及人身、他人財(cái)產(chǎn)安全的不合理的危險(xiǎn)”為標(biāo)準(zhǔn),但這一標(biāo)準(zhǔn)的規(guī)定過(guò)于簡(jiǎn)略,司法實(shí)踐中難以操作。建議立法在“不合理危險(xiǎn)”的認(rèn)定上建立“消費(fèi)者期待標(biāo)準(zhǔn)”,明確消費(fèi)者對(duì)于人工智能產(chǎn)品的安全期望的合理范圍。
“缺陷”的概念與消費(fèi)者對(duì)產(chǎn)品的安全期望直接相關(guān)。我國(guó)《產(chǎn)品質(zhì)量法》將產(chǎn)品投入流通的時(shí)間作為決定生產(chǎn)者責(zé)任的核心因素,即生產(chǎn)者不對(duì)產(chǎn)品投放市場(chǎng)后才出現(xiàn)的缺陷負(fù)責(zé),因?yàn)楫a(chǎn)品在投放市場(chǎng)后已經(jīng)脫離生產(chǎn)者的控制,該缺陷可能是在市場(chǎng)流通環(huán)節(jié)中形成,也可能是因受害者不正當(dāng)使用而造成。然而,這一缺乏控制的論點(diǎn)無(wú)法適用于旨在進(jìn)入市場(chǎng)后繼續(xù)學(xué)習(xí)的人工智能產(chǎn)品,因?yàn)榇朔N情況下,人工智能產(chǎn)品的安全與其內(nèi)嵌的智能軟件的更新情況密切相關(guān)。因此,在界定消費(fèi)者安全期望的合理范圍時(shí)需要全面考慮軟件產(chǎn)品、物聯(lián)網(wǎng)設(shè)備和人工智能系統(tǒng)的動(dòng)態(tài)性質(zhì)[15]。建議可課以產(chǎn)品生產(chǎn)者向使用者提供與產(chǎn)品安全相關(guān)的軟件更新的義務(wù),同時(shí)為了防止過(guò)度寬泛和無(wú)限制的擴(kuò)大生產(chǎn)者的產(chǎn)品安全責(zé)任,需要進(jìn)一步明確此種軟件更新義務(wù)的范圍標(biāo)準(zhǔn):一方面必須明確此類義務(wù)的合理存在期限,避免因義務(wù)存在時(shí)限過(guò)長(zhǎng)或過(guò)短導(dǎo)致產(chǎn)品生產(chǎn)者與使用者間的利益失衡;另一方面用戶應(yīng)當(dāng)有義務(wù)配合安裝與安全相關(guān)的更新,需要明確用戶未配合安裝軟件更新所應(yīng)承擔(dān)的責(zé)任。
2.減輕人工智能產(chǎn)品“缺陷”與損害結(jié)果因果關(guān)系的舉證責(zé)任
產(chǎn)品缺陷可分為制造缺陷、設(shè)計(jì)缺陷和警示缺陷。對(duì)比傳統(tǒng)制造產(chǎn)業(yè),人工智能產(chǎn)品因制造缺陷和警示缺陷產(chǎn)生的風(fēng)險(xiǎn)較低,以最為典型的自動(dòng)駕駛汽車為例,生產(chǎn)者通常在生產(chǎn)自動(dòng)駕駛汽車的過(guò)程中,以人類駕駛員應(yīng)遵循的注意義務(wù)差異為根據(jù),設(shè)置了不同等級(jí)的提醒接管、警示等功能。因此,人工智能產(chǎn)品中更多的是產(chǎn)品本身程序上的設(shè)計(jì)缺陷[16]。設(shè)計(jì)缺陷的判斷標(biāo)準(zhǔn)是“通過(guò)采用合理的替代設(shè)計(jì),產(chǎn)品造成的可預(yù)見(jiàn)的危害風(fēng)險(xiǎn)可以減少或避免,替代造成不合理危險(xiǎn)的設(shè)計(jì)”[17]。這種設(shè)計(jì)缺陷有可能來(lái)源于數(shù)據(jù)采集的有限性、代碼漏洞、算法黑箱等。
上述設(shè)計(jì)缺陷直接造成了生產(chǎn)者與消費(fèi)者對(duì)于人工智能產(chǎn)品信息存在嚴(yán)重不對(duì)稱性及因果關(guān)系證明的復(fù)雜性,若將該舉證責(zé)任交由消費(fèi)者承擔(dān),未免過(guò)于苛刻,容易造成消費(fèi)者舉證成本高、舉證不能而無(wú)法得到有效救濟(jì)。為促使人工智能產(chǎn)品缺陷與損害結(jié)果之間的因果關(guān)系舉證責(zé)任更加合理化,建議采用推定缺陷規(guī)則,即受害人無(wú)需自行通過(guò)專家鑒定等方式證明人工智能產(chǎn)品在制造、組裝等過(guò)程中存在缺陷,僅需證明其使用了人工智能產(chǎn)品,且在使用過(guò)程中發(fā)生了某種不可歸責(zé)于本人的損害,則推定產(chǎn)品缺陷存在。此時(shí)生產(chǎn)者、銷售者抑或設(shè)計(jì)者等主體若欲推翻該推定的因果關(guān)系,由其自主作進(jìn)一步舉證。
3.調(diào)整人工智能產(chǎn)品“缺陷”的抗辯事由
發(fā)展風(fēng)險(xiǎn)抗辯的適用固然有鼓勵(lì)生產(chǎn)者進(jìn)行技術(shù)創(chuàng)新的好處,但是在人工智能產(chǎn)品語(yǔ)境下適用該抗辯事由并不合理。一方面,這與在人工智能缺陷產(chǎn)品致人損害中堅(jiān)持嚴(yán)格責(zé)任原則的初衷相違背。在人工智能缺陷產(chǎn)品致人損害中堅(jiān)持嚴(yán)格責(zé)任原則是為了在產(chǎn)品研發(fā)之初,即通過(guò)嚴(yán)格責(zé)任原則對(duì)可能產(chǎn)生的技術(shù)風(fēng)險(xiǎn)進(jìn)行法律控制,確保人工智能產(chǎn)品的安全性,而發(fā)展風(fēng)險(xiǎn)抗辯事由的適用恰恰又是以當(dāng)前科學(xué)技術(shù)發(fā)展為基礎(chǔ),這相當(dāng)于在技術(shù)風(fēng)險(xiǎn)領(lǐng)域?qū)?yán)格責(zé)任原則架空。另一方面,這將導(dǎo)致產(chǎn)品責(zé)任承擔(dān)者與消費(fèi)者間的利益失衡。如前所述,在人工智能語(yǔ)境下應(yīng)當(dāng)堅(jiān)持產(chǎn)品責(zé)任制度,這能夠促使產(chǎn)品的生產(chǎn)者、銷售者、運(yùn)營(yíng)者合理預(yù)測(cè)其可能承擔(dān)的侵權(quán)風(fēng)險(xiǎn),并在此基礎(chǔ)上進(jìn)行成本內(nèi)化,進(jìn)而通過(guò)提高產(chǎn)品單價(jià)將風(fēng)險(xiǎn)分?jǐn)傊料M(fèi)者。由于消費(fèi)者通常難以理解人工智能產(chǎn)品中蘊(yùn)藏的技術(shù)原理,在技術(shù)產(chǎn)品的發(fā)展和運(yùn)用中長(zhǎng)期處于邊緣化地位,倘若在風(fēng)險(xiǎn)已經(jīng)分?jǐn)偟幕A(chǔ)上再堅(jiān)持發(fā)展風(fēng)險(xiǎn)抗辯事由,這對(duì)于消費(fèi)者而言并不公平也不正義。
事實(shí)上,排除產(chǎn)品責(zé)任制度中的發(fā)展風(fēng)險(xiǎn)抗辯已有域外立法例的基礎(chǔ):芬蘭、盧森堡在其國(guó)內(nèi)法中排除了發(fā)展風(fēng)險(xiǎn)抗辯事由的適用;德國(guó)《產(chǎn)品責(zé)任法》也僅限于在設(shè)計(jì)缺陷上援引發(fā)展風(fēng)險(xiǎn)抗辯事由,并排除了該抗辯事由在藥品領(lǐng)域的適用。
《民法典》第1203條規(guī)定了我國(guó)產(chǎn)品責(zé)任的主體包括生產(chǎn)者與銷售者,但現(xiàn)行法律尚未就生產(chǎn)者、銷售者的概念和范圍作出詳細(xì)規(guī)定。為了合理界定人工智能產(chǎn)品的責(zé)任承擔(dān)主體,需要在人工智能產(chǎn)品的語(yǔ)境下明確生產(chǎn)者、銷售者的基本概念與主要類型,同時(shí)增設(shè)運(yùn)營(yíng)者作為人工智能產(chǎn)品責(zé)任的承擔(dān)主體。
1.明確生產(chǎn)者、銷售者的基本概念與主要類型
對(duì)于生產(chǎn)者而言,人工智能產(chǎn)品的生產(chǎn)需要?dú)v經(jīng)模型設(shè)計(jì)、軟件開(kāi)發(fā)、零部件生產(chǎn)、硬軟件集成等一系列流程,且當(dāng)人工智能產(chǎn)品缺陷致人損害時(shí),從生產(chǎn)者的角度審視,可能是由于缺乏硬件保護(hù)、軟件故障、風(fēng)險(xiǎn)提示或兼而有之,亦即產(chǎn)品責(zé)任事故可能是因?yàn)橹圃烊毕?、設(shè)計(jì)缺陷抑或警示缺陷等。因此,有必要結(jié)合人工智能產(chǎn)品的研發(fā)、生產(chǎn)過(guò)程,擴(kuò)充產(chǎn)品責(zé)任中的生產(chǎn)者概念,尤其當(dāng)人工智能產(chǎn)品的設(shè)計(jì)者、軟件開(kāi)發(fā)者以及制造者并非同一主體時(shí),有必要將三者均納入產(chǎn)品責(zé)任的生產(chǎn)者范疇,這是因?yàn)槿斯ぶ悄艿闹圃煺邿o(wú)法控制產(chǎn)品設(shè)計(jì)、軟件開(kāi)發(fā)上的風(fēng)險(xiǎn)與缺陷。如此一來(lái),在產(chǎn)品責(zé)任的嚴(yán)格責(zé)任原則規(guī)制下,也能夠督促設(shè)計(jì)者、開(kāi)發(fā)者以及制造者在最大化程度上保障人工智能產(chǎn)品設(shè)計(jì)、軟件開(kāi)發(fā)、硬件制造等方面的安全性??偟膩?lái)說(shuō),人工智能產(chǎn)品責(zé)任承擔(dān)者中的“生產(chǎn)者”概念不能局限于人工智能實(shí)體商品的實(shí)際制造者,還應(yīng)當(dāng)包括產(chǎn)品設(shè)計(jì)者和軟件開(kāi)發(fā)者。對(duì)于銷售者而言,其應(yīng)當(dāng)包括經(jīng)銷商、分銷商、進(jìn)口商、批發(fā)商以及零售商在內(nèi)的具體銷售主體類型[5]。為了保障受害者的合法權(quán)益,受害者因人工智能產(chǎn)品缺陷致害而向人工智能產(chǎn)品的生產(chǎn)者追償時(shí),既可以選擇人工智能產(chǎn)品設(shè)計(jì)者、軟件開(kāi)發(fā)者以及實(shí)際制造者任一主體進(jìn)行;也可以選擇向人工智能產(chǎn)品的銷售者追償,包括人工智能產(chǎn)品的經(jīng)銷商、分銷商、進(jìn)口商、批發(fā)商以及零售商等。上述主體之間承擔(dān)的是不真正連帶責(zé)任。
2.增設(shè)運(yùn)營(yíng)者作為人工智能產(chǎn)品責(zé)任的承擔(dān)主體
除應(yīng)當(dāng)明確生產(chǎn)者、銷售者的基本概念與主要類型外,立法還應(yīng)當(dāng)考慮增設(shè)運(yùn)營(yíng)者作為人工智能的產(chǎn)品責(zé)任承擔(dān)主體。人工智能產(chǎn)品的安全性還高度依賴于人工智能系統(tǒng)的合理操作,尤其在公共場(chǎng)所,人工智能系統(tǒng)運(yùn)營(yíng)者的操作直接關(guān)系到社會(huì)安全。然而,因人工智能缺陷產(chǎn)品遭受損害的個(gè)體一般不會(huì)向運(yùn)營(yíng)者提出違約責(zé)任賠償,且囿于人工智能產(chǎn)品的特殊性以及企業(yè)商業(yè)秘密的保護(hù),受害者通常也無(wú)法得知該產(chǎn)品的運(yùn)營(yíng)情況,更難以證明運(yùn)營(yíng)者存在過(guò)錯(cuò)。此種情況下,倘若仍采取一般過(guò)錯(cuò)責(zé)任,受害者將難以獲得相應(yīng)的救濟(jì)。因此,有必要通過(guò)產(chǎn)品責(zé)任規(guī)范人工智能系統(tǒng)的運(yùn)營(yíng)者。2020年歐洲議會(huì)提出了關(guān)于人工智能民事責(zé)任制度的建議(2020/2014(INL)),其中第3條提出了“運(yùn)營(yíng)商”的概念,并將“運(yùn)營(yíng)商”分為“前端運(yùn)營(yíng)商”與“后端運(yùn)營(yíng)商”。在歐洲議會(huì)提出的這一建議中,“前端運(yùn)營(yíng)商”可能與生產(chǎn)者存在交叉,因此其在第11條中作出以下規(guī)定:“如果一個(gè)人工智能系統(tǒng)的運(yùn)營(yíng)商超過(guò)一個(gè),他們應(yīng)承擔(dān)連帶責(zé)任。如果前端運(yùn)營(yíng)商也是人工智能系統(tǒng)的生產(chǎn)者,則本法規(guī)優(yōu)先于產(chǎn)品責(zé)任指令。如果后端運(yùn)營(yíng)商也符合產(chǎn)品責(zé)任指令第3條定義的生產(chǎn)者資格,則該指令應(yīng)適用于他/她。如果只有一個(gè)運(yùn)營(yíng)商并且該運(yùn)營(yíng)商也是人工智能系統(tǒng)的生產(chǎn)商,則本法規(guī)應(yīng)優(yōu)先于產(chǎn)品責(zé)任指令?!苯ㄗh我國(guó)可借鑒歐洲議會(huì)的相關(guān)規(guī)定,增設(shè)運(yùn)營(yíng)者作為人工智能的產(chǎn)品責(zé)任承擔(dān)主體,完善人工智能產(chǎn)品的責(zé)任承擔(dān)主體范圍,允許受害者在相關(guān)責(zé)任承擔(dān)主體中選擇任一主體追償。在責(zé)任承擔(dān)主體的具體責(zé)任分配上,人工智能系統(tǒng)的運(yùn)營(yíng)者與其他產(chǎn)品責(zé)任承擔(dān)主體同樣可設(shè)置為不真正連帶責(zé)任,從而充分保障受害者的合法權(quán)益。
人工智能侵權(quán)給現(xiàn)行侵權(quán)責(zé)任制度帶來(lái)了挑戰(zhàn),但迄今為止,我國(guó)仍然處于弱人工智能時(shí)代,具有自主意識(shí)的人工智能尚未出現(xiàn),現(xiàn)代法學(xué)體系在人工智能語(yǔ)境下也尚未受到顛覆性的沖擊。弱人工智能時(shí)代下的人工智能充當(dāng)?shù)氖侨祟悺肮ぞ摺钡慕巧?,隸屬于“物”的范疇,人工智能侵權(quán)風(fēng)險(xiǎn)能夠在完善產(chǎn)品責(zé)任制度的基礎(chǔ)上得到較好控制,但這只是權(quán)宜性的。審視人工智能技術(shù)的發(fā)展軌跡,人工智能已經(jīng)從人類“工具”的角色逐漸轉(zhuǎn)向自主獨(dú)立的角色,實(shí)現(xiàn)人工智能獨(dú)立決策、自主運(yùn)行的常態(tài)化僅僅是一個(gè)時(shí)間問(wèn)題。當(dāng)人工智能具備主體意識(shí),能夠獨(dú)立決策、自主運(yùn)行時(shí),或應(yīng)在“去人類中心主義”的理念下,考慮賦予人工智能自我管理的權(quán)利,用其自身創(chuàng)造的財(cái)產(chǎn)去解決人工智能侵權(quán)問(wèn)題,從而更好地實(shí)現(xiàn)人與機(jī)器的和諧相處。未來(lái)在人工智能語(yǔ)境下,立法也應(yīng)當(dāng)為具有自主意識(shí)的人工智能獨(dú)立承擔(dān)法律責(zé)任留下空間,彼時(shí),產(chǎn)品責(zé)任制度亦將毋需承擔(dān)調(diào)整人工智能侵權(quán)事故的職責(zé)。
注釋:
①人工智能系統(tǒng)的復(fù)雜性主要體現(xiàn)在三個(gè)方面:一是涉及多個(gè)利益相關(guān)者;二是人工智能系統(tǒng)組件之間相互依賴;三是人工智能系統(tǒng)因其不斷發(fā)展的本質(zhì)而具有復(fù)雜性。
②人工智能系統(tǒng)的非透明性主要體現(xiàn)在三個(gè)方面:一是算法的不可解釋性;二是訓(xùn)練數(shù)據(jù)集缺乏可視性;三是系統(tǒng)運(yùn)行過(guò)程難以驗(yàn)證。
③人工智能系統(tǒng)的自主性是指其具有一定的隨環(huán)境、數(shù)據(jù)或任務(wù)變化而自適應(yīng)調(diào)節(jié)參數(shù)或更新優(yōu)化模型的能力;并且能夠在此基礎(chǔ)上通過(guò)與云、端、人、物的廣泛且深入的數(shù)字化連接,使系統(tǒng)本身具有適應(yīng)性、魯棒性、靈活性、擴(kuò)展性,來(lái)應(yīng)對(duì)不斷變化的現(xiàn)實(shí)環(huán)境,從而實(shí)現(xiàn)機(jī)器客體擴(kuò)展乃至人類主體的演化迭代(此概念來(lái)源于中國(guó)電子技術(shù)標(biāo)準(zhǔn)化研究院編寫的《人工智能標(biāo)準(zhǔn)化白皮書〈2018版〉》,詳見(jiàn)http://www.cesi.cn/images/editor/20180124/201801241355 28742.pdf.)。
④弱人工智能是指不能真正實(shí)現(xiàn)推理和解決問(wèn)題的智能機(jī)器,這些機(jī)器表面看像是智能的,但是并不真正擁有智能,也不會(huì)有自主意識(shí)(此概念來(lái)源于中國(guó)電子技術(shù)標(biāo)準(zhǔn)化研究院編寫的《人工智能標(biāo)準(zhǔn)化白皮書〈2018版〉》,詳見(jiàn)http://www.cesi.cn/images/editor/20180124/20180124135528 742.pdf.)。
⑤《產(chǎn)品質(zhì)量法》第2條第2款規(guī)定:“本法所稱產(chǎn)品是指經(jīng)過(guò)加工、制作,用于銷售的產(chǎn)品?!?/p>
⑥《產(chǎn)品質(zhì)量法》第2條第3款規(guī)定:“建設(shè)工程不適用本法規(guī)定;但是,建設(shè)工程使用的建筑材料、建筑構(gòu)配件和設(shè)備,屬于前款規(guī)定的產(chǎn)品范圍的,適用本法規(guī)定。”
⑦案例具體情況可參見(jiàn)最高人民檢察院民事行政檢察廳發(fā)布的《人民檢察院民事行政抗訴案例選(第8集)》,法律出版社,2005年版。
⑧人工智能算法的不可解釋性,一方面指的是包括程序員在內(nèi)無(wú)法理解當(dāng)前諸如深度學(xué)習(xí)等算法的運(yùn)行機(jī)理;另一方面指的是基于算法的人工智能系統(tǒng)的決策行為是如何作出并執(zhí)行的,無(wú)法通過(guò)一般人可習(xí)得的語(yǔ)言進(jìn)行陳述。人工智能的模型性能很大程度上取決于其訓(xùn)練數(shù)據(jù),但人工智能系統(tǒng)使用了哪些訓(xùn)練數(shù)據(jù)、這些數(shù)據(jù)從何而來(lái)、如何清洗、是否存在偏差等問(wèn)題均不為人們所知。
⑨人工智能系統(tǒng)運(yùn)行過(guò)程的難以驗(yàn)證性,指的是包括程序員在內(nèi)的人類難以驗(yàn)證人工智能系統(tǒng)的輸入變量影響輸出結(jié)果的全過(guò)程。
⑩發(fā)展風(fēng)險(xiǎn)抗辯指的是產(chǎn)品責(zé)任承擔(dān)者能夠證明囿于產(chǎn)品在投入流通時(shí)的科學(xué)技術(shù)發(fā)展水平,無(wú)法檢測(cè)或發(fā)現(xiàn)產(chǎn)品缺陷的存在,從而主張免除損害賠償責(zé)任。