康燕如,王艷華
(鄭州大學(xué) 法學(xué)院,河南 鄭州 450001)
人工智能以其精確性、自主性和安全性為我們?nèi)粘I睢⒐ぷ?、學(xué)習(xí)帶來(lái)很大便利,現(xiàn)在人工智能已經(jīng)在很大程度上應(yīng)用于我們生活之中。凡事都有兩面性,人工智能同樣也因其應(yīng)急能力差、需要預(yù)先設(shè)定程序等特征對(duì)人們的利益造成損害。此種損害應(yīng)由誰(shuí)來(lái)承擔(dān),當(dāng)事人之間的民事權(quán)利、義務(wù)、責(zé)任應(yīng)當(dāng)如何消解,是民法上亟待解決的問(wèn)題。人工智能的法律性質(zhì)是我們確定侵權(quán)責(zé)任歸屬的前提,所以,本文將從人工智能的法律屬性、人工智能侵權(quán)責(zé)任的性質(zhì)以及人工智能侵權(quán)責(zé)任的承擔(dān)主體等三個(gè)方面展開(kāi)論述。
人工智能按其智能程度被分為三個(gè)等級(jí),即弱人工智能、強(qiáng)人工智能和超人工智能。弱人工智能的典型代表就是機(jī)器人手臂,具有單領(lǐng)域性,也就是只能完成特定領(lǐng)域的工作;強(qiáng)人工智能又稱通用人工智能,因其具有相當(dāng)于人類的智能;超人工智能則在綜合智能上超越人類[1](P64-72,191)。人類世界目前處于弱人工智能階段,我們討論的對(duì)象是弱人工智能。目前,關(guān)于人工智能法律屬性的定性有以下四種學(xué)說(shuō)。
工具說(shuō)認(rèn)為,人工智能對(duì)于人類的作用就類似于剪刀錘子等工具一般,作為工具為人類生產(chǎn)生活活動(dòng)提供便利。它們是人類創(chuàng)造出來(lái)的機(jī)器,不需休息、無(wú)人類情感,與人存在本質(zhì)區(qū)別,是一種服務(wù)于人類的工具,與傳統(tǒng)工具作用相同[2](P69-77)。此學(xué)說(shuō)將人工智能視為民事客體,強(qiáng)調(diào)其“物”的屬性,但是此學(xué)說(shuō)忽略了人工智能的自主性,這一特性是人工智能與其他一般工具最大的不同。比如,人工智能機(jī)器人阿爾法以四比一大敗世界圍棋冠軍柯潔,無(wú)人駕駛汽車(chē)可以在無(wú)人操控的情況下完成行駛過(guò)程等。這類人工智能所體現(xiàn)的自主性和智能性是其他一般工具所不能比擬的,所以不能將二者放在同等地位來(lái)討論。
此學(xué)說(shuō)強(qiáng)調(diào)其“物”的屬性,將人工智能視為法律客體。人工智能產(chǎn)品是計(jì)算機(jī)領(lǐng)域的產(chǎn)品,靠電子技術(shù)進(jìn)行操作,其行為完全是為了服務(wù)于人類,聽(tīng)從于人類的指令,沒(méi)有自主意識(shí),也沒(méi)有權(quán)利在無(wú)指示的情況下進(jìn)行操作,其地位就如同古代的奴隸一樣,所以被稱為電子奴隸。在制造過(guò)程中制造商對(duì)程序和算法的設(shè)定、技術(shù)的改進(jìn),以及在后續(xù)維護(hù)中對(duì)程序的更新及漏洞的彌補(bǔ)起到?jīng)Q定性作用,在具體投入使用的過(guò)程中,人工智能又完全為具體使用人所控制。從其產(chǎn)生及投入使用的過(guò)程來(lái)看,其物的屬性體現(xiàn)得十分明顯。
代理說(shuō)認(rèn)為,人工智能在操作者指令下行為的性質(zhì)與代理人為被代理人工作時(shí)的性質(zhì)具有一致性,都是在被代理人的指令下為了被代理人的利益獨(dú)立進(jìn)行工作活動(dòng)。此學(xué)說(shuō)注重人工智能“人”的屬性,但是此學(xué)說(shuō)存在很大的弊端。代理人是獨(dú)立的民事主體,既具有民事權(quán)利能力和民事行為能力,也具有依法享有民事權(quán)利和承擔(dān)民事責(zé)任的資格。人工智能在現(xiàn)階段不能被視為法律主體,仍屬于民事客體范疇,不存在代理的基礎(chǔ)。代理說(shuō)過(guò)于強(qiáng)調(diào)其自主性和智慧性,但是卻忽略了人工智能在很大程度上需要在人類的操控下實(shí)施行為的事實(shí),所以將其視為民事主體的條件尚不成熟。
法律擬制說(shuō)認(rèn)為,人工智能雖不具備人的屬性,但可“視為人”,類似于法人[2](P69-77)。但是,法人意志是股東意志的集合,如若股東沒(méi)有形成最終意志,法人就沒(méi)有意志,沒(méi)有意志也就不會(huì)出現(xiàn)相應(yīng)行為。也就是說(shuō),如若法人出現(xiàn)侵權(quán)行為,其也是在股東的意志下作出的,此時(shí)就應(yīng)當(dāng)“刺破公司面紗”,突破有限責(zé)任,使股東承擔(dān)侵權(quán)責(zé)任。人工智能產(chǎn)品卻并非如此,雖說(shuō)在絕大多數(shù)情況下其是聽(tīng)從于人類意志而進(jìn)行工作,但其并非完全受控于人類意志,其有一定的自主性,如若出現(xiàn)人工智能在其自主性情形下侵害他人利益的情形,讓管理人對(duì)此行為負(fù)責(zé),不很合理。此學(xué)說(shuō)忽略了人工智能產(chǎn)品的自主性。
綜合上述觀點(diǎn),筆者認(rèn)為應(yīng)將人工智能品歸入民事法律客體范疇,不應(yīng)賦予其民事主體地位。盡管人工智能已經(jīng)表現(xiàn)出相當(dāng)?shù)淖灾餍院椭腔坌裕洚a(chǎn)生及發(fā)展都在人類控制之下,它的自主性極其有限。從資源分配角度考慮,人類也不容許它們處于法律主體地位。目前,人與人之間雖是自由平等關(guān)系,但同時(shí)也是資源競(jìng)爭(zhēng)關(guān)系。如若人工智能處于民事主體地位,將與人類處于平等地位,也就具有平等的權(quán)利取競(jìng)爭(zhēng)資源,占有資源。人工智能具有強(qiáng)大的資源收集和學(xué)習(xí)能力,在很多方面對(duì)人類來(lái)說(shuō)都具有壓倒性的優(yōu)勢(shì),如此一來(lái),在資源競(jìng)爭(zhēng)中人類很容易就處于弱勢(shì)地位。人類并不會(huì)選擇以自己之手為其創(chuàng)造競(jìng)爭(zhēng)者,因此不會(huì)縱容人工智能作為民事主體在法律關(guān)系和現(xiàn)實(shí)生活中對(duì)人類造成威脅。再者,假設(shè)承認(rèn)其民事主體地位,人工智能也就擁有與一般民事主體相同的適應(yīng)其自身的民事權(quán)利、民事義務(wù)、民事責(zé)任。民事權(quán)利要求民事主體具有權(quán)利意識(shí),是指權(quán)利主體要求他人實(shí)施某種行為或者不實(shí)施某種行為,以實(shí)現(xiàn)其利益的可能性。就現(xiàn)階段的弱人工智能來(lái)說(shuō),其沒(méi)有自我意識(shí),也就沒(méi)有權(quán)利意識(shí),那么由民事權(quán)利生發(fā)的一系列利益其都無(wú)法享有,無(wú)法行使民事權(quán)利。民事義務(wù)是指義務(wù)人為滿足權(quán)利人的利益而為一定行為或不得為一定行為的必要性。弱人工智能只能在人類的支配下去完成一定的行為,其對(duì)不操縱自身的人類是無(wú)法作出具體回應(yīng)的,更談不上針對(duì)權(quán)利人的要求去作出一定行為或者不作出一定行為。從民事責(zé)任的角度來(lái)說(shuō),民事責(zé)任是指民事主體違反民事義務(wù)而必須承擔(dān)的不利法律后果。以財(cái)產(chǎn)責(zé)任為主要內(nèi)容,具體為恢復(fù)原狀、消除影響、賠償損失、賠禮道歉等。弱人工智能本身并無(wú)獨(dú)立意識(shí),也無(wú)獨(dú)立財(cái)產(chǎn),無(wú)法承擔(dān)其行為帶來(lái)的民事責(zé)任,如若將其作為責(zé)任主體,很可能導(dǎo)致權(quán)利人利益被侵害而得不到相應(yīng)賠償,對(duì)權(quán)利人來(lái)說(shuō)極為不公,還有可能引發(fā)道德風(fēng)險(xiǎn)。所以,人工智能處于民事法律客體地位較為合適。
目前,人工智能產(chǎn)品在人們生活中的應(yīng)用已經(jīng)相當(dāng)廣泛,大到超級(jí)計(jì)算機(jī),小到掃地機(jī)器人,伴隨而來(lái)的就是人工智能產(chǎn)品在工作中給人類的利益帶來(lái)的一系列損害。人工智能產(chǎn)品侵權(quán)究竟應(yīng)適用何種責(zé)任是學(xué)界一直都在討論的問(wèn)題,尚無(wú)定論。目前,學(xué)界有以下幾種學(xué)說(shuō)。
此種責(zé)任與法律擬制說(shuō)相承接,認(rèn)為可類比法人責(zé)任承擔(dān)模式由人工智能產(chǎn)品的管理人來(lái)承擔(dān)侵權(quán)責(zé)任,但是此種說(shuō)法與法律擬制說(shuō)存在一樣的漏洞,忽略了人工智能的自主性。人工智能產(chǎn)品與其管理人的關(guān)聯(lián)程度不如法人與股東之間緊密。法人不管是在設(shè)立階段,還是在生產(chǎn)運(yùn)營(yíng)階段,甚至破產(chǎn)階段,都完完全全處于管理者的控制之下,而人工智能并非完全處于人類的控制之下,如若人工智能是在其管理人的控制之下侵害他人利益,則管理人就應(yīng)當(dāng)為自己行為負(fù)責(zé),承擔(dān)侵權(quán)責(zé)任,但如若侵權(quán)行為是人工智能在其自主意志下作出的,沒(méi)有任何管理人意志因素存在,讓管理人承擔(dān)侵權(quán)責(zé)任未免不公。
此種責(zé)任與代理說(shuō)成一體系。代理人責(zé)任是指代理人因過(guò)失違反契約或有締約上過(guò)失(如泄露締約過(guò)程所獲知的相對(duì)人營(yíng)業(yè)秘密)應(yīng)歸責(zé)于本人負(fù)債務(wù)不履行或締約上過(guò)失責(zé)任[3](P430)。此說(shuō)認(rèn)為在人工智能產(chǎn)品侵權(quán)場(chǎng)合應(yīng)由管理人對(duì)被侵權(quán)人造成的損失承擔(dān)責(zé)任。此說(shuō)的弊端在于將人工智能產(chǎn)品與代理人放在同等位置,雖說(shuō)人工智能產(chǎn)品具有一定的自主性和智慧性,可以在相對(duì)范圍內(nèi)自主完成工作,但是其仍屬于法律客體范疇,不具有民事權(quán)利能力和民事行為能力,但是代理人是獨(dú)立的法律主體,具有民事權(quán)利能力和民事行為能力,這點(diǎn)是二者最明顯的不同。也正因?yàn)槿斯ぶ悄墚a(chǎn)品處于民事客體地位,代理人責(zé)任是站不住腳的。
監(jiān)護(hù)人責(zé)任的歸責(zé)原則是無(wú)過(guò)錯(cuò)責(zé)任,即只要被監(jiān)護(hù)人的行為構(gòu)成侵權(quán)行為,監(jiān)護(hù)人就應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任[4](P738)。梁鵬在其《人工智能產(chǎn)侵權(quán)的責(zé)任承擔(dān)》一文中,將人工智能產(chǎn)品的法律地位與未成年人的法律地位進(jìn)行類比來(lái)論述,認(rèn)為現(xiàn)代民商事法律上,承擔(dān)責(zé)任的主要形式是財(cái)產(chǎn),未成年人處于求學(xué)狀態(tài),一般沒(méi)有獨(dú)立的財(cái)產(chǎn),也便不能獨(dú)立承擔(dān)責(zé)任,故而,其行為應(yīng)當(dāng)受到限制[5](P11-14)。人工智能產(chǎn)品與其一樣,沒(méi)有財(cái)產(chǎn),并不具備民事責(zé)任能力。應(yīng)當(dāng)參照監(jiān)護(hù)人與被監(jiān)護(hù)人,使人工智能操作者或者控制人承擔(dān)責(zé)任。此說(shuō)將人工智能產(chǎn)品的法律地位與未成年人進(jìn)行類比具有可取之處,既關(guān)注到人工智能的自主性、智慧性又兼顧到其局限性,是比較折中的說(shuō)法,但是細(xì)究起來(lái),此說(shuō)只看到實(shí)際操縱人對(duì)人工智能產(chǎn)品的控制行為這個(gè)表象,忽略人工智能產(chǎn)品的研發(fā)設(shè)計(jì)者、生產(chǎn)者、銷售者對(duì)人工智能產(chǎn)生的影響。特別是產(chǎn)品研發(fā)設(shè)計(jì)者,他設(shè)計(jì)了人工智能的核心,人工智能的行為幾乎都是在其設(shè)計(jì)之下進(jìn)行的,實(shí)際操縱人只是使其人工智能產(chǎn)品重復(fù)再現(xiàn)預(yù)設(shè)好的行為,相比之下,產(chǎn)品研發(fā)設(shè)計(jì)者對(duì)人工智能產(chǎn)生的影響要更大一些。而被監(jiān)護(hù)人除了監(jiān)護(hù)人以外沒(méi)有其他可以對(duì)其行為負(fù)責(zé)的人。從這點(diǎn)來(lái)看,二者還是不一致的。
我國(guó)《產(chǎn)品質(zhì)量法》第 2 條規(guī)定:“本法所稱的產(chǎn)品是指經(jīng)過(guò)加工、制作、用于銷售的產(chǎn)品。建筑工程不適用本法的規(guī)定,但是建筑工程所用的建筑材料、建筑構(gòu)配件和設(shè)備,屬于前款規(guī)定的產(chǎn)品范圍的,適用本法規(guī)定?!睆拇艘?guī)定中對(duì)產(chǎn)品的定義來(lái)看,產(chǎn)品應(yīng)滿足經(jīng)過(guò)加工、制作、用于銷售這三個(gè)要件?,F(xiàn)階段的弱人工智能從其產(chǎn)生、制作、銷售過(guò)程來(lái)看,滿足產(chǎn)品的要件,符合產(chǎn)品的要求。人類更多地將其視為便利生活、學(xué)習(xí)、工作的智能產(chǎn)品?!睹穹ǖ洹返?203條規(guī)定:“因產(chǎn)品存在缺陷造成損害的,被侵權(quán)人可以向產(chǎn)品的生產(chǎn)者請(qǐng)求賠償,也可以向產(chǎn)品的銷售者請(qǐng)求賠償?!睂?duì)人工智能侵權(quán)場(chǎng)合適用產(chǎn)品責(zé)任是學(xué)界較為支持的主張,人工智能的產(chǎn)生過(guò)程與一般的產(chǎn)品類似,都經(jīng)過(guò)產(chǎn)品生產(chǎn)者、產(chǎn)品銷售者、產(chǎn)品使用者之間的流轉(zhuǎn)。特別之處在于,人工智能產(chǎn)品的自主性和智慧性對(duì)產(chǎn)品前期設(shè)計(jì)投入要求較高,所以,產(chǎn)品研發(fā)設(shè)計(jì)者也在其中起到至關(guān)重要的作用。再看其性質(zhì),人們對(duì)待人工智能產(chǎn)品的態(tài)度與一般產(chǎn)品無(wú)異,如若產(chǎn)品出現(xiàn)問(wèn)題通常也是向產(chǎn)品銷售者或者產(chǎn)品生產(chǎn)者要求維修或者索賠。例如,對(duì)于掃地機(jī)器人,一般商家都會(huì)有售后服務(wù),當(dāng)其出現(xiàn)故障時(shí)消費(fèi)者就會(huì)聯(lián)系商家進(jìn)行修理,商家也應(yīng)提供售后服務(wù)。這與一般產(chǎn)品例如電視機(jī)、洗衣機(jī)的報(bào)修處理過(guò)程是一致的。對(duì)人工智能產(chǎn)品侵權(quán)適用產(chǎn)品責(zé)任有其合理之處。
動(dòng)物飼養(yǎng)人責(zé)任采用無(wú)過(guò)錯(cuò)責(zé)任歸責(zé)原則,即只要飼養(yǎng)的動(dòng)物造成他人損害,動(dòng)物飼養(yǎng)人或者管理人就應(yīng)當(dāng)承擔(dān)責(zé)任,但責(zé)任人如果證明損害是被侵權(quán)人故意或者重大過(guò)失造成的,其責(zé)任可以減輕或者免除[4](P736)。人工智能產(chǎn)品與動(dòng)物相比,也具有一定的相似性,在日常場(chǎng)合,二者都受實(shí)際操作人或者主人支配,在其指揮下正常行為。在人工智能侵權(quán)場(chǎng)合,其行為和動(dòng)物一樣,是不受控制的。人工智能產(chǎn)品突然程序紊亂出現(xiàn)故障而對(duì)他人造成損害的行為與寵物狗突然失控或者受其他人刺激而攻擊他人的行為性質(zhì)類似,都是在實(shí)際操作人或者主人的意志之外進(jìn)行的。此學(xué)說(shuō)也有一定的合理性,但是人工智能與動(dòng)物相類比確實(shí)忽略了人工智能的自主性和智慧性。雖然動(dòng)物也具有自己的思維,但人工智能的自主性和智慧性和動(dòng)物并不是同一種性質(zhì)的,在這方面,人工智能的水平要比動(dòng)物高出很多。
綜上所述,筆者認(rèn)為對(duì)人工智能侵權(quán)適用產(chǎn)品責(zé)任最為適宜。由于人工智能侵權(quán)場(chǎng)合牽涉到的主體較多,關(guān)系比較復(fù)雜,而產(chǎn)品責(zé)任對(duì)產(chǎn)品侵權(quán)場(chǎng)合產(chǎn)生的侵權(quán)責(zé)任進(jìn)行了明確的責(zé)任分擔(dān),人工智能侵權(quán)適用產(chǎn)品責(zé)任具有化繁為簡(jiǎn)的效果。
人工智能從其產(chǎn)生、流轉(zhuǎn)到最終歸屬所牽涉較多主體,包括產(chǎn)品研發(fā)設(shè)計(jì)者、產(chǎn)品生產(chǎn)者、產(chǎn)品銷售者、產(chǎn)品所有者。各主體在人工智能侵權(quán)場(chǎng)合所起的作用不同,其應(yīng)承擔(dān)的責(zé)任就不一樣,所以應(yīng)當(dāng)予以分別討論。
人工智能產(chǎn)品與其他一般工具最顯著的區(qū)別在于它具有自主性和智慧性,表現(xiàn)為具有較強(qiáng)的自我學(xué)習(xí)能力。人工智能產(chǎn)品擁有此能力和特性的原因在于產(chǎn)品研發(fā)設(shè)計(jì)者在設(shè)計(jì)人工智能的時(shí)候投入了較高的技術(shù)水平,類似于電腦的芯片一樣,控制了人工智能的行為,對(duì)人工智能后來(lái)的行為在很大程度上起到主導(dǎo)作用?,F(xiàn)階段,我們?nèi)蕴幱谌跞斯ぶ悄軙r(shí)代,設(shè)計(jì)者對(duì)人工智能的設(shè)計(jì)及控制都起到?jīng)Q定性作用,至于后續(xù)的產(chǎn)品生產(chǎn)者是嚴(yán)格依據(jù)設(shè)計(jì)進(jìn)行生產(chǎn),產(chǎn)品銷售者也只是對(duì)成品進(jìn)行銷售,對(duì)人工智能產(chǎn)品進(jìn)行干預(yù)的可能性較小。所以,人工智能產(chǎn)品侵權(quán)場(chǎng)合,如程序紊亂、失靈等狀況很可能是由于設(shè)計(jì)者設(shè)計(jì)不當(dāng)造成的。產(chǎn)品出現(xiàn)制造缺陷、設(shè)計(jì)缺陷和警示缺陷,這些本可以避免的問(wèn)題,只能歸因于產(chǎn)品研發(fā)設(shè)計(jì)者本身,如果因此造成他人利益損害的,產(chǎn)品研發(fā)設(shè)計(jì)者就要承擔(dān)相應(yīng)的責(zé)任。
產(chǎn)品生產(chǎn)者在很多情況下與產(chǎn)品研發(fā)設(shè)計(jì)者為同一主體,一般的產(chǎn)品生產(chǎn)者都會(huì)有自己的專門(mén)研發(fā)部門(mén)。人工智能產(chǎn)品領(lǐng)域產(chǎn)品生產(chǎn)者與其他一般產(chǎn)品的產(chǎn)品生產(chǎn)者并無(wú)不同,都應(yīng)當(dāng)嚴(yán)格依據(jù)產(chǎn)品設(shè)計(jì)和人工智能產(chǎn)品領(lǐng)域的具體要求進(jìn)行生產(chǎn)?!睹穹ǖ洹返?202條規(guī)定,因產(chǎn)品存在缺陷造成他人損害的,生產(chǎn)者應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任。如若在生產(chǎn)過(guò)程中,沒(méi)有遵守生產(chǎn)規(guī)定,以致產(chǎn)品瑕疵而造成他人損害的,應(yīng)當(dāng)承擔(dān)相應(yīng)責(zé)任。
《民法典》第1203條規(guī)定,因銷售者的過(guò)錯(cuò)使產(chǎn)品存在缺陷而造成他人損害的,銷售者應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任。銷售者既不能指明缺陷產(chǎn)品的生產(chǎn)者也不能指明缺陷產(chǎn)品的供貨者的,銷售者應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任。人工智能產(chǎn)品對(duì)銷售者的要求相比于普通產(chǎn)品來(lái)說(shuō)更高。人工智能產(chǎn)品與一般產(chǎn)品最大的不同在于由于人工智能產(chǎn)品的智能性,其相對(duì)于一般產(chǎn)品來(lái)說(shuō)更不易操作,注意事項(xiàng)較多,產(chǎn)品銷售者應(yīng)當(dāng)對(duì)消費(fèi)者進(jìn)行準(zhǔn)確的告知。產(chǎn)品銷售者應(yīng)當(dāng)對(duì)人工智能產(chǎn)品的操作過(guò)程、注意事項(xiàng)、問(wèn)題處理等過(guò)程對(duì)消費(fèi)者進(jìn)行詳細(xì)講解,不能以說(shuō)明書(shū)已經(jīng)詳細(xì)說(shuō)明為借口不履行此項(xiàng)義務(wù)。如若因其未能適當(dāng)履行此項(xiàng)詳細(xì)說(shuō)明義務(wù),導(dǎo)致消費(fèi)者因錯(cuò)誤操作人工智能產(chǎn)品而造成他人利益的損害,銷售者應(yīng)當(dāng)對(duì)此部分損害承擔(dān)侵權(quán)責(zé)任。
產(chǎn)品所有者即產(chǎn)品管理者不是產(chǎn)品責(zé)任的責(zé)任承擔(dān)主體,在實(shí)踐中,他們常常作為權(quán)益受損害的一方,向產(chǎn)品生產(chǎn)者或者產(chǎn)品銷售者主張承擔(dān)侵權(quán)責(zé)任。產(chǎn)品所有者是人工智能產(chǎn)品的直接管理者,直接控制人工智能產(chǎn)品的具體行為。產(chǎn)品所有者因人工智能侵權(quán)而承擔(dān)責(zé)任的情況與一般侵權(quán)責(zé)任承擔(dān)無(wú)異,適用過(guò)錯(cuò)責(zé)任原則。如若產(chǎn)品所有者對(duì)事故的發(fā)生有過(guò)錯(cuò),應(yīng)當(dāng)依據(jù)過(guò)錯(cuò)程度及原因力承擔(dān)相應(yīng)的責(zé)任。人工智能產(chǎn)品的工作的結(jié)果直接歸屬于產(chǎn)品所有者。所有者在對(duì)人工智能產(chǎn)品進(jìn)行操作時(shí)應(yīng)當(dāng)按照具體操作規(guī)則進(jìn)行,在操作時(shí)進(jìn)行較高的注意義務(wù),定期對(duì)人工智能產(chǎn)品進(jìn)行合理維護(hù),如若因?yàn)椴僮鞑划?dāng)、沒(méi)有盡到相應(yīng)的注意義務(wù)、沒(méi)有進(jìn)行必要的維護(hù)等其他影響人工智能工作狀態(tài)的行為而導(dǎo)致侵權(quán)行為的發(fā)生,產(chǎn)品所有者應(yīng)當(dāng)承擔(dān)相應(yīng)的責(zé)任。
研究人工智能侵權(quán)問(wèn)題應(yīng)當(dāng)先確定人工智能的法律屬性,立足于侵權(quán)責(zé)任法的基本理論進(jìn)行分析解決。人工智能產(chǎn)品正在逐漸滲透進(jìn)我們生活的方方面面,必然會(huì)帶來(lái)更多的法律風(fēng)險(xiǎn),我們應(yīng)當(dāng)綜合人工智能的發(fā)展特性和發(fā)展前景及時(shí)作出合理的規(guī)制來(lái)應(yīng)對(duì)風(fēng)險(xiǎn),以免出現(xiàn)法律空白。與人工智能相關(guān)的立法工作應(yīng)當(dāng)予以推進(jìn),從而對(duì)人工智能進(jìn)行準(zhǔn)確的定位和侵權(quán)的認(rèn)定,保障各方主體權(quán)益。