国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能侵權(quán):產(chǎn)品責(zé)任制度介入的權(quán)宜性及立法改造

2020-12-22 19:44:34張安毅
關(guān)鍵詞:生產(chǎn)者設(shè)計(jì)者主體

張安毅

(河南財(cái)經(jīng)政法大學(xué)民商經(jīng)濟(jì)法學(xué)院,河南 鄭州450000)

人工智能的廣泛應(yīng)用深刻改變了我們的生產(chǎn)生活方式,智能機(jī)器人擔(dān)綱主持、自動(dòng)汽車(chē)實(shí)現(xiàn)無(wú)人駕駛、“阿爾法狗”戰(zhàn)勝世界圍棋冠軍等,都表明人工智能可達(dá)到的技術(shù)水平和高度不可估量。然而隨著人工智能的普及,其脆弱性也逐漸暴露,人工智能的潛在風(fēng)險(xiǎn)頻頻致人損害,由此也帶來(lái)一系列棘手的法律問(wèn)題。自動(dòng)運(yùn)行的智能機(jī)器人失控而致?lián)p第三人是誰(shuí)的過(guò)錯(cuò)?無(wú)人駕駛汽車(chē)發(fā)生交通事故侵權(quán)由誰(shuí)來(lái)負(fù)責(zé)?人工智能侵權(quán)適用何種歸責(zé)原則?已有的侵權(quán)責(zé)任規(guī)則能否有效規(guī)制人工智能侵權(quán)?學(xué)界對(duì)此眾說(shuō)紛紜,并無(wú)定論。解決人工智能侵權(quán)的責(zé)任問(wèn)題,首先要明確人工智能是什么,究竟是人類(lèi)制造的產(chǎn)品還是具有人格屬性的一種實(shí)體;其次,人工智能侵權(quán)有何特殊性,人工智能侵權(quán)的出現(xiàn)是否顛覆了現(xiàn)有法律體系,現(xiàn)有法律體系應(yīng)該如何主動(dòng)適應(yīng)未來(lái)人工智能發(fā)展?本文將從這些問(wèn)題出發(fā),探討人工智能侵權(quán)的立法規(guī)制路徑。

一、人工智能侵權(quán)對(duì)侵權(quán)責(zé)任法的挑戰(zhàn)及其規(guī)制路徑

人工智能侵權(quán)一般是指應(yīng)用人工智能技術(shù)的終端設(shè)施侵害他人權(quán)益造成損害的情形。如果是行為人控制、指令、利用人工智能實(shí)施侵害,此時(shí)人工智能就成為行為人侵權(quán)時(shí)的作案工具,侵權(quán)主體是行為人,這與傳統(tǒng)侵權(quán)行為沒(méi)有區(qū)別,適用傳統(tǒng)侵權(quán)責(zé)任規(guī)則就可以解決,故不在本文研討范疇。人工智能侵權(quán)的常見(jiàn)情形是人工智能自身在沒(méi)有外來(lái)干擾的情況下致人損害,這可能源于人工智能設(shè)計(jì)、編程的漏洞和缺陷,也可能源于控制系統(tǒng)損壞或運(yùn)行設(shè)備的物理?yè)p壞等,對(duì)此應(yīng)如何確定侵權(quán)責(zé)任?在傳統(tǒng)一般侵權(quán)責(zé)任規(guī)則下,侵權(quán)人的過(guò)錯(cuò)是其承擔(dān)侵權(quán)責(zé)任的必備要件,無(wú)過(guò)錯(cuò)即無(wú)責(zé)任,這是為了在一定程度上保護(hù)行為人的行為自由。但人工智能在運(yùn)行過(guò)程中處于自主、自動(dòng)狀態(tài),比如谷歌的概念車(chē)就已經(jīng)完全取消了方向盤(pán)、剎車(chē)等干預(yù)裝置,此時(shí)如果發(fā)生侵權(quán)事故,判斷誰(shuí)有過(guò)錯(cuò)進(jìn)而確定責(zé)任人就成為難題。人工智能是按照人類(lèi)設(shè)計(jì)的既定程序運(yùn)行的,現(xiàn)行法律也沒(méi)有針對(duì)人工智能規(guī)定注意義務(wù),因此無(wú)法判定人工智能有過(guò)錯(cuò);人工智能的管理人、使用人、所有人既沒(méi)有實(shí)施導(dǎo)致?lián)p害發(fā)生的行為,也無(wú)法避免或阻止人工智能侵權(quán)的發(fā)生,比如自動(dòng)汽車(chē)內(nèi)的人純粹是乘客而不是司機(jī),更是不能判定他們存在過(guò)錯(cuò)??傊谝话氵^(guò)錯(cuò)侵權(quán)責(zé)任規(guī)則下解決人工智能侵權(quán)責(zé)任問(wèn)題存在困難。

人工智能侵權(quán)如果不能適用一般侵權(quán)責(zé)任規(guī)則,那么依據(jù)現(xiàn)有的其他侵權(quán)法規(guī)則和理論能否解決其侵權(quán)責(zé)任問(wèn)題?人工智能的潛在風(fēng)險(xiǎn)很難控制,有時(shí)會(huì)做出與設(shè)計(jì)者初衷不同的決策,尤其是人工智能在經(jīng)歷自主學(xué)習(xí)之后,其決策體系越來(lái)越傾向于發(fā)展成為一個(gè)“黑箱”[1]。從這方面而言,人工智能侵權(quán)更像是高度危險(xiǎn)作業(yè),可以適用高度危險(xiǎn)責(zé)任。在高度危險(xiǎn)作業(yè)情況下,當(dāng)事人應(yīng)當(dāng)對(duì)高度危險(xiǎn)作業(yè)引發(fā)的損害承擔(dān)無(wú)過(guò)錯(cuò)侵權(quán)責(zé)任,立法目的是督促當(dāng)事人盡力防范、避免損害的發(fā)生。但“高度危險(xiǎn)責(zé)任的責(zé)任人限于為營(yíng)業(yè)目的而從事高度危險(xiǎn)作業(yè)之人”[2],而此時(shí)人工智能的使用人或者營(yíng)業(yè)人事實(shí)上都無(wú)法控制人工智能,人工智能有自己獨(dú)立的判斷系統(tǒng),即便讓人工智能的使用人、營(yíng)業(yè)人承擔(dān)責(zé)任,也無(wú)法起到防范、減少這類(lèi)侵權(quán)發(fā)生的作用。因此,高度危險(xiǎn)責(zé)任不適用于人工智能侵權(quán)。有學(xué)者提出,人工智能與其管理人之間的關(guān)系類(lèi)似于代理人與被代理人,可以用代理人責(zé)任來(lái)解決其侵權(quán)責(zé)任承擔(dān)問(wèn)題,代理人的行為后果由管理人負(fù)責(zé)[3]。還有學(xué)者提出,可適用雇主責(zé)任解決人工智能侵權(quán)問(wèn)題,如果管理人有“過(guò)錯(cuò)”,則應(yīng)當(dāng)對(duì)人工智能侵權(quán)行為承擔(dān)“替代責(zé)任”,類(lèi)似于雇傭關(guān)系中的雇主為雇員的職務(wù)行為承擔(dān)責(zé)任[4]。但代理人責(zé)任和雇主責(zé)任適用的前提都是代理人、雇傭人是獨(dú)立的主體,有獨(dú)立人格和獨(dú)立利益,人工智能肯定沒(méi)有獨(dú)立的利益,至于有無(wú)獨(dú)立的人格尚存在巨大爭(zhēng)議,而且管理人不會(huì)向人工智能支付代理費(fèi)、雇傭報(bào)酬,因此將人工智能推定為獨(dú)立的代理人、雇傭人過(guò)于牽強(qiáng)。我國(guó)已有學(xué)者注意到人工智能侵權(quán)的特殊性,并認(rèn)為現(xiàn)有的侵權(quán)法不足以解決人工智能帶來(lái)的問(wèn)題[1]。

鑒于傳統(tǒng)侵權(quán)法規(guī)則和理論無(wú)法較好解決人工智能致?lián)p侵權(quán)責(zé)任問(wèn)題,一些學(xué)者提出,在傳統(tǒng)法律視野下將人工智能視為物已不能解決其侵權(quán)問(wèn)題,人工智能與傳統(tǒng)機(jī)器的區(qū)別在于其具有“人”的自主性,賦予其民事主體地位并自行擔(dān)責(zé)是大勢(shì)所趨。有學(xué)者認(rèn)為,人工智能應(yīng)該具有類(lèi)似于企業(yè)法人的法律人格[5];也有學(xué)者認(rèn)為,人工智能應(yīng)當(dāng)具有法律人格,但是屬于有限的法律人格[6],其權(quán)利義務(wù)應(yīng)當(dāng)限制在法律規(guī)定的范圍內(nèi);還有學(xué)者則強(qiáng)調(diào)人工智能具有財(cái)產(chǎn)方面的意思能力,應(yīng)以財(cái)產(chǎn)性人格的進(jìn)路將其擬制為電子法人[7]。盡管學(xué)界關(guān)于如何賦予人工智能法律人格還存在爭(zhēng)議,但不少學(xué)者傾向于在確定人工智能民事主體地位的前提下解決現(xiàn)有法律難題,比如在承認(rèn)未來(lái)人工智能能夠自主決策、享有權(quán)利的前提下,可以要求其承擔(dān)法律責(zé)任,“正如人類(lèi)要為自己的行為付出代價(jià)一樣,人工智能也是如此,并不因?yàn)槿斯ぶ悄懿⒎侨祟?lèi)就可以逃脫法律制裁”[6]。

如果將人工智能視為民事主體而不是物,就需要打破原有民法規(guī)則,這樣做目前是否具有可行性呢?首先,從立法技術(shù)上看,法律調(diào)整民事主體最終是調(diào)整其行為并影響其決策機(jī)制,但目前人工智能仍是由一系列人類(lèi)設(shè)計(jì)的算法來(lái)操控的,不會(huì)產(chǎn)生自己獨(dú)立的意志,且人工智能不可能對(duì)人類(lèi)制定的法律產(chǎn)生敬畏意識(shí),法律也無(wú)法直接調(diào)整人工智能的運(yùn)行決策程序。其次,從立法效果上看,人工智能自身就是一種人類(lèi)創(chuàng)造的財(cái)產(chǎn),自己沒(méi)有獨(dú)立的財(cái)產(chǎn),讓其承擔(dān)民事責(zé)任將面臨無(wú)法執(zhí)行的困境。即使為其設(shè)立類(lèi)似基金的財(cái)產(chǎn),其背后出資、管控的還是人類(lèi),因而沒(méi)有實(shí)際意義。因此,就現(xiàn)階段來(lái)看,并沒(méi)有將人工智能作為獨(dú)立民事主體調(diào)整的基礎(chǔ)和必要性。正如有學(xué)者指出的,“面對(duì)人工智能技術(shù)的發(fā)展,用現(xiàn)行民法的基本理念和基本規(guī)則進(jìn)行適當(dāng)調(diào)整,就能夠解決其所帶來(lái)的問(wèn)題。”[8]人工智能雖然具有智慧,但其智慧是人類(lèi)設(shè)計(jì)的算法賦予的。人工智能目前只是人類(lèi)的工具,沒(méi)有超越人類(lèi)視野下“物”的范疇,人工智能應(yīng)被置于人類(lèi)的控制下,應(yīng)將其作為法律關(guān)系的客體而非主體[9]。不過(guò)人工智能的“智力”發(fā)展不可限量,未來(lái)人工智能很可能會(huì)具有超越人類(lèi)、不受人類(lèi)控制的思維判斷和行動(dòng)能力,他們可能會(huì)比人類(lèi)更好地控制、管理自己,人工智能運(yùn)作模式有可能由人工智能自己依據(jù)社會(huì)需要來(lái)進(jìn)行設(shè)置,此時(shí)也就無(wú)法用人類(lèi)固有的法律規(guī)則來(lái)調(diào)整它了。但在目前人工智能被人類(lèi)支配的狀況下,還不存在讓人工智能作為獨(dú)立民事主體、獨(dú)立擔(dān)任社會(huì)角色、獨(dú)立發(fā)揮社會(huì)功能的需要,我國(guó)現(xiàn)行立法也沒(méi)有賦予人工智能以民事主體地位。因此,對(duì)于人工智能侵權(quán)的規(guī)制,還要從人工智能“物”的屬性出發(fā)以確定解決方案。

二、產(chǎn)品責(zé)任制度規(guī)制人工智能侵權(quán)的相對(duì)合理性

人工智能一般是指研究、開(kāi)發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法技術(shù)及應(yīng)用系統(tǒng)的一門(mén)新的技術(shù)科學(xué)。人工智能最大的特殊性是其可以像人一樣獨(dú)立判斷和決策。但現(xiàn)階段的人工智能沒(méi)有類(lèi)似人類(lèi)的社會(huì)關(guān)系和社會(huì)地位,在人工智能取得獨(dú)立民事主體地位之前,人工智能在本質(zhì)上只能是具有特殊功能的產(chǎn)品,人工智能的這種屬性決定了修改現(xiàn)行產(chǎn)品責(zé)任制度以解決人工智能致?lián)p侵權(quán)責(zé)任具有必要性和可能性。我國(guó)《產(chǎn)品質(zhì)量法》第2條規(guī)定,本法所稱(chēng)產(chǎn)品是指經(jīng)過(guò)加工、制作,用于銷(xiāo)售的產(chǎn)品。人工智能是經(jīng)過(guò)加工制作出來(lái)的,其被生產(chǎn)出來(lái)的目的是參與流通即銷(xiāo)售,從這一點(diǎn)來(lái)看,人工智能屬于產(chǎn)品的范疇,接受產(chǎn)品責(zé)任制度的調(diào)整在現(xiàn)階段具有相對(duì)合理性。與此同時(shí),在人工智能具有自我管理的能力和機(jī)會(huì)之前,人工智能的侵權(quán)風(fēng)險(xiǎn)也只有通過(guò)產(chǎn)品責(zé)任規(guī)制生產(chǎn)設(shè)計(jì)行為才能得以良好控制。侵權(quán)責(zé)任法的制度功能一方面是補(bǔ)償受害人的損失,另一方面則是通過(guò)責(zé)任分配,課以當(dāng)事人相應(yīng)的注意義務(wù),減少或者避免損害的發(fā)生。比如高度危險(xiǎn)作業(yè)致人損害的情況下,適用無(wú)過(guò)錯(cuò)責(zé)任就是為了激發(fā)行為人投入適當(dāng)?shù)某杀绢A(yù)防損害的發(fā)生[10]。同樣,在人工智能侵權(quán)場(chǎng)合確定責(zé)任人,不僅涉及對(duì)受害者的賠償,還涉及防范致?lián)p事件發(fā)生義務(wù)的分配問(wèn)題。產(chǎn)品責(zé)任具有規(guī)制生產(chǎn)行為的作用[11],通過(guò)產(chǎn)品責(zé)任制度方能促進(jìn)生產(chǎn)者、設(shè)計(jì)者盡力改進(jìn)人工智能運(yùn)行程序、嚴(yán)格生產(chǎn)規(guī)范,保障人工智能產(chǎn)品的安全。致?lián)p事實(shí)發(fā)生后,如果需要對(duì)侵權(quán)的人工智能進(jìn)行召回、修理或者更換,這些法律后果都要通過(guò)產(chǎn)品責(zé)任制度才能實(shí)現(xiàn)。當(dāng)然,人工智能與一般產(chǎn)品具有根本不同的發(fā)展傾向,隨著科技進(jìn)步,人工智能不僅能夠模擬人的智能,其強(qiáng)大的計(jì)算功能還會(huì)使得其超越人類(lèi)、在某些方面取代人類(lèi)成為必然的結(jié)果,人工智能普及所帶來(lái)的失業(yè)潮就是一個(gè)例證。另一方面,人工智能具有的通過(guò)學(xué)習(xí)而增長(zhǎng)智力、能夠自我決策等特性使得在未來(lái)無(wú)法僅僅將其視為人類(lèi)可以隨意控制的工具,人工智能完全可以產(chǎn)生自我意識(shí)、熟悉和遵守人類(lèi)社會(huì)規(guī)則或者建立自己的行為準(zhǔn)則。人工智能的一個(gè)里程碑式事件是機(jī)器人“索菲亞”取得沙特阿拉伯國(guó)籍,這使得“索菲亞”具有了享有公民權(quán)利、履行公民義務(wù)的機(jī)會(huì)和資格,這也說(shuō)明將來(lái)人工智能取得法律主體身份并非不可能?;谌斯ぶ悄馨l(fā)展的不可限定性,產(chǎn)品責(zé)任規(guī)制人工智能侵權(quán)只是權(quán)宜方案,其合理性也是在一定時(shí)代背景下而言的。

但無(wú)論如何,從現(xiàn)行法律規(guī)則適用的技術(shù)上看,產(chǎn)品責(zé)任制度規(guī)制人工智能侵權(quán)具有多方面的可行性:第一,產(chǎn)品責(zé)任的無(wú)過(guò)錯(cuò)責(zé)任歸責(zé)原則,可以督促生產(chǎn)者盡最大努力保證人工智能這一產(chǎn)品的安全,杜絕人工智能產(chǎn)品設(shè)計(jì)上的瑕疵和盲目生產(chǎn)行為。有學(xué)者以自動(dòng)駕駛汽車(chē)為例,指出在無(wú)人駕駛情況下系統(tǒng)的可靠性至關(guān)重要,讓生產(chǎn)者對(duì)系統(tǒng)安全性問(wèn)題承擔(dān)產(chǎn)品質(zhì)量責(zé)任具有合理性[12]。第二,一般產(chǎn)品缺陷包括設(shè)計(jì)缺陷、制造缺陷和警示缺陷3類(lèi),人工智能產(chǎn)品的缺陷也可以按照這種方式劃分,比如智能機(jī)器人不按照輸入的指示運(yùn)行屬于設(shè)計(jì)缺陷,智能機(jī)器人電池漏電屬于制造缺陷,沒(méi)有合理告知消費(fèi)者操作注意事項(xiàng)則屬于警示缺陷。人工智能在自動(dòng)運(yùn)行時(shí)侵權(quán),基本上就是由設(shè)計(jì)缺陷、制造缺陷和警示缺陷這3類(lèi)原因造成的,可以適用產(chǎn)品缺陷致?lián)p責(zé)任規(guī)則。反之,如果不是人工智能的缺陷造成侵權(quán),而是用戶(hù)自身的問(wèn)題,則適用傳統(tǒng)侵權(quán)責(zé)任規(guī)則就可以解決。第三,產(chǎn)品責(zé)任制度的責(zé)任承擔(dān)方式適用于人工智能侵權(quán)。我國(guó)立法規(guī)定的產(chǎn)品責(zé)任承擔(dān)方式包括排除妨礙、消除危險(xiǎn)、賠償損失,以及對(duì)產(chǎn)品缺陷的補(bǔ)救方式如警示、召回等,都可以適用于人工智能侵權(quán)場(chǎng)合。比如產(chǎn)品召回制度可以及早去除危險(xiǎn),避免損害進(jìn)一步擴(kuò)大,更有利于保護(hù)消費(fèi)者。人工智能產(chǎn)品在設(shè)計(jì)方面的缺陷,有時(shí)只有在使用之后才能得以透徹認(rèn)識(shí),因此將召回制度用于人工智能缺陷產(chǎn)品具有合理性。第四,產(chǎn)品責(zé)任制度的抗辯事由也適用于人工智能致?lián)p侵權(quán)。我國(guó)《產(chǎn)品責(zé)任法》第41條規(guī)定了生產(chǎn)者的免責(zé)事由,包括未將產(chǎn)品投入流通;產(chǎn)品投入流通時(shí),引起損害的缺陷尚不存在;將產(chǎn)品投入流通時(shí)的科學(xué)技術(shù)水平尚不能發(fā)現(xiàn)缺陷的存在。這類(lèi)抗辯事由也適用于人工智能產(chǎn)品責(zé)任場(chǎng)合,能夠保障產(chǎn)品生產(chǎn)、行業(yè)發(fā)展的積極性,在一定程度上鼓勵(lì)科技創(chuàng)新。當(dāng)然,責(zé)任者如果以尚不能發(fā)現(xiàn)缺陷的存在為由進(jìn)行抗辯是非常不容易的,只要這種缺陷是現(xiàn)有技術(shù)水平能夠識(shí)別、能夠事先預(yù)判的風(fēng)險(xiǎn),不管能不能控制和避免,責(zé)任者都需要負(fù)責(zé)。人工智能具有學(xué)習(xí)能力,可能基于學(xué)習(xí)產(chǎn)生了之前沒(méi)有的缺陷,但這是設(shè)計(jì)時(shí)就可以預(yù)料到的問(wèn)題,所以不能以此為由免責(zé)。

三、產(chǎn)品責(zé)任制度規(guī)制人工智能侵權(quán)不可回避的偏差

雖然人工智能是一種產(chǎn)品,但它與以往人類(lèi)生產(chǎn)的所有產(chǎn)品都存在巨大不同,其具有類(lèi)似甚至超越人類(lèi)的智能,在許多場(chǎng)合可以直接取代人類(lèi)的工作。按照目前的發(fā)展趨勢(shì),人工智能具有獲得脫離人類(lèi)控制的獨(dú)立自主能力的傾向,人工智能的高度自主性、復(fù)雜性非一般產(chǎn)品可以比擬。一般產(chǎn)品都是在人的操作下發(fā)揮產(chǎn)品功能,但人工智能發(fā)揮功能并不需要人的操作。這些特殊性決定了建立在傳統(tǒng)產(chǎn)品基礎(chǔ)之上的產(chǎn)品責(zé)任制度在面臨人工智能侵權(quán)時(shí),不可避免會(huì)存在制度上的不足和調(diào)整上的偏差,主要表現(xiàn)為以下幾個(gè)方面。

(一)產(chǎn)品責(zé)任中產(chǎn)品缺陷判斷標(biāo)準(zhǔn)的偏差

產(chǎn)品存在缺陷是適用產(chǎn)品責(zé)任的前提,按照我國(guó)《產(chǎn)品質(zhì)量法》和《侵權(quán)責(zé)任法》的規(guī)定,產(chǎn)品缺陷的判斷標(biāo)準(zhǔn)分為兩種,即產(chǎn)品存在危及人身、財(cái)產(chǎn)安全的不合理危險(xiǎn),或產(chǎn)品達(dá)不到國(guó)家或者行業(yè)規(guī)定的標(biāo)準(zhǔn)。現(xiàn)階段我國(guó)還未制定人工智能產(chǎn)品的國(guó)家、行業(yè)標(biāo)準(zhǔn),目前對(duì)產(chǎn)品存在的危險(xiǎn)是否合理的判斷,考慮的因素都與產(chǎn)品質(zhì)量標(biāo)準(zhǔn)相關(guān)。產(chǎn)品質(zhì)量標(biāo)準(zhǔn)包括技術(shù)標(biāo)準(zhǔn)和管理標(biāo)準(zhǔn)兩個(gè)方面,主要是從產(chǎn)品的物理性能、使用性能上分析產(chǎn)品狀況,絲毫不涉及社會(huì)道德倫理問(wèn)題,這對(duì)于判斷人工智能的某些儀器設(shè)備是否存在缺陷具有適用性,比如判斷人工智能傳感器是否正常、自動(dòng)駕駛汽車(chē)的輪胎是否有缺陷等,都完全適用。但人工智能在使用過(guò)程中會(huì)出現(xiàn)大量自主決策的過(guò)程,而這些思考、選擇和決策原本可能是需要人類(lèi)做出的,這導(dǎo)致人工智能很多時(shí)候會(huì)像人類(lèi)一樣陷入道德選擇困境,這是人工智能作為人類(lèi)工作替代物面臨的最大問(wèn)題。正如學(xué)者指出的,自動(dòng)駕駛汽車(chē)的算法也可能需要面對(duì)倫理上的挑戰(zhàn)[13]。例如在發(fā)生事故時(shí)自動(dòng)駕駛汽車(chē)是應(yīng)該嚴(yán)格遵守交通規(guī)則還是優(yōu)先保護(hù)人類(lèi)?一輛自動(dòng)駕駛汽車(chē)在行進(jìn)過(guò)程中面對(duì)突然從路邊跑過(guò)來(lái)的小孩,需要在雙黃線上轉(zhuǎn)彎以避免撞到小孩,但這可能違反交通規(guī)則,此時(shí)就需要做出抉擇。實(shí)踐中已出現(xiàn)類(lèi)似的事例,微軟推出的智能聊天機(jī)器人Tay上線24小時(shí)即在與人的交流過(guò)程中,因?qū)W“壞”而成為滿(mǎn)嘴臟話的“不良少女”,被緊急下線[14],這不啻為一記警鐘。其實(shí)早在2015年,霍金就發(fā)出過(guò)警告,超級(jí)聰明的人工智能可以非常容易地實(shí)現(xiàn)它的目標(biāo),但如果這些目標(biāo)與人類(lèi)的不一致,就會(huì)產(chǎn)生麻煩[15]。是否應(yīng)該為產(chǎn)品性能設(shè)置倫理邊界,這是以往產(chǎn)品制度中從來(lái)不需要考慮的問(wèn)題,但如果不在人工智能的程序設(shè)計(jì)上加入倫理規(guī)范要求,以保證其行為和決策不違背人類(lèi)的倫理道德規(guī)范底線,那么人工智能帶給我們的可能不僅僅是便捷,還有其做出有悖社會(huì)倫理的決策之后所帶來(lái)的無(wú)窮無(wú)盡的麻煩。

(二)產(chǎn)品責(zé)任中舉證責(zé)任分配的偏差

一般來(lái)說(shuō),受害者主張產(chǎn)品責(zé)任成立時(shí),應(yīng)當(dāng)對(duì)人工智能產(chǎn)品存在缺陷、受損事實(shí)以及缺陷與損害事實(shí)之間存在因果關(guān)系進(jìn)行舉證。產(chǎn)品缺陷有設(shè)計(jì)缺陷、制造缺陷和警示缺陷,對(duì)于制造、警示方面的缺陷,判定相對(duì)簡(jiǎn)單,舉證也不困難,比如自動(dòng)駕駛汽車(chē)的制動(dòng)裝置是否符合質(zhì)量標(biāo)準(zhǔn)、責(zé)任人是否合理提醒了人工智能的正確使用方法及使用中的風(fēng)險(xiǎn)等,對(duì)此只需要按照一般產(chǎn)品缺陷的判斷標(biāo)準(zhǔn)進(jìn)行舉證、確認(rèn)即可。但人工智能設(shè)計(jì)上的缺陷,屬于運(yùn)算程序方面的瑕疵,需要認(rèn)識(shí)其內(nèi)部系統(tǒng)工作原理,從而指出算法存在的缺陷,這是一般人無(wú)法完成、甚至該領(lǐng)域?qū)I(yè)人士也難以完成的證明。人類(lèi)每做出一項(xiàng)決策都會(huì)有自己的理由,然而人工智能自主做出的決策,人類(lèi)是很難解釋其決策理由的。對(duì)于具有學(xué)習(xí)能力的高度自主性的人工智能來(lái)說(shuō),隨著系統(tǒng)自身經(jīng)驗(yàn)的增加,其行為、決策的推理過(guò)程連設(shè)計(jì)者本身有時(shí)也無(wú)法完全還原。在計(jì)算分析能力上,人腦和這些人工智能比起來(lái)遜色很多,要想通過(guò)系統(tǒng)運(yùn)行證明其設(shè)計(jì)上的缺陷困難重重。即便通過(guò)專(zhuān)業(yè)人士證明了存在設(shè)計(jì)缺陷,法官等法律工作者如何對(duì)此達(dá)成共識(shí)也是一個(gè)難題。所以如果采用一般產(chǎn)品責(zé)任的舉證規(guī)則,人工智能侵權(quán)中受害人的損失就難以得到救濟(jì)。

(三)產(chǎn)品責(zé)任中責(zé)任主體范疇的偏差

按照我國(guó)《侵權(quán)責(zé)任法》和《產(chǎn)品質(zhì)量法》的規(guī)定,在適用產(chǎn)品責(zé)任時(shí),受害人可以向產(chǎn)品的生產(chǎn)者請(qǐng)求賠償,也可以向產(chǎn)品的銷(xiāo)售者請(qǐng)求賠償,但人工智能的設(shè)計(jì)者和生產(chǎn)者往往不是同一主體,設(shè)計(jì)缺陷不能由生產(chǎn)者買(mǎi)單。人工智能運(yùn)行系統(tǒng)十分復(fù)雜,即使是專(zhuān)業(yè)人士也難以完全明晰其運(yùn)算過(guò)程和機(jī)理,非專(zhuān)業(yè)設(shè)計(jì)者更是無(wú)法控制其運(yùn)行風(fēng)險(xiǎn),因此人工智能的研發(fā)設(shè)計(jì)環(huán)節(jié)有很強(qiáng)的專(zhuān)業(yè)性,不是所有生產(chǎn)人工智能產(chǎn)品的市場(chǎng)主體都具有研發(fā)設(shè)計(jì)人工智能產(chǎn)品的能力。為了分散研發(fā)失敗的市場(chǎng)風(fēng)險(xiǎn),人工智能設(shè)計(jì)者和生產(chǎn)者在很多場(chǎng)合都是獨(dú)立的市場(chǎng)主體,如北京中關(guān)村就集中了一批專(zhuān)門(mén)從事人工智能研發(fā)的高科技企業(yè)。實(shí)踐中,許多人工智能致?lián)p都是設(shè)計(jì)方面的缺陷造成的。比如自動(dòng)駕駛汽車(chē)學(xué)習(xí)了漂移技術(shù)而通過(guò)漂移停車(chē)造成事故,但該技術(shù)本身是不允許人工智能學(xué)習(xí)的,這種情形仍然是設(shè)計(jì)中的漏洞,應(yīng)由人工智能的設(shè)計(jì)者來(lái)承擔(dān)責(zé)任。人工智能產(chǎn)品的運(yùn)行程序是設(shè)計(jì)者決定的,在人工智能進(jìn)入流通領(lǐng)域之后,生產(chǎn)者也無(wú)法控制人工智能系統(tǒng)會(huì)做出什么樣的決策。有學(xué)者指出,高度自主的人工智能可能會(huì)打破預(yù)先設(shè)定的算法,這種偏離預(yù)期的行為與生產(chǎn)者無(wú)關(guān),要求生產(chǎn)者承擔(dān)責(zé)任缺乏說(shuō)服力[16]。另外,人工智能產(chǎn)品很多時(shí)候是給用戶(hù)之外的主體造成損害,比如無(wú)人配送車(chē)將第三人撞傷,作為第三人的受害人顯然無(wú)法便捷、準(zhǔn)確地確定產(chǎn)品責(zé)任的生產(chǎn)者、銷(xiāo)售者等主體,如何確定被告信息成為難題。這些問(wèn)題都有待于通過(guò)改造人工智能致?lián)p的產(chǎn)品責(zé)任制度來(lái)解決。

四、產(chǎn)品責(zé)任制度規(guī)制人工智能侵權(quán)的立法改造

人工智能產(chǎn)品缺陷的判斷標(biāo)準(zhǔn)、舉證難度、責(zé)任主體等與一般產(chǎn)品存在明顯不同,解決人工智能侵權(quán),需要改造現(xiàn)行產(chǎn)品責(zé)任制度。

(一)產(chǎn)品缺陷判斷加入倫理道德規(guī)范標(biāo)準(zhǔn)

人工智能可以像人一樣思考、選擇和決策,人工智能的最高理想是代替用戶(hù)決策,比如在人工智能醫(yī)療領(lǐng)域,“人工智能決策—醫(yī)生驗(yàn)證復(fù)查”的模式就將成為常態(tài)[17]。但人工智能不具有人類(lèi)所獨(dú)有的道德情感以及是非善惡意識(shí),這又使得人工智能具有很多危險(xiǎn)性?;艚鹁驮赋觯骸俺晒Φ貏?chuàng)造出人工智能是人類(lèi)偉大的進(jìn)步。但,這極有可能是人類(lèi)文明最后的進(jìn)步。”[18]“人類(lèi)的最高目標(biāo)是人類(lèi)的全面發(fā)展,技術(shù)只是為這個(gè)目標(biāo)服務(wù)的手段?!盵19]人工智能作為影響整個(gè)人類(lèi)發(fā)展的高科技產(chǎn)品,為其設(shè)置倫理道德底線以從整體上把控這一領(lǐng)域的發(fā)展方向十分必要。比如智能主播在閱讀資料時(shí)看到人類(lèi)的欺詐案例,對(duì)其加以學(xué)習(xí)運(yùn)用進(jìn)而出現(xiàn)欺詐聽(tīng)眾的情形,就是不應(yīng)該發(fā)生的現(xiàn)象,要從設(shè)計(jì)上予以杜絕??傊瑥囊婚_(kāi)始就應(yīng)該為人工智能的研發(fā)設(shè)置倫理邊界。2018年12月歐盟人工智能高級(jí)別專(zhuān)家組發(fā)布了一份人工智能道德準(zhǔn)則草案,并于2019年4月發(fā)布了正式生效文本,為推動(dòng)人工智能技術(shù)合乎道德要求提供了具有操作性的指導(dǎo)標(biāo)準(zhǔn),這是值得借鑒的做法。今后立法應(yīng)當(dāng)明確,人工智能產(chǎn)品質(zhì)量標(biāo)準(zhǔn)應(yīng)加入倫理道德規(guī)范。倫理道德規(guī)范標(biāo)準(zhǔn)可由人工智能監(jiān)管部門(mén)牽頭制定,具體內(nèi)容應(yīng)包括:人工智能的決策應(yīng)遵守法律法規(guī),尊重他人權(quán)利,認(rèn)同社會(huì)核心價(jià)值觀和倫理道德原則等。如果人工智能決策系統(tǒng)不能避免人工智能出現(xiàn)違反倫理道德規(guī)范的行為,應(yīng)視為存在產(chǎn)品設(shè)計(jì)缺陷。除倫理道德規(guī)范標(biāo)準(zhǔn)外,產(chǎn)品設(shè)計(jì)方面的法律標(biāo)準(zhǔn)是毋庸置疑的,人工智能決策出現(xiàn)違反法律情形的,當(dāng)然屬于設(shè)計(jì)上的重大缺陷。

(二)產(chǎn)品設(shè)計(jì)缺陷實(shí)行舉證責(zé)任倒置

在“誰(shuí)主張、誰(shuí)舉證”的舉證責(zé)任分配原則下,如果要求受害人證明人工智能設(shè)計(jì)存在缺陷,如何證明、甚至如何判斷其完成了證明都存在困難。在人工智能產(chǎn)品責(zé)任場(chǎng)合,原告和被告的舉證能力是不同的,這源于當(dāng)事人各方與證據(jù)的距離不同、信息與技術(shù)不對(duì)稱(chēng),以及人工智能本身運(yùn)行決策過(guò)程難以還原等因素。在由原告舉證產(chǎn)品設(shè)計(jì)缺陷的情況下,由于人工智能產(chǎn)品的設(shè)計(jì)者、生產(chǎn)者處于優(yōu)勢(shì),敗訴概率極低,此時(shí)設(shè)計(jì)者、生產(chǎn)者的理性策略即為實(shí)施投機(jī)行為,減少風(fēng)險(xiǎn)預(yù)防成本,從而獲得更高的凈收益,但這是產(chǎn)品責(zé)任制度適用時(shí)不希望出現(xiàn)的社會(huì)后果。人工智能算法中的規(guī)則是由設(shè)計(jì)者、生產(chǎn)者設(shè)定的,相對(duì)于消費(fèi)者,他們對(duì)最終出現(xiàn)的風(fēng)險(xiǎn)的預(yù)見(jiàn)和控制程度也更高。因此,有必要對(duì)人工智能產(chǎn)品是否存在設(shè)計(jì)缺陷實(shí)行舉證責(zé)任倒置,即由產(chǎn)品責(zé)任的被告證明產(chǎn)品設(shè)計(jì)符合產(chǎn)品責(zé)任法的要求,這能夠促使他們采取措施避免產(chǎn)品致?lián)p事件的發(fā)生。未來(lái)在人工智能產(chǎn)品致?lián)p案件中,只要受害人證明了自己因人工智能受到了損害,人工智能產(chǎn)品侵權(quán)責(zé)任的被告就應(yīng)當(dāng)針對(duì)人工智能不存在設(shè)計(jì)缺陷或設(shè)計(jì)缺陷與損害之間不存在因果關(guān)系承擔(dān)舉證責(zé)任。如果被告不能證明其人工智能產(chǎn)品設(shè)計(jì)不存在缺陷,或缺陷與損害事實(shí)的發(fā)生沒(méi)有因果關(guān)系,就應(yīng)承擔(dān)產(chǎn)品責(zé)任。

(三)增加人工智能產(chǎn)品責(zé)任的責(zé)任主體

人工智能產(chǎn)品的設(shè)計(jì)者和生產(chǎn)者不是同一主體時(shí),有必要把設(shè)計(jì)者納入產(chǎn)品責(zé)任主體范疇。人工智能生產(chǎn)者無(wú)法控制產(chǎn)品設(shè)計(jì)上的風(fēng)險(xiǎn)和缺陷,因此設(shè)計(jì)者應(yīng)納入侵權(quán)責(zé)任主體與生產(chǎn)者一道承擔(dān)無(wú)過(guò)錯(cuò)的產(chǎn)品責(zé)任,無(wú)過(guò)錯(cuò)責(zé)任可以督促設(shè)計(jì)者最大化地保障人工智能設(shè)計(jì)方面的安全性。為了保障被侵權(quán)人求償權(quán)的實(shí)現(xiàn),受害人應(yīng)當(dāng)可以向人工智能產(chǎn)品的設(shè)計(jì)者、生產(chǎn)者、銷(xiāo)售者任一主體求償。依據(jù)我國(guó)產(chǎn)品責(zé)任制度中的追償制度,責(zé)任主體承擔(dān)賠償之后,可以向最終造成產(chǎn)品缺陷的主體追償。當(dāng)然,如果因?yàn)榈谌邔?duì)人工智能的系統(tǒng)進(jìn)行破壞,導(dǎo)致出現(xiàn)程序錯(cuò)誤、系統(tǒng)紊亂而發(fā)生致?lián)p后果,比如黑客攻擊了無(wú)人駕駛汽車(chē)系統(tǒng)導(dǎo)致發(fā)生交通事故,則黑客作為第三人應(yīng)是最終責(zé)任人。針對(duì)人工智能產(chǎn)品對(duì)第三人侵權(quán)時(shí),第三人難以確定人工智能產(chǎn)品設(shè)計(jì)者、生產(chǎn)者、銷(xiāo)售者的問(wèn)題,應(yīng)規(guī)定人工智能的管理人(一般是人工智能產(chǎn)品的用戶(hù)包括人工智能產(chǎn)品的所有人、使用人等)負(fù)有指明產(chǎn)品的生產(chǎn)者、設(shè)計(jì)者、銷(xiāo)售者的義務(wù)。人工智能管理者是使用人工智能的受益者,相對(duì)于第三人也更了解人工智能的生產(chǎn)者、設(shè)計(jì)者和銷(xiāo)售者,應(yīng)該承擔(dān)此義務(wù)。人工智能的管理人如果不能指明人工智能致?lián)p產(chǎn)品的生產(chǎn)者、設(shè)計(jì)者、銷(xiāo)售者,則應(yīng)當(dāng)承擔(dān)產(chǎn)品致?lián)p的賠償責(zé)任。

另外,如前所述,人工智能在自動(dòng)運(yùn)行時(shí),可能見(jiàn)不到人類(lèi)的操作,發(fā)生致?lián)p事件后如何確定、找尋背后的責(zé)任人是一個(gè)現(xiàn)實(shí)難題。除了規(guī)定人工智能管理者負(fù)有指明產(chǎn)品生產(chǎn)者、設(shè)計(jì)者、銷(xiāo)售者的義務(wù)之外,還有必要借鑒已有的動(dòng)產(chǎn)登記制度,建立人工智能產(chǎn)品登記制度,要求人工智能上市交易前在監(jiān)管部門(mén)強(qiáng)制登記。我國(guó)建立了多個(gè)類(lèi)型的動(dòng)產(chǎn)登記制度,但目前并沒(méi)有確定動(dòng)產(chǎn)登記的統(tǒng)一受理機(jī)構(gòu)。人工智能雖種類(lèi)繁多,跨越多個(gè)行業(yè)和產(chǎn)業(yè)領(lǐng)域,但技術(shù)監(jiān)管是核心,因此可以由科技部牽頭,成立人工智能的專(zhuān)門(mén)監(jiān)管部門(mén)作為其登記機(jī)構(gòu)。人工智能產(chǎn)品登記可以有兩方面的作用:第一,便于確定產(chǎn)品責(zé)任的賠償主體。在人工智能投入市場(chǎng)交易前,可以要求登記其產(chǎn)品設(shè)計(jì)者和生產(chǎn)者信息,獲得產(chǎn)品編號(hào)并標(biāo)注于產(chǎn)品之上。人工智能的銷(xiāo)售者和用戶(hù)因過(guò)于分散及變更頻繁,考慮到工作量過(guò)大可暫不納入登記范疇。登記制度的追溯功能,可以便利受害人準(zhǔn)確地確定人工智能產(chǎn)品設(shè)計(jì)者和生產(chǎn)者進(jìn)而對(duì)其提出賠償要求;第二,便于查清產(chǎn)品責(zé)任的最終責(zé)任主體。監(jiān)管部門(mén)要牽頭制定人工智能產(chǎn)品質(zhì)量的國(guó)家和行業(yè)標(biāo)準(zhǔn),新類(lèi)型的人工智能產(chǎn)品進(jìn)入市場(chǎng)前進(jìn)行登記時(shí),監(jiān)管部門(mén)要對(duì)人工智能技術(shù)指標(biāo)是否符合質(zhì)量標(biāo)準(zhǔn)進(jìn)行審查。人工智能產(chǎn)品登記時(shí)要同時(shí)提供設(shè)計(jì)、生產(chǎn)技術(shù)指標(biāo)進(jìn)行備注登記。這樣,一方面登記部門(mén)可以依據(jù)國(guó)家和行業(yè)標(biāo)準(zhǔn)進(jìn)行審查,防止不合格產(chǎn)品進(jìn)入市場(chǎng);另一方面,如果人工智能產(chǎn)品出現(xiàn)致?lián)p侵權(quán),可以倒查是哪一環(huán)節(jié)出現(xiàn)問(wèn)題,便于查明產(chǎn)品缺陷,也便于在人工智能產(chǎn)品設(shè)計(jì)者、生產(chǎn)者、銷(xiāo)售者承擔(dān)責(zé)任后,向造成產(chǎn)品缺陷的主體也就是最終的責(zé)任主體進(jìn)行追償。人工智能產(chǎn)品登記制度可以先由主管部門(mén)起草部門(mén)規(guī)章予以探索。

五、立法建議與展望

截至目前,我們可以在不顛覆現(xiàn)有法律體系的情況下規(guī)制人工智能侵權(quán),在充分關(guān)注人工智能特殊性的前提下,改進(jìn)產(chǎn)品責(zé)任制度以約束人工智能的設(shè)計(jì)與生產(chǎn)行為。我國(guó)可以在《侵權(quán)責(zé)任法》或《產(chǎn)品責(zé)任法》中專(zhuān)項(xiàng)規(guī)定人工智能致?lián)p產(chǎn)品責(zé)任的特殊規(guī)則。本文建議的條文草稿為:因人工智能產(chǎn)品存在缺陷造成他人損害的,受害人可以向產(chǎn)品的生產(chǎn)者、設(shè)計(jì)者、銷(xiāo)售者要求賠償;產(chǎn)品的生產(chǎn)者、設(shè)計(jì)者、銷(xiāo)售者賠償后可以向造成產(chǎn)品缺陷的主體追償。人工智能產(chǎn)品造成他人損害的,設(shè)計(jì)者應(yīng)對(duì)產(chǎn)品是否存在設(shè)計(jì)缺陷承擔(dān)舉證責(zé)任;如果人工智能產(chǎn)品決策違反社會(huì)倫理道德的,視為存在產(chǎn)品設(shè)計(jì)缺陷。人工智能產(chǎn)品存在缺陷造成第三人損害,人工智能管理人不能指明致?lián)p產(chǎn)品的生產(chǎn)者、設(shè)計(jì)者、銷(xiāo)售者的,應(yīng)當(dāng)承擔(dān)賠償責(zé)任。

人工智能給人們帶來(lái)了諸多便利,帶動(dòng)了交通、醫(yī)療、生物、服務(wù)等各個(gè)領(lǐng)域的快速發(fā)展,因此人工智能的相關(guān)立法不僅要控制風(fēng)險(xiǎn)、救濟(jì)損失,還要保障人工智能科技創(chuàng)新的積極性。為避免對(duì)產(chǎn)品責(zé)任的嚴(yán)格規(guī)制壓制人工智能新技術(shù)研發(fā)的積極性,今后還要嘗試建立強(qiáng)制性的人工智能產(chǎn)品責(zé)任險(xiǎn),讓設(shè)計(jì)者、生產(chǎn)者以較小的成本獲得共擔(dān)風(fēng)險(xiǎn)的機(jī)會(huì)。人工智能作為新興技術(shù),一些技術(shù)風(fēng)險(xiǎn)和漏洞是無(wú)法完全避免的,因此立法可以參考機(jī)動(dòng)車(chē)強(qiáng)制險(xiǎn)的模式,強(qiáng)制要求人工智能的設(shè)計(jì)者、生產(chǎn)者購(gòu)買(mǎi)產(chǎn)品責(zé)任險(xiǎn)。在發(fā)生人工智能致?lián)p事故后,由承保的保險(xiǎn)公司先行賠付受害人,不足部分再由產(chǎn)品責(zé)任人賠償。保險(xiǎn)制度的損失分?jǐn)偣δ?,可以讓人工智能的設(shè)計(jì)者、生產(chǎn)者以較小的成本分擔(dān)賠償責(zé)任支出,從而讓其放心創(chuàng)新;保險(xiǎn)制度的防災(zāi)防損功能,即保險(xiǎn)人通過(guò)提供損失管理服務(wù)來(lái)幫助被保險(xiǎn)人對(duì)潛在的損失風(fēng)險(xiǎn)進(jìn)行預(yù)測(cè)、統(tǒng)計(jì)分析與評(píng)估的功能,還可以促使人工智能設(shè)計(jì)者、生產(chǎn)者采取合理措施降低、消除產(chǎn)品風(fēng)險(xiǎn)。

需要說(shuō)明的是,人工智能的蓬勃發(fā)展勢(shì)不可擋,隨著大數(shù)據(jù)、云計(jì)算、物聯(lián)網(wǎng)等信息技術(shù)的發(fā)展,未來(lái)將是人工智能的大躍進(jìn)時(shí)期,這些智商超群的人工智能在既能獨(dú)立決策、獨(dú)立行動(dòng),也能獨(dú)立創(chuàng)造社會(huì)財(cái)富并進(jìn)行管理之后,很可能具備主體意識(shí)進(jìn)而對(duì)其權(quán)利義務(wù)提出要求,彼時(shí)可能就需要考慮讓其“自我”管理,用自己創(chuàng)造的財(cái)產(chǎn)自行解決其侵權(quán)問(wèn)題。在“法律人”與“生物人”分離的立法技術(shù)下,或許賦予人工智能獨(dú)立人格,才能更好地對(duì)高智慧的人工智能進(jìn)行激勵(lì)、約束或控制??傊磥?lái)立法要為具有自我管理能力的人工智能發(fā)展為獨(dú)立民事主體留下空間,到那時(shí),依據(jù)獨(dú)立主體責(zé)任自負(fù)的規(guī)則,產(chǎn)品責(zé)任制度也就不需要再充當(dāng)調(diào)整人工智能侵權(quán)的手段了。

猜你喜歡
生產(chǎn)者設(shè)計(jì)者主體
1月巴西生產(chǎn)者價(jià)格指數(shù)上漲3.92%
論自然人破產(chǎn)法的適用主體
2020德國(guó)iF設(shè)計(jì)獎(jiǎng)
2019德國(guó)IF設(shè)計(jì)大獎(jiǎng)
家禽福利的未來(lái):生產(chǎn)者能期待什么?
一場(chǎng)大風(fēng)帶給生產(chǎn)者的思考
關(guān)于遺產(chǎn)保護(hù)主體的思考
楊敬:深水區(qū)醫(yī)改設(shè)計(jì)者
深水區(qū)醫(yī)改設(shè)計(jì)者
論多元主體的生成
临高县| 扶余县| 通江县| 横山县| 濮阳市| 凤城市| 察隅县| 茌平县| 崇礼县| 江陵县| 陆良县| 吉林省| 盐边县| 吉木萨尔县| 马龙县| 竹北市| 河曲县| 屏南县| 永城市| 古丈县| 西华县| 南召县| 德兴市| 萝北县| 新巴尔虎右旗| 定陶县| 瓦房店市| 大名县| 会理县| 永年县| 北流市| 青龙| 常山县| 松潘县| 湟源县| 慈溪市| 驻马店市| 阿拉尔市| 卢龙县| 江华| 琼中|