楊芳齡
(安徽大學(xué)法學(xué)院, 安徽 合肥 230601)
人工智能技術(shù)和科學(xué)不斷蛻變,進(jìn)而在人類智能模擬上不斷趨近,前有無人駕駛汽車大量研發(fā),后有阿法狗圍棋賽大獲全勝,在感慨科技給我們帶來便利的同時(shí),“焦慮”也隨之而生:無人駕駛汽車發(fā)生交通事故時(shí)該當(dāng)如何?機(jī)器人工作中致他人損害誰來賠償?對(duì)于這些疑問,有關(guān)學(xué)者進(jìn)行研究并給出了回應(yīng),但隨著人工智能在各領(lǐng)域的蓬勃興起,各種問題將會(huì)隨之產(chǎn)生。欲擺脫人工智能品在侵權(quán)責(zé)任承擔(dān)上的法律困境,需解決三個(gè)問題:人工智能品是否具有獨(dú)立的法律主體資格?人工智能品侵權(quán)由誰承擔(dān)責(zé)任?是否可以構(gòu)建完善的人工智能品侵權(quán)保障體系?
在是否應(yīng)當(dāng)給予人工智能品獨(dú)立法律主體地位的討論中,總會(huì)涉及到對(duì)人工智能智力程度的判斷。人們普遍認(rèn)為,當(dāng)人工智能品的自主能力、意志能力達(dá)到極高的程度才可以成為與人類相近的行為者,但何為“極高的程度”卻無人能把握。即使在人工智能的技術(shù)領(lǐng)域,也沒有形成廣泛認(rèn)同的“人工智能”定義。筆者認(rèn)為,研究人工智能在外觀和智力上是否具有類人性屬于人工智能的技術(shù)層面,將其作為人工智能是否應(yīng)當(dāng)擁有法律主體地位的評(píng)判標(biāo)準(zhǔn),反而導(dǎo)致自然科學(xué)和社會(huì)科學(xué)的不適當(dāng)交叉,對(duì)于研究人工智能的法律屬性并無益處。
關(guān)于人工智能的性質(zhì),學(xué)術(shù)上存在三種觀點(diǎn),分別是工具說、電子奴隸說和代理說。第一,工具說認(rèn)為,人工智能產(chǎn)品僅是人類生產(chǎn)出來便利生活的工具,不論其內(nèi)設(shè)程序的發(fā)達(dá)程度,本質(zhì)上與剪刀、錘子等無異,只是為人類服務(wù)而存在,因此其既無權(quán)利能力也無行為能力,此乃“非法律主體說”,認(rèn)為人工智能品不具有法律主體資格。第二,電子奴隸說認(rèn)為,人工智能品雖然具有一定的智能水平,甚至可以實(shí)現(xiàn)與人類的對(duì)話,但這些程序都是設(shè)計(jì)師預(yù)先設(shè)定的,并且機(jī)器人以人類的指令為意志,在一定意義上與“奴隸”的行為相似,并不具有獨(dú)立的意志,因此其雖具有行為能力,但不具有權(quán)利能力,不具有獨(dú)立法律資格,因此,被認(rèn)為是“無權(quán)利能力的法律主體”。第三,代理說認(rèn)為,人類發(fā)明人工智能品是為了讓其代替自己的部分工作,其行為的結(jié)果歸屬于人類,人工智能品的工作具有獨(dú)立性,其具有行為能力,也具有權(quán)利能力,其行為性質(zhì)與“代理”相似,但其不能自己承擔(dān)責(zé)任,因此,被稱為是“具有權(quán)利能力和行為能力的法律主體”。
筆者認(rèn)為上述三種學(xué)說皆存在錯(cuò)漏之處。其一,按照學(xué)說提出者的說法,“工具說”認(rèn)為人工智能產(chǎn)品僅是單純的工具忽略了其智能性,計(jì)算機(jī)的運(yùn)算能力早已超越了人類,在與阿法狗的人機(jī)大賽中,人工智能也顯示出了超人的智力。因此,將其定義為普通的工具明顯屬于定性錯(cuò)誤。其二,“電子奴隸說”認(rèn)為人工智能品作為單獨(dú)主體,具有行為能力,但其行為完全聽命于人類,因此不具有權(quán)利能力。該觀點(diǎn)忽略了人工智能品在運(yùn)轉(zhuǎn)時(shí)具有一定的判斷能力和思考能力,僅具有行為能力,無權(quán)利能力的主體定位在實(shí)踐中有何現(xiàn)實(shí)意義,人工智能產(chǎn)品作出的行為該當(dāng)何以定性。因此,“無權(quán)利能力的法律主體”亦難認(rèn)可。其三,“代理說”認(rèn)為人工智能品與代理人相似,具有權(quán)利能力和行為能力,行為結(jié)果歸屬于被代理人似乎有理,但其忽略了獨(dú)立的法律資格需要具有獨(dú)立的責(zé)任能力。人工智能無法承受行為的后果,直接影響到責(zé)任的分配效率,在實(shí)踐中會(huì)帶來諸多麻煩。因此,該學(xué)說也不甚妥當(dāng)。
筆者認(rèn)為,在討論人工智能品的性質(zhì)時(shí),應(yīng)當(dāng)走出從權(quán)利能力、行為能力、責(zé)任能力是否具備并由此判斷其是否具有法律主體資格或是擬制某種“類”行為、“類”性質(zhì)的誤區(qū)。法律是手段,而不是目的。無論是主體資格概念的產(chǎn)生還是法人概念的擬制,目的都是維護(hù)不特定多數(shù)人的利益和意志,最終的落腳點(diǎn)還是在“人”身上。法律對(duì)人工智能品的立場,是鼓勵(lì)設(shè)計(jì)師多生產(chǎn)符合人類生產(chǎn)生活或特定需要的智能產(chǎn)品,避免人工智能品帶來的風(fēng)險(xiǎn)。
據(jù)此,筆者認(rèn)為,人工智能品不宜成為法律主體,理由歸納如下:一、人工智能品只能依算法行事,即使其內(nèi)部芯片中知識(shí)儲(chǔ)備原高于人類,其也不可能真正明白其中的意思。例如,人工智能產(chǎn)品可能被設(shè)計(jì)成遵守法律,但其不會(huì)真正理解其含義,什么是權(quán)利、什么是責(zé)任,人工智能無法進(jìn)行考慮,其也無法因?yàn)閼峙聭土P帶來的恐懼由此作出阻卻行為,一切只是程序化的。二、機(jī)器人無法獨(dú)立承擔(dān)責(zé)任,無論是侵權(quán)責(zé)任還是違約責(zé)任,由其引發(fā)的損害賠償最終都會(huì)因其沒有獨(dú)立財(cái)產(chǎn)而由其他主體代為承擔(dān)。有學(xué)者認(rèn)為該種關(guān)系類似于未成年人的行為責(zé)任,筆者認(rèn)為,法律對(duì)于未成年人在民事法律地位方面的規(guī)定是基于未成年成長期身心狀況而定,更多的是保護(hù)未成年人,規(guī)范市場交易,況且未成年人終有一天會(huì)具有完全民事行為能力,而人工智能則不會(huì),且對(duì)人工智能進(jìn)行法律上的保護(hù)最終也只是為了維護(hù)其背后人的利益,因此,沒有必要賦予其法律人格。三、倘若承認(rèn)人工智能產(chǎn)品的法律主體地位,則意味著其不僅應(yīng)承擔(dān)義務(wù),還享有權(quán)利,如此說來,使用機(jī)器人之前是否需要獲得其同意?有學(xué)者認(rèn)為,對(duì)于人工智能產(chǎn)品法律資格的定性可借鑒法人,對(duì)此,我們認(rèn)為,法律并不反對(duì)擬制一個(gè)全新的概念,但這個(gè)概念有其實(shí)踐用途。例如“法人”具有維護(hù)多數(shù)人意志的價(jià)值,實(shí)踐中意義顯著。而對(duì)人工智能品的法律地位進(jìn)行擬制有何實(shí)質(zhì)意義則值得商榷。因此,人工智能品不應(yīng)具有法律主體資格。
否認(rèn)人工智能品的法律主體資格,在人工智能品的行為產(chǎn)生特定不利后果時(shí),由誰來確實(shí)承擔(dān)責(zé)任?此乃研究人工智能品侵權(quán)法律問題的核心,有關(guān)人工智能產(chǎn)品法律資格的探討實(shí)質(zhì)也是為了解決責(zé)任承擔(dān)問題。對(duì)此,學(xué)術(shù)界有不同觀點(diǎn)。有人提倡消費(fèi)者單邊責(zé)任,也有人贊同生產(chǎn)者單邊責(zé)任理論。筆者認(rèn)為,生產(chǎn)者設(shè)計(jì)人工智能的目的是為了滿足人類生活并以此盈利,但如果將此后人工智能不受控制行為的法律后果歸屬于生產(chǎn)者,雖然會(huì)使其在生產(chǎn)過程中盡最大的注意義務(wù),但也勢必會(huì)磨滅其創(chuàng)作積極性。如果由消費(fèi)者來承擔(dān)責(zé)任,也即消費(fèi)者一旦確實(shí)適用人工智能產(chǎn)品,意味著其同意責(zé)任自負(fù),在該種情況下會(huì)使得人工智能更加興起,并且成本降低導(dǎo)致售價(jià)降低對(duì)消費(fèi)者有益,但生產(chǎn)者不再擔(dān)心責(zé)任問題因此勢必會(huì)想盡辦法降低成本,從而導(dǎo)致人工智能安全系數(shù)降低。據(jù)此,筆者認(rèn)為,在人工智能行為的責(zé)任承擔(dān)上應(yīng)當(dāng)采用雙邊責(zé)任制,即區(qū)分情況來判斷責(zé)任究竟是由生產(chǎn)者承擔(dān)還是消費(fèi)者承擔(dān),此時(shí)即涉及到歸責(zé)原則的問題,適用過錯(cuò)原則還是無過錯(cuò)原則可能會(huì)得出不同的結(jié)論。
人工智能行為導(dǎo)致侵權(quán)責(zé)任產(chǎn)生的情形主要包括四種:一是操作不當(dāng),即人工智能產(chǎn)品本身不存在任何技術(shù)問題,產(chǎn)品無瑕疵,僅是因?yàn)槭褂谜咴谶m用過程中沒有嚴(yán)格按照說明使用,因而發(fā)生意外情況。二是生產(chǎn)者在生產(chǎn)過程中產(chǎn)生的失誤,即使用者完全依照說明書使用產(chǎn)品,意外的發(fā)生是由于人工智能產(chǎn)品的生產(chǎn)中在生產(chǎn)過程中的失誤即設(shè)計(jì)失誤。三是生產(chǎn)者和使用者都具有過程,設(shè)計(jì)失誤加上使用不當(dāng)共同導(dǎo)致了最終結(jié)果的發(fā)生,此時(shí)雙方都具有過錯(cuò)。四是生產(chǎn)者和使用者都不存在失誤行為,損害的發(fā)生是由于人工智能自身的判斷失誤導(dǎo)致的,例如,在1989年全蘇國際象棋比賽上,人機(jī)大賽冠軍擊敗人工智能機(jī)器人,但機(jī)器人突然自主釋放強(qiáng)電流致使冠軍身亡。在該四種情況下,應(yīng)當(dāng)如何確定歸責(zé)原則?筆者認(rèn)為,應(yīng)當(dāng)適用嚴(yán)格責(zé)任,在確定生產(chǎn)者的責(zé)任時(shí),類似于產(chǎn)品責(zé)任,產(chǎn)品存在缺陷以致發(fā)生侵權(quán)糾紛時(shí),由生產(chǎn)者承擔(dān)賠償責(zé)任,此時(shí)存在一個(gè)問題,即“缺陷”的證明,可能存在一種情況,即生產(chǎn)者已經(jīng)將產(chǎn)品所有使用說明和注意事項(xiàng)都標(biāo)列其中,但適用者在理解上仍存在一些技術(shù)上的理解難度,此時(shí)是否應(yīng)當(dāng)認(rèn)定生產(chǎn)者已盡到義務(wù)應(yīng)當(dāng)區(qū)別對(duì)待。若產(chǎn)品的適用群體是專業(yè)人士,則認(rèn)定其不存在問題,若人工智能產(chǎn)品被投入普通消費(fèi)者群體,該群體大部分人在正常情況下不能理解使用說明,即認(rèn)為其存在缺陷。在僅因使用者適用不當(dāng)場合,由使用者自負(fù)責(zé)任。當(dāng)存在兩者交叉的都有失誤的情況下,由生產(chǎn)者負(fù)擔(dān)主要責(zé)任,使用者的適用過失可適當(dāng)減輕生產(chǎn)者責(zé)任,具體比例依個(gè)案判斷。最后一種,當(dāng)生產(chǎn)者未有產(chǎn)品缺陷,使用者沒有失誤的情形,機(jī)器自身判斷失誤致?lián)p該當(dāng)如何處理。筆者認(rèn)為,該種情況不應(yīng)由使用者自擔(dān)風(fēng)險(xiǎn)。但若完全有生產(chǎn)者承擔(dān)風(fēng)險(xiǎn)也似有不公,不可否認(rèn)的是生產(chǎn)者較使用者而言,存在明顯的結(jié)構(gòu)優(yōu)勢,無論是信息獲取能力還是風(fēng)險(xiǎn)負(fù)擔(dān)能力都較使用者更強(qiáng),因此,可要求人工智能品的生產(chǎn)者購買強(qiáng)制保險(xiǎn),當(dāng)存在雙方都無失誤的時(shí)候,通過保險(xiǎn)得以救濟(jì)。
盡管人工智能的發(fā)展勢頭迅猛,且已有大規(guī)模產(chǎn)量的基礎(chǔ),但其侵權(quán)責(zé)任的劃分將會(huì)最終影響其市場化進(jìn)程。法律有時(shí)會(huì)在生產(chǎn)者和使用者之間進(jìn)行微妙的利益平衡。人工智能的產(chǎn)生確實(shí)豐富便捷了人類的生活,但實(shí)踐告訴我們其確實(shí)存在潛在危險(xiǎn)的可能性,并且這種危險(xiǎn)在某些情況下不由人力導(dǎo)致。兩害相權(quán)取其輕,我們不可能因?yàn)闈撛诘奈kU(xiǎn)性而阻卻科技的發(fā)展,但在鼓勵(lì)技術(shù)進(jìn)步的同時(shí),我們同樣要重視受害人的救濟(jì),兩者是休戚相關(guān)的。若被害人在損害中得不到合理的救濟(jì)勢必會(huì)導(dǎo)致公眾對(duì)人工智能產(chǎn)品缺乏信心,這種信心信任的缺乏會(huì)直接影響其產(chǎn)品的銷售量,從而會(huì)打擊生產(chǎn)者的積極性。因此,人工智能侵權(quán)責(zé)任的歸責(zé)構(gòu)建講求鼓勵(lì)創(chuàng)新與救濟(jì)受害者并重。
在人工智能逐漸普及的情況下,法律可規(guī)定人工智能特殊侵權(quán)行為,對(duì)其主體、構(gòu)成要件、責(zé)任分配等作出規(guī)定,以此分化清晰責(zé)任。
第一,責(zé)任主體。人工智能產(chǎn)品的生產(chǎn)商是當(dāng)然的責(zé)任主體,承擔(dān)無過錯(cuò)責(zé)任。如果存在銷售商,則與生產(chǎn)商一起承擔(dān)不真正的連帶責(zé)任。這里的生產(chǎn)者指的是擁有核心技術(shù)的生產(chǎn)者,單純只是為人工智能的生產(chǎn)提供配件等若無問題不承擔(dān)責(zé)任。人工智能產(chǎn)品核心技術(shù)的設(shè)計(jì)者與生產(chǎn)者若在技術(shù)完成時(shí)未進(jìn)行合理測試即投放市場導(dǎo)致大規(guī)模安全事件可能會(huì)涉及到刑事責(zé)任,設(shè)計(jì)者若已完成安全測試,則不承擔(dān)責(zé)任。
第二,構(gòu)成要件。人工智能產(chǎn)品侵權(quán)責(zé)任類似于產(chǎn)品責(zé)任,當(dāng)人工智能產(chǎn)品存在缺陷時(shí)由生產(chǎn)者承擔(dān)責(zé)任,其構(gòu)成要件包括產(chǎn)品缺陷、損害和因果關(guān)系,此時(shí),有關(guān)于缺陷的認(rèn)定最為復(fù)雜,因此,一方面要制定人工智能安全的一般標(biāo)準(zhǔn),在損害發(fā)生時(shí)可以進(jìn)行準(zhǔn)確的認(rèn)定,另一方面,在確定統(tǒng)一的強(qiáng)制性安全標(biāo)準(zhǔn)之外,應(yīng)當(dāng)明確,產(chǎn)品不合理的危險(xiǎn)也應(yīng)當(dāng)認(rèn)定為缺陷的一種,何為不合理的危險(xiǎn)需要結(jié)合產(chǎn)品的說明、用途、智能程度、流通的時(shí)間等進(jìn)行綜合判斷。
第三,免責(zé)事由。人工智能在某些情況下亦存在免責(zé)事由,主要包括以下兩點(diǎn)。一是受害人過錯(cuò)。即當(dāng)受害人遭受損害是由自身原因?qū)е碌模饕]有及時(shí)保養(yǎng)與調(diào)試、維護(hù)與使用不當(dāng)。有些人工智能產(chǎn)品可能要求使用者進(jìn)行定期檢查甚至返廠維護(hù),但使用者沒有遵守要求,或是不按照說明書要求正確使用以致危險(xiǎn),這種情況下即存在受害人過錯(cuò)。二是其他原因。主要包括受害人故意、第三人原因等。該類情況下,損害應(yīng)當(dāng)由真正的責(zé)任人承擔(dān)。
第四,舉證責(zé)任。根據(jù)“誰主張,誰舉證”的舉證原則,通常應(yīng)當(dāng)由受害方就缺陷、損害、因果關(guān)系承擔(dān)舉證責(zé)任,但由于對(duì)智能產(chǎn)品缺陷的舉證在技術(shù)方面要求過高,將責(zé)任完全歸于受害者客觀不公,因此可由受害者承擔(dān)具有缺陷的初步證據(jù),再由生產(chǎn)者自證其產(chǎn)品不具有缺陷。免責(zé)事由舉證則由生產(chǎn)者承擔(dān)。
在人工智能產(chǎn)品非因受害人或生產(chǎn)者失誤而致?lián)p的情況下,應(yīng)當(dāng)充分發(fā)揮責(zé)任保險(xiǎn)機(jī)制的作用。法律應(yīng)當(dāng)要求人工智能產(chǎn)品生產(chǎn)者購買強(qiáng)制保險(xiǎn),實(shí)踐中確實(shí)存在人工智能產(chǎn)品不受控的在自我意志下忽為某種行為,此種情況下如有強(qiáng)制保險(xiǎn),可以及時(shí)彌補(bǔ)受害者損失,使其得到較為全面的救濟(jì),分散事故風(fēng)險(xiǎn),即使得受害者得到補(bǔ)償,也不會(huì)因承擔(dān)過高責(zé)任使得生產(chǎn)者喪失創(chuàng)作積極性。若生產(chǎn)者未依法律規(guī)定購買保險(xiǎn),造成該類損失時(shí)將由生產(chǎn)者承擔(dān)賠償責(zé)任。