周朵 王雪云
摘 要:近年來,隨著人工智能在人類生活領(lǐng)域內(nèi)的廣泛研究和開發(fā)利用,人工智能帶來的侵權(quán)事件不斷涌現(xiàn),這引起了法學(xué)界對人工智能侵權(quán)問題探討。有關(guān)人工智能法律主體地位問題可否成為獨立的侵權(quán)責(zé)任主體,不同原因?qū)е虑謾?quán)狀態(tài)下的責(zé)任承擔(dān)主體及歸責(zé)原則的確定,以及針對人工智能產(chǎn)品生產(chǎn)者的強制責(zé)任險和賠償基金等相關(guān)配套措施不夠完善。上述問題的解決,對于相關(guān)司法實務(wù)問題的處理和推動人工智能的進一步健康發(fā)展都具有重要的價值。
關(guān)鍵詞:人工智能;法律地位;責(zé)任主體;侵權(quán)責(zé)任
中圖分類號:D923 ? ? ? ?文獻標(biāo)志碼:A ? ? ?文章編號:1673-291X(2020)19-0192-04
隨著計算機時代、互聯(lián)網(wǎng)時代、大數(shù)據(jù)時代的到來,人工智能技術(shù)也隨之飛速發(fā)展。與其他仍需要依靠人工實時操控的機器不同,人工智能具有顯著的擬人特征,其行為在一定程度上享有自主性和獨立性,部分是在脫離人工直接操控的情況下做出行為,較為高級的人工智能還可以通過自主學(xué)習(xí)獲得更多的能力。由于人工智能具有勞動力成本低、高效率的特征,逐漸取代了人們?nèi)粘I钪械牟糠秩肆巧珵槿藗兲峁┓?wù)。但是,有行為就可能產(chǎn)生侵權(quán),例如醫(yī)療外科機器人可能造成病患傷亡事故、無人駕駛汽車可能會導(dǎo)致交通事故、機器保姆可能造成雇主財產(chǎn)損失等,都是對公民人身權(quán)或財產(chǎn)權(quán)的侵犯。此時,人工智能未經(jīng)操控做出的獨立自主的行為,相應(yīng)的責(zé)任應(yīng)由誰來承擔(dān)?判斷責(zé)任承擔(dān)主體的法律依據(jù)又是什么?受害人應(yīng)當(dāng)如何得到救濟?人工智能這一侵權(quán)主體的特殊性給當(dāng)今的侵權(quán)責(zé)任制度帶來了挑戰(zhàn),是如今法律值得關(guān)注和解決的問題。
一、人工智能的法律地位
對于人工智能產(chǎn)品的法律地位,學(xué)界存在著爭議。主要分為三種觀點,即完全法律主體資格說、限制法律主體資格說和非法律主體說。
1.完全法律主體資格說。該學(xué)說認為可以賦予人工智能完整的法律人格,以人工智能機器人索菲亞為例,該人工智能的學(xué)習(xí)能力、理解能力、創(chuàng)造能力和交流能力等已經(jīng)與人類在極大程度上相近,“她”的開發(fā)者漢森宣稱索菲亞具有類人意識,而該人工智能也被沙特阿拉伯授予了公民身份,成為歷史上首個具有公民身份的人工智能。沙特阿拉伯的法律接納索菲亞作為其本國公民,法律基礎(chǔ)便是人工智能完全法律主體資格說。該學(xué)說的依據(jù)主要在于,由于高級的人工智能可能通過自主學(xué)習(xí)獲得知識儲備,并且能夠脫離人類的操控獨立判斷并且做出法律行為,無論意識還是行為都已經(jīng)具有極高的擬人性。所以,人工智能可以既享有權(quán)利能力,又享有行為能力。
2.限制法律主體資格說。該學(xué)說認為人工智能可以在一定限度上享有法律賦予的能力,但是并不能夠成為一個完全的法律主體。該學(xué)說傾向于將人工智能定性為“奴隸”,即人工智能雖然可以獨立做出行為并且具有類人意識,但其做出行為的本質(zhì)是“服從指令”,無論人工智能的行為是否是脫離人類的直接操控自行做出的,該行為也是人工智能按照其創(chuàng)造者所設(shè)定的程序進行計算演繹而得出的結(jié)果[1]。在行為上人工智能可以獨立做出行為,所以享有行為能力,但由于人工智能的意識僅局限于類人意識而非真正的獨立意識,本質(zhì)上不具有其獨立意志所以不能夠享有權(quán)利能力。
3.非法律主體說。該學(xué)說相對于前兩種學(xué)說,直接將人工智能定性為“工具”,人工智能的類人意識實際是計算機中的編程指令,是其創(chuàng)造者所設(shè)定好的程序。而人工智能的行為是依照這些編程指令和設(shè)定好的程序做出的,可以看作是創(chuàng)造者或使用者通過人工智能這種工具間接行為,只不過對于該工具的把控是一定的自由放任的狀態(tài)。人工智能品的本質(zhì)是計算機科學(xué)的衍生物,是創(chuàng)造者依靠計算機科學(xué)發(fā)展所創(chuàng)造出來的產(chǎn)品,是僅為人類提供服務(wù)而不具有權(quán)利能力和行為能力的工具。
筆者認為,完全法律主體資格說忽略了要作為獨立的法律主體,不僅需要具有權(quán)利能力和行為能力,還需要具有責(zé)任能力。如果將人工智能作為獨立的法律主體,那么當(dāng)侵權(quán)行為發(fā)生后,人工智能是否有能力去承擔(dān)侵權(quán)的后果和責(zé)任是難以保證的,若是承認人工智能有權(quán)利能力和責(zé)任能力,那么人工智能是否應(yīng)當(dāng)享有依其權(quán)利而獲得的財產(chǎn)?利用人工智能的行為是否應(yīng)該演變成雇傭行為需要征得人工智能產(chǎn)品的同意?這將極大地影響責(zé)任分配效率,給救濟被侵權(quán)人和司法實踐造成困難。
而限制法律主體資格說僅承認人工智能具有行為能力而不具有權(quán)利能力,是以類似于“奴隸”的身份服從其設(shè)計者或使用者的預(yù)設(shè)指令做出行為。一方面,僅具有行為能力,而不具備權(quán)利能力的法律主體所做出的侵權(quán)行為是難以定性的。另一方面,既然無權(quán)利,便也無承擔(dān)責(zé)任的能力,即使賦予人工智能限制的法律主體地位,它也同樣不具備責(zé)任能力。所以對該限制法律主體的承認可能不利于現(xiàn)實的責(zé)任分配且較難具有實踐的意義[2]。
相較于前兩種觀點,將人工智能定性為工具的非法律主體說更符合當(dāng)今的社會生活。一方面,即使人工智能可以通過自主學(xué)習(xí)獲得遠高于其創(chuàng)造者或使用者的知識儲備,人工智能的類人意識也不是真正自然人的意識,僅是因為通過其內(nèi)設(shè)程序和算法,使得人工智能可以脫離人類的直接操控而獨立套入公式進行判斷并做出行為,由此表現(xiàn)出人工智能可能具有人類的意識。實際上,人工智能是發(fā)達的計算機產(chǎn)品,并不具有獨立的意志,自然不可能享有權(quán)利而成為權(quán)利主體。另一方面,雖然工具說在一定程度上忽略了人工智能的行為是具有一定的智能性的,但歸根結(jié)底,人工智能的一切行為都是按照設(shè)計者、創(chuàng)造者、使用者的預(yù)設(shè)程序做出的,這些行為在本質(zhì)上是服從指令,只不過在人工智能產(chǎn)品套入公式、選擇方法從而做出擬人行為的過程中,創(chuàng)造者或使用者因為失于控制而采取放任的狀態(tài)。所以即使人工智能的智能性和擬人性將人工智能產(chǎn)品與普通工具區(qū)分開來,人工智能產(chǎn)品在本質(zhì)上仍然是一種更為高級特殊的工具,目前以及未來的一段時間內(nèi)是不能夠享有法律主體資格的。
二、人工智能侵權(quán)形態(tài)和責(zé)任歸屬
既然把人工智能定性為一種高級的工具而不具備法律主體資格,那么人工智能自然不得成為發(fā)生侵權(quán)糾紛后的責(zé)任承擔(dān)主體。那么在發(fā)生人工智能產(chǎn)品侵權(quán)時,應(yīng)當(dāng)如何確定責(zé)任主體變得很現(xiàn)實,也是立法和司法界迫切需要解決的問題[3]。實際上,人工智能產(chǎn)品極高的擬人性和智能性已經(jīng)給責(zé)任制度帶來了難題與挑戰(zhàn),例如當(dāng)因為人工智能汽車發(fā)生交通事故導(dǎo)致行人人身財產(chǎn)受到損害的,該責(zé)任是歸屬于智能汽車的使用者,還是歸屬于智能汽車的生產(chǎn)者?當(dāng)智能醫(yī)療器械造成患者傷亡,該醫(yī)療事故責(zé)任是歸屬于醫(yī)護人員或單位,還是應(yīng)該歸屬于智能醫(yī)療器械的生產(chǎn)者,抑或兩者都要承擔(dān)責(zé)任[4]?追究不同責(zé)任主體會牽涉到適用不同的法律規(guī)范問題,所以責(zé)任的認定變得非常關(guān)鍵。
1.使用者操作不當(dāng)與人工智能本身缺陷造成的侵權(quán)。就較為簡單的兩種情況來看,一種是使用者操作不當(dāng),在這種情況下發(fā)生侵權(quán),完全是由于人工智能使用者的操作失誤,而并非人工智能產(chǎn)品本身存在問題,此種情況下責(zé)任應(yīng)當(dāng)歸屬于人工智能產(chǎn)品的使用者,按照侵權(quán)責(zé)任歸責(zé)原則應(yīng)當(dāng)由使用者按照過錯責(zé)任承擔(dān)對第三人造成的損失進行賠償。還有一種是由于人工智能產(chǎn)品自身存在缺陷造成的侵權(quán),此時應(yīng)當(dāng)適用產(chǎn)品質(zhì)量法,按照我國產(chǎn)品責(zé)任制度,生產(chǎn)者對產(chǎn)品因質(zhì)量問題帶來的侵權(quán)損害承擔(dān)的是一種無過錯責(zé)任。如果能夠證明人工智能產(chǎn)品存在缺陷,受害人存在人身財產(chǎn)損害的事實,并且該損害事實發(fā)生與人工智能產(chǎn)品缺陷之間有因果關(guān)系,并且在這些情況下,生產(chǎn)者也無法證明其使用者在使用過程中存在過錯,那么該人工智能產(chǎn)品的侵權(quán)責(zé)任就應(yīng)當(dāng)歸屬于生產(chǎn)者,由其承擔(dān)相應(yīng)的損害賠償責(zé)任。
2.生產(chǎn)者與使用者都存在過錯而造成的侵權(quán)。假設(shè)生產(chǎn)者和使用者都存在過失,從而導(dǎo)致人工智能產(chǎn)品侵權(quán)的,此時就應(yīng)當(dāng)參考具體情況進行具體分析。如果該侵權(quán)行為主要是由于生產(chǎn)者在生產(chǎn)過程中出現(xiàn)了過錯,或者沒能對使用者盡到提醒和警示的義務(wù),那么按照產(chǎn)品責(zé)任法應(yīng)當(dāng)將責(zé)任歸屬于該人工智能產(chǎn)品的生產(chǎn)者,由生產(chǎn)者負主要責(zé)任,存在過錯的使用者負次要責(zé)任。如果該起侵權(quán)主要是使用者在使用過程中存在過錯造成,例如侵權(quán)的人工智能產(chǎn)品本身的確具有小小缺陷,但不至于造成侵權(quán)事件,如果主要是由于使用者未能妥善使用、操作不當(dāng)、違反說明等操作規(guī)程而發(fā)生侵權(quán)的,那么就該由使用者承擔(dān)該侵權(quán)的主要責(zé)任,而生產(chǎn)者負次要責(zé)任。但是鑒于人工智能屬于高級科技,即使生產(chǎn)者盡到了說明提醒的義務(wù),作為非專業(yè)群體的使用者仍然無法理解該智能產(chǎn)品的使用方法,或者錯誤使用造成了侵權(quán),那么在司法實踐中可以由法官自由心證,對生產(chǎn)者和使用者的責(zé)任劃分更加公平合理,從而做出相對公正判決。
3.人工智能超越使用者可控范圍而造成的侵權(quán)。當(dāng)使用者不存在過錯時,對人工智能產(chǎn)品的侵權(quán)是否是由產(chǎn)品自身缺陷造成,往往難以得出準(zhǔn)確的推斷,因為人工智能是通過自身遵循相應(yīng)的程序計算,甚至是通過自主學(xué)習(xí)獲得方法以做出行為,該行為具有自主性和智能性,所以侵權(quán)行為也可能是人工智能產(chǎn)品獨立做出的判斷決策而并不在其生產(chǎn)者所能掌控的范圍之內(nèi)。尤其是人工智能通過自主學(xué)習(xí)獲得方法、做出行為構(gòu)成了侵權(quán),生產(chǎn)者并未設(shè)置該方法也并未通過編程發(fā)出新的指令,同時生產(chǎn)或設(shè)計過程中也不存在失誤,但仍然出現(xiàn)了人工智能產(chǎn)品的侵權(quán)。那么此時,如果僅僅單純地適用上述的責(zé)任分配來確定責(zé)任主體,將該人工智能產(chǎn)品自行做出侵權(quán)判斷和行為歸屬于產(chǎn)品缺陷就不太合理,也就不宜將責(zé)任完全歸屬于人工智能產(chǎn)品的開發(fā)者或生產(chǎn)者,否則顯失公平的同時也可能會打消在人工智能產(chǎn)品領(lǐng)域的開發(fā)者的積極性,從而影響該高科技創(chuàng)新產(chǎn)業(yè)的進步。在使用者和生產(chǎn)者都不具有過錯、過失,而人工智能產(chǎn)品又不具備法律主體資格的情況下,對人工智能產(chǎn)品的侵權(quán)又該如何確定責(zé)任歸屬呢?
筆者認為,解決此類問題的辦法就是首先對人工智能產(chǎn)品依據(jù)其智能性和自主性的強弱進行劃分,可以劃分為強人工智能和弱人工智能。劃分標(biāo)準(zhǔn)為:第一,是否能夠進行自主學(xué)習(xí),能夠通過學(xué)習(xí)提升數(shù)據(jù)和知識儲備的為強人工智能,不能自主學(xué)習(xí)數(shù)據(jù)且知識儲備固定的為弱人工智能。第二,是否能夠自行分析判斷進而選擇行為方式,能夠進行自主判斷分析選擇行為方式的是強人工智能,而只能依照預(yù)設(shè)程序和標(biāo)準(zhǔn)進行行為的是弱人工智能。
在此基礎(chǔ)上,就可以對既無生產(chǎn)失誤又無使用失誤的人工智能產(chǎn)品的侵權(quán)進行責(zé)任認定,因為人工智能的行為與其類似人類意識的程序相對應(yīng),程序的自主性和智能性越高,人類對于人工智能行為的把控能力就越低。如果人工智能產(chǎn)品可以通過自主學(xué)習(xí)獲得更多的知識和數(shù)據(jù)儲備,或者可以獨立對事物進行分析判斷選擇,那么它所掌握的行為方法和采取的行為方式也就難以在其生產(chǎn)者和使用者的把控范圍內(nèi),所以當(dāng)人工智能的自主性和智能性越高,生產(chǎn)者和使用者所要承擔(dān)的責(zé)任應(yīng)當(dāng)就越有限。反之,如果該人工智能的行為程序或者數(shù)據(jù)知識儲備固定,僅能按照預(yù)設(shè)程序行為,那么它的自主性和智能性就越低,生產(chǎn)者和使用者對它的行為控制力相對較高,此時就應(yīng)當(dāng)負有注意義務(wù)和控制義務(wù),若因放任該人工智能行為,發(fā)生侵權(quán)時就應(yīng)當(dāng)承擔(dān)大部分或完全的責(zé)任。
三、完善人工智能侵權(quán)責(zé)任的建議
1.嚴(yán)格責(zé)任歸責(zé)原則在特殊情形下的適用。嚴(yán)格責(zé)任是一種歸責(zé)原則,它產(chǎn)生于英美法系刑法理論中,已經(jīng)被世界上許多國家所認可并應(yīng)用到合同違約范圍內(nèi)。我國在一些特殊的侵權(quán)行為中已經(jīng)開始引用該原則,如建筑物、構(gòu)造物及其他設(shè)施倒塌致人損害的,受害人只要證明自己存在損害,且損害是因某構(gòu)筑物的倒塌造成的,至于構(gòu)筑物的管理者或所有者是否存在過錯則不是其考慮的問題,但如果構(gòu)造物的管理者或所有者能夠證明其沒有過錯的,可以免責(zé)或減少責(zé)任的承擔(dān)??梢?,嚴(yán)格責(zé)任是介于過錯和無過錯責(zé)任之間,即雖不以侵權(quán)人的過錯為承擔(dān)責(zé)任的要件,但并非完全排斥過錯。鑒于此,參考前文所述的人工智能侵權(quán)情況,可以由國家針對已經(jīng)普遍出現(xiàn)在市場上為人類提供服務(wù)的人工智能產(chǎn)品制定具體的安全標(biāo)準(zhǔn),特別是針對人工智能行為的自主性和智能性的程度高的智能產(chǎn)品,我們?yōu)榱藴p輕和分散產(chǎn)品生產(chǎn)者和設(shè)計者的風(fēng)險負擔(dān),可以規(guī)定嚴(yán)格責(zé)任在此狀態(tài)下的適用。即使發(fā)生人工智能侵權(quán)事件時,人工智能生產(chǎn)者和設(shè)計者如果能夠依據(jù)相關(guān)安全標(biāo)準(zhǔn)證明其智能產(chǎn)品不存在缺陷的,可以不承擔(dān)或減少承擔(dān)相應(yīng)的損害賠償責(zé)任,既可以督促我們的生產(chǎn)者和設(shè)計者在生產(chǎn)和設(shè)計過程中嚴(yán)格把控質(zhì)量,同時也公平合理地分配生產(chǎn)者和使用者的責(zé)任,另外也為司法實踐處理相關(guān)案件提供依據(jù)。
2.建立強制保險、賠償基金制度。在明確責(zé)任主體之后,我們要做的是建立強制保險、賠償基金制度??梢栽谕ㄟ^法律強制要求生產(chǎn)者、設(shè)計者為其所生產(chǎn)的人工智能購買保險的同時,由其余相關(guān)受益人成立人工智能侵權(quán)賠償基金[5]。
強制保險和賠償基金制度的建立具有較高的可取性,國家可以要求一些服務(wù)危險性、侵權(quán)可能性、行為智能自主性較高的人工智能產(chǎn)品的生產(chǎn)者為其產(chǎn)品購買強制保險。服務(wù)危險性、侵權(quán)可能性指的是該人工智能產(chǎn)品為使用者提供的是危險性較高的服務(wù),比如智能自動駕駛汽車與自動化醫(yī)療器械等做出的行為,都是與公民生命健康權(quán)息息相關(guān)且極有可能造成侵權(quán)的。與交通強制險要求車輛使用者購買不同的是,高危人工智能強制險應(yīng)當(dāng)要求由該人工智能的生產(chǎn)者購買。原因在于,第一,當(dāng)使用者不存在使用操作上的失誤,同時也不再負有高度注意義務(wù),侵權(quán)行為是因為人工智能的自行判斷做出而造成時,使用者此時并不應(yīng)當(dāng)成為責(zé)任主體反而可能成為蒙受財產(chǎn)損失的受害者。第二,即使人工智能作為產(chǎn)品,其生產(chǎn)過程無失誤,行為智能自主性也不得作為產(chǎn)品缺陷,行為智能自主性、服務(wù)危險性、侵權(quán)可能性仍然是人工智能產(chǎn)品本身所帶出來的或者服務(wù)過程中所避不可免出現(xiàn)風(fēng)險,在一定程度上已經(jīng)類似于產(chǎn)品缺陷,所以要求此類人工智能產(chǎn)品的生產(chǎn)者購買更為合理。在建立強制保險制度的同時,國家也可以通過財政支出設(shè)立“高危人工智能侵權(quán)賠償基金”,在發(fā)生智能自主性、服務(wù)危險性、侵權(quán)可能性較高的人工智能侵權(quán)時,對人身財產(chǎn)受到損害的使用者、受害人進行救濟賠償。
對于人工智能產(chǎn)品的侵權(quán),使用者是否僅僅只是作為受害者出現(xiàn)呢?換言之,在使用侵權(quán)危險性和智能自主性高的人工智能產(chǎn)品時,使用者是否應(yīng)當(dāng)負有高度注意的義務(wù)?筆者認為,從引導(dǎo)人工智能科技發(fā)展的角度來看,規(guī)定使用者負有高度的注意義務(wù)可能并不有利于鼓勵人工智能科技的發(fā)展,因為具有行為智能性和自主性的人工智能產(chǎn)品,其生產(chǎn)目的是提供服務(wù)、解放勞動力,如果仍然需要使用者負有高度的注意義務(wù),對人工智能產(chǎn)品的行為進行監(jiān)督,對于人工智能產(chǎn)品提供服務(wù)、解放勞動力的意義將造成極大影響。然而,從保障合法權(quán)益、防治人工智能產(chǎn)品侵權(quán)的角度來看,賦予使用者一定的注意義務(wù)是有必要的,因為在人工智能產(chǎn)品做出行為的過程中,使用者具有最高的操控能力,只有當(dāng)使用者對人工智能的某些高度危險的行為進行監(jiān)督注意,才能在發(fā)生侵權(quán)行為時及時制止、避免損害。對此,可以針對部分人工智能產(chǎn)品制定其使用者的高度注意與監(jiān)督義務(wù),也可以考慮將使用者納入購買強制保險的主體中,強制要求使用自主性、智能性和侵權(quán)可能性較高的人工智能產(chǎn)品的消費者購買使用險,從而在生產(chǎn)者、使用者兩個層面上對人工智能可能構(gòu)成侵害的權(quán)利進行雙重保護,對受損法益充分救濟。
四、結(jié)語
雖然人工智能產(chǎn)品的出現(xiàn),帶來了較為復(fù)雜的侵權(quán)問題,也對我國現(xiàn)有的產(chǎn)品質(zhì)量法等法律制度造成了沖擊,但不可否認的是,在大數(shù)據(jù)時代的今天,計算機互聯(lián)網(wǎng)技術(shù)不斷發(fā)展,人工智能技術(shù)也必將在未來成為一國之核心競爭力,它所更多帶來的,將是對國家科技、經(jīng)濟、政治、文化等多領(lǐng)域的史詩級進步。因此,必須使法律制度不斷完善,以適應(yīng)人工智能科技的發(fā)展。在保護權(quán)益、救濟損害的同時,也要注意保護這項未來工程的創(chuàng)新動力,對人工智能設(shè)計者、創(chuàng)新者、生產(chǎn)者不僅需要法律的規(guī)制,更需要法律通過合理合法的確定責(zé)任以保障權(quán)利、鼓勵創(chuàng)新。只有這樣,法律才能夠適應(yīng)人工智能時代的需要,為此項極具未來意義的工程奠定基礎(chǔ)并保駕護航。
參考文獻:
[1] ?吳漢東.人工智能時代的制度安排與法律規(guī)制[J].西北政法大學(xué)學(xué)報,2017,(5):131.
[2] ?張玉潔.論人工智能時代的機器人權(quán)利及其風(fēng)險規(guī)制[J].東方法學(xué),2017,(6):56-66.
[3] ?楊芳齡.人工智能品侵權(quán)的法律問題研究[J].安徽電子信息職業(yè)技術(shù)學(xué)院學(xué)報,2018,(5):87-90.
[4] ?梁鵬.人工智能產(chǎn)品侵權(quán)的責(zé)任承擔(dān)[J].中國青年社會科學(xué),2018,(4):11.
[5] ?曹建峰.十大建議!看歐盟如何預(yù)測AI立法新趨勢[J].機器人產(chǎn)業(yè),2017,(2).