[摘 要]人工智能的責(zé)任分配與承擔(dān)尚未有定論,且面臨責(zé)任分配的證明困難,將運(yùn)行人工智能損害的責(zé)任全部交由生產(chǎn)者、設(shè)計(jì)者承擔(dān)在一定情況下過于苛刻。人工智能的邏輯基礎(chǔ)與技術(shù)構(gòu)造決定了其能夠模擬人類神經(jīng)系統(tǒng),高度發(fā)展的人工智能具有形成自主意志的可能性,有形成自我意識與自發(fā)行為的能力,具備構(gòu)成獨(dú)立個(gè)體、獲得法律人格進(jìn)而承受權(quán)利義務(wù)分配的可能。自主性增強(qiáng)的人工智能與傳統(tǒng)意義的生命體之間界限逐漸模糊,對人工智能的界定與理解將隨技術(shù)發(fā)展與倫理認(rèn)知的變化而改變。人工智能的學(xué)習(xí)能力來自于人為創(chuàng)造的算法,但其人造性并非否定人工智能自身能夠達(dá)到高度自主化進(jìn)而獲得法律人格的根源。針對人工智能的“自由”“生命”不應(yīng)按照傳統(tǒng)刑罰理論的理解方式,而應(yīng)放在數(shù)字智能的語境下加以理解。人工智能的特殊人格具有一定可行性,在人工智能自主性增強(qiáng)的情況下能夠提供損害歸責(zé)的思路。
[關(guān)鍵詞]人工智能;法律人格;人工智能特殊人格
[中圖分類號]D90 [文獻(xiàn)標(biāo)志碼]A [文章編號]1000-8284(2020)04-0039-07
人工智能是時(shí)代與技術(shù)的產(chǎn)物,其出現(xiàn)可以追溯至20世紀(jì)50年代。達(dá)特茅斯會(huì)議開啟了人工智能的時(shí)代,給技術(shù)、倫理等各個(gè)領(lǐng)域帶來了新的焦點(diǎn)。從IBM的“深藍(lán)”到挑戰(zhàn)圍棋的AlphaGo及其升級版AlphaZero,從高危領(lǐng)域應(yīng)用生產(chǎn)機(jī)器到外科手術(shù)中應(yīng)用精密操作機(jī)器人,以及獲得國籍的機(jī)器人Sophia,都是人工智能技術(shù)性發(fā)展的見證。隨著技術(shù)發(fā)展帶來的“智慧化”,人工智能無可避免地面臨對其人格的發(fā)問,能否給予人工智能以獨(dú)立的法律人格是隨著人工智能大量應(yīng)用而產(chǎn)生的現(xiàn)實(shí)問題。
一、何為人工智能
智能指“有生命的個(gè)體習(xí)得知識或技能、并將其應(yīng)用于完成任務(wù)或邏輯上得出結(jié)論的能力”。[1]這種能力在人類身上最為明顯,因此也往往被用來指代人類的學(xué)習(xí)、應(yīng)用、邏輯能力,成為區(qū)別人類與其他生物的一種特性。而人工智能,筆者認(rèn)為,是通過人為的、機(jī)械的、數(shù)字的手段所創(chuàng)造的具有類似甚至超越人類智能的智能個(gè)體的總稱。
人工智能具備“智能”之稱的關(guān)鍵在于其具有一定的自主能力。這種自主能力來自對海量數(shù)據(jù)的深度學(xué)習(xí)、云計(jì)算能力與“神經(jīng)網(wǎng)絡(luò)”的模擬構(gòu)造。[2]神經(jīng)網(wǎng)絡(luò)從技術(shù)結(jié)構(gòu)上模仿人類神經(jīng)系統(tǒng)的結(jié)構(gòu)——由氨基酸決定蛋白質(zhì)的結(jié)構(gòu)與性質(zhì),由基因決定蛋白質(zhì)的發(fā)展方向,由這些物質(zhì)構(gòu)成單個(gè)神經(jīng)元,而神經(jīng)元之間的排列與化學(xué)物質(zhì)傳遞決定了人類的思想與精神發(fā)展。[2]神經(jīng)網(wǎng)絡(luò)的構(gòu)建及深度學(xué)習(xí)的應(yīng)用使人工智能可以自動(dòng)從已有的數(shù)據(jù)中總結(jié)規(guī)律,自主學(xué)習(xí),并且發(fā)展出特定邏輯框架,針對特定狀況進(jìn)行自我調(diào)整修正。這種深度學(xué)習(xí)方式超越了傳統(tǒng)的由人類教授機(jī)器進(jìn)行活動(dòng)的“訓(xùn)練”方法,賦予了機(jī)器及其算法一定的自主性,具有了類似人類智能的機(jī)能。
人工智能通常被分為三類:弱人工智能、強(qiáng)人工智能、超人工智能,或稱普通人工智能、弱人工智能、強(qiáng)人工智能。[3]無論名稱如何,類似的分類體系都是將人工智能按照自主性程度、自主意識進(jìn)化程度進(jìn)行分類,為避免混淆,下文中將使用“弱人工智能”“強(qiáng)人工智能”“超人工智能”的命名方式。弱人工智能(Artificial Narrow Intelligence)指那些僅在人類活動(dòng)中擔(dān)當(dāng)輔助的人工智能,有一定的自我學(xué)習(xí)能力,但只擅長某一個(gè)領(lǐng)域的技術(shù)或操作。[4]強(qiáng)人工智(Artificial General Intelligence)則在各個(gè)領(lǐng)域中具有與人類相似的獨(dú)立解決問題的能力,并且能夠獨(dú)立思考、學(xué)習(xí),通過總結(jié)歷史經(jīng)驗(yàn)進(jìn)行邏輯推理進(jìn)而解決現(xiàn)實(shí)問題。[4]可以說,強(qiáng)人工智能在各個(gè)領(lǐng)域中的學(xué)習(xí)與邏輯能力都可與人類匹敵。[5][6]超人工智能(Artificial Super Intelligence)指代那些已經(jīng)各領(lǐng)域中全面超越人類大腦的人工智能體,[4]具有極高的自主性,甚至可以脫離人工程序的控制,具有很強(qiáng)的辨認(rèn)能力與自我控制能力。
二、人工智能的責(zé)任分配困境
人工智能運(yùn)行致人損害的責(zé)任分配問題是該技術(shù)所面臨的重要現(xiàn)實(shí)問題。由于Black Box的存在,即使是人工智能的設(shè)計(jì)者、制造者也無法完全明晰人工智能的“思考”路徑與發(fā)展方向。[7]這種不能被人類徹底掌握的具體決策過程不足以完全排除人工智能的運(yùn)行與預(yù)設(shè)之間的偏差,而這種偏差很可能導(dǎo)致人工智能在運(yùn)作期間致人受到損害。
以智能駕駛系統(tǒng)引發(fā)交通事故的問題為例。在國際汽車工程師學(xué)會(huì)的分類標(biāo)準(zhǔn)中,自動(dòng)駕駛按照自動(dòng)化程度被分為L0至L5的6個(gè)等級。[8]L0代表完全無自動(dòng)化的駕駛,L5則代表完全由人工智能操作、不需要人力干涉的自動(dòng)駕駛。L1、L2兩個(gè)級別中,“自動(dòng)駕駛”僅僅為駕駛員提供輔助,主要操作仍然依靠人類駕駛員完成,因此被排除在自動(dòng)駕駛技術(shù)范圍之外。L3是自動(dòng)駕駛與非自動(dòng)化的分界線,汽車駕駛將主要由智能系統(tǒng)進(jìn)行控制,而駕駛員保留了隨時(shí)接管汽車運(yùn)行的權(quán)力。L4、L5則是真正意義上的無人駕駛,在這兩個(gè)等級下的智能駕駛能夠?qū)崿F(xiàn)由智能系統(tǒng)進(jìn)行對汽車的操控,并且駕駛員會(huì)隨著自動(dòng)化程度升高而逐漸失去接管能力,或者說,失去接管的必要。
目前自動(dòng)駕駛技術(shù)的應(yīng)用尚未達(dá)到全面應(yīng)用的階段,L3以上的無人駕駛汽車也遠(yuǎn)沒有達(dá)到量產(chǎn)并大規(guī)模應(yīng)用的水平。在L1、L2兩個(gè)級別的自動(dòng)駕駛系統(tǒng)中,駕駛員是凌駕于系統(tǒng)之上的。汽車的主要操作權(quán)掌握在駕駛員手中,一旦發(fā)生交通事故,責(zé)任理應(yīng)由駕駛員自身承擔(dān),而非交由輔助工具性質(zhì)的智能駕駛系統(tǒng)承擔(dān)。
對于L3及以上等級的自動(dòng)駕駛系統(tǒng),按照法律責(zé)任產(chǎn)生的原理,欲追究智能系統(tǒng)的設(shè)計(jì)者、生產(chǎn)者的責(zé)任,需要證明他們對于交通事故、人身侵害的發(fā)生至少存在預(yù)見的可能。[8]若要生產(chǎn)者、設(shè)計(jì)者對他們在現(xiàn)有技術(shù)水平下所不能預(yù)見的系統(tǒng)運(yùn)行偏差承擔(dān)責(zé)任,這未免過于苛刻。由于智能駕駛系統(tǒng)極強(qiáng)的自主性與難以預(yù)見的運(yùn)行偏差,責(zé)任分配面臨的其實(shí)是證明的問題。這種證明困難是由技術(shù)特性決定的,并且在短時(shí)間內(nèi)難以被克服。而若要對智能駕駛系統(tǒng)分配責(zé)任,那么智能駕駛系統(tǒng)面臨一個(gè)尚未定論的問題——人工智能是否具有法律上的人格。
法律人格的本質(zhì),以筆者拙見,是一種法律上對個(gè)體資格的認(rèn)可,這種資格并不因?yàn)閭€(gè)體并非自然生命體而完全被法律所否定。以法人為例,法律賦予了身為自然人之間某種關(guān)系的合集以虛擬人格,并對該人格的權(quán)利義務(wù)制定了規(guī)則。被賦予法律人格的自然人或非自然人,基于這種法律上“人”的身份,取得了權(quán)利義務(wù)憑據(jù),并因此獲得了將行為轉(zhuǎn)化為權(quán)利義務(wù)內(nèi)容的可能。在討論人工智能是否能夠獲得法律人格之前,筆者認(rèn)為,需要了解人工智能的特殊性。明確人工智能的特殊性,能夠更加清晰地理解人工智能的法律人格問題。
從生物學(xué)角度理解被稱為人類的生物,是一種體細(xì)胞具有二十三對染色體的靈長目人科人屬的生物。人類自詡具有“智能”,并且因此將自己與動(dòng)物加以區(qū)分。但從生物角度而言,人仍然是哺乳類動(dòng)物,這點(diǎn)并不因相比其他生物人類更擅長運(yùn)用自己的大腦而有所改變。
而從哲學(xué)的角度探索“人”為何物可以追溯至古希臘。最早將“人”的概念帶進(jìn)哲學(xué)領(lǐng)域的被認(rèn)為是普羅塔格拉。[9]在普羅塔格拉的理解中,人是萬物的尺度,人具有的arete——那些自然物所固有的特性——表現(xiàn)為人的才能、特長,這些始終美好的arete是將人與其他生物加以區(qū)分的關(guān)鍵。[9]蘇格拉底將理性視為人的本性,并將其視為人與動(dòng)物的根本區(qū)別。理性帶給人理智與判斷力,使人追求知識。在蘇格拉底眼中,理性是人類與動(dòng)物能加以區(qū)分的最大區(qū)別。[9]而在亞里士多德眼中,在人的特質(zhì)屬性中,人的意志自由占有極其重要的地位,人的行為也可以根據(jù)人的意志,分為自愿行為與非自愿行為,如果不能遵循自己的意愿、不具備分辨善惡的能力,這種人不應(yīng)該成為被苛責(zé)的對象。[10]人的自由意識與意志,可以說是人與其他生物加以區(qū)分的一個(gè)重要特質(zhì)。這并非等同于陳述其他生物不具備自由意識與意志,而是一個(gè)程度性的問題,最高程度的自由意識與意志能夠達(dá)到形成區(qū)分與邏輯的結(jié)果。
而所謂意識,筆者認(rèn)為從精神層面來說意識是一種認(rèn)知與邏輯的集合,從抽象方面對意識的定義是無法窮盡的,但從物理角度看待人的意識與自我認(rèn)知,其本質(zhì)上是一種由化學(xué)物質(zhì)傳遞形成的具有規(guī)律的傳導(dǎo)軌跡。從這個(gè)角度來說,人工智能通過人為構(gòu)建模擬的神經(jīng)網(wǎng)絡(luò),以電子符號構(gòu)建“神經(jīng)元”形成模擬人類神經(jīng)系統(tǒng)的數(shù)字系統(tǒng),可以獲得接近人類的“思維”與邏輯能力,甚至能夠做到在某個(gè)領(lǐng)域凌駕于人類之上。換言之,神經(jīng)網(wǎng)絡(luò)的理論基礎(chǔ),建立在對人類的思維的物理性質(zhì)的掌握上。從這個(gè)角度來看人工智能,很難說高度模擬化的人工智能不可能具備與人類類似的思考方式與意識。如前文所述,隨著技術(shù)的發(fā)展,人工智能的自主性會(huì)越來越強(qiáng),甚至達(dá)到脫離人為設(shè)計(jì)的程序的控制的程度。高度自主的人工智能,雖然冠以“人工”二字,但其認(rèn)知、自主與邏輯能力乃至“神經(jīng)”結(jié)構(gòu),并不足以支撐對“人工智能可以具有意識”的反駁。
在筆者眼中,關(guān)于人工智能能不能被視為一個(gè)有“生命”的個(gè)體的爭論本質(zhì)是倫理問題,而非自然科學(xué)問題。在人類的倫理認(rèn)知中,人類在無形中始終立足于這個(gè)地球上最特別的靈長類動(dòng)物的地位,并認(rèn)為自己所擁有的思維和思想是最為獨(dú)特的。所謂倫理即關(guān)系論,與技術(shù)發(fā)展的沖突在前沿領(lǐng)域非常明顯,例如某些新銳醫(yī)藥試驗(yàn),以及人工智能。必須承認(rèn),在當(dāng)前人工智能尚處于“弱人工智能”的前提下,人工智能難以被視為一個(gè)獨(dú)立個(gè)體。弱人工智能可以在某個(gè)領(lǐng)域成為一個(gè)高速運(yùn)轉(zhuǎn)的計(jì)算器,在一般認(rèn)知中,僅以一個(gè)工具的身份在某個(gè)領(lǐng)域活動(dòng)。然而當(dāng)技術(shù)發(fā)展到一定程度的時(shí)候,這種單純的計(jì)算器的身份將不復(fù)存在,尤其是當(dāng)人工智能以凌駕于人類思維之上的姿態(tài)出現(xiàn)時(shí)。曾經(jīng)出現(xiàn)過的家用機(jī)器人怪聲事件令輿論嘩然,一時(shí)間引出不少人工智能有害論與人工智能對立論。不難想象在抵達(dá)能制造強(qiáng)人工智能的技術(shù)水平之前,人們對于可能凌駕于自己之上的智能體的抵觸可能會(huì)影響這種技術(shù)的發(fā)展。這種抵觸很大程度來自于對事物間關(guān)系的未知變化的恐懼。而在筆者眼中,倫理往往具有滯后性,雖然這種滯后并非一成不變。無論如何人為的阻擋,也不會(huì)改變?nèi)祟悓τ谏鐣?huì)關(guān)系的認(rèn)知隨著技術(shù)和環(huán)境變化而緩慢變化的事實(shí),這一點(diǎn)在面對人工智能時(shí)仍然適用。人工智能的存在可能改寫人類對于生命的認(rèn)知并且從技術(shù)上成為新的生命體,現(xiàn)有的基于“人與機(jī)器的區(qū)別”的倫理體系[11]也將難以避免地因?yàn)槿斯ぶ悄艿某霈F(xiàn)而發(fā)生變革。在這種變革中,人工智能這一類突破人工算法之后的形成的新型的生命體,像曾經(jīng)的公司組織那樣通過歷史發(fā)展而成為人類認(rèn)知中的獨(dú)立個(gè)體,并非完全沒有可能,而能夠稱為獨(dú)立個(gè)體的人工智能,在特定語境下就具有了獲得“人格”的一種條件。
三、人工智能的法律人格
在倫理方面有所突破之前,筆者認(rèn)為,人工智能很難被現(xiàn)有的大眾意識接受為新的生命體。對于人工智能能否具有法律人格一事,目前學(xué)界的討論能看到明顯的兩種立場:主體肯定與主體否定。
(一)主體肯定說與主體否定說
肯定人工智能的主體資格的學(xué)者表示,人工智能具有內(nèi)部知識以及一定程度的自我意識,具有自主學(xué)習(xí)、自主角色,自我設(shè)定目標(biāo)的能力。[2]賦予人工智能法律人格在現(xiàn)實(shí)需求面前具有一定的必要性,可以解決人工智能運(yùn)行期間致人損害的責(zé)任分擔(dān)問題,并且現(xiàn)行的法律制度并不排斥人工智能的主體資格,可以說,現(xiàn)有的法律制度體系為人工智能的法律人格留下了一定空間。[12]Solum表示,如果將人類智能視為計(jì)算,那么原則上計(jì)算機(jī)模擬人的心靈并非不可能的,[13]只要智能機(jī)器人能夠通過圖靈測試,那么從技術(shù)上,人工智能機(jī)器人就擁有了與人類一樣的所有屬性,足以成為憲法意義上的主體。[14]一旦得到憲法的承認(rèn),作為下位法的其他部門法中的人工智能,尤其是強(qiáng)人工智能就具有成立刑法意義上故意和過失的可能性,雖然承認(rèn)這種可能性的同時(shí),應(yīng)當(dāng)基于人工智能的算法基礎(chǔ)使之與自然人的主觀罪過加以區(qū)別。[3]John F. Weaver在《機(jī)器人也是人》中從公共政策的角度提出,人工智能應(yīng)當(dāng)成為主體自己承擔(dān)責(zé)任,并且這種責(zé)任承擔(dān)只需要滿足兩個(gè)條件:(1)損害或損失是由人工智能自身引發(fā)的;(2)不能將損失或損害的所有責(zé)任全部歸屬于人工智能流通中的某一個(gè)或數(shù)個(gè)既存的主體。[15]也曾有學(xué)者提出為人工智能創(chuàng)造“準(zhǔn)人格”[16]或“臨界地位”,[13]以解決人工智能導(dǎo)致?lián)p失或損害的問題。
同時(shí),對人工智能的法律人格持否定態(tài)度的學(xué)者對賦予人工智能法律人格一事進(jìn)行了批判,其中最典型的辯駁往往從人工智能不具有理解能力、其自我意識并非獲得法律人格的保證著手。通常成為法律上的“人”意味著兩個(gè)必要條件的統(tǒng)一:擁有行使權(quán)力履行義務(wù)的法律資格,以及相應(yīng)的意志能力。[17]這意味著,并非所有有意志能力的實(shí)體都能被法律賦予主體資格。人工智能的學(xué)習(xí)能力是算法所賦予的,學(xué)習(xí)的范圍也是由人類設(shè)定的范圍所限定的,不應(yīng)當(dāng)被過度夸大,并且這種學(xué)習(xí)能力受制于不完備性定理,可以說是“缺少‘直覺” [18]的。由于人工智能不具備財(cái)產(chǎn)能力,無法從法律上劃定獨(dú)立的責(zé)任范圍,這使得責(zé)任向財(cái)產(chǎn)轉(zhuǎn)化的能力受到阻礙。[17]也有學(xué)者認(rèn)為,人工智能應(yīng)當(dāng)被歸為單純的產(chǎn)品,這種產(chǎn)品制造的損害應(yīng)當(dāng)被歸因于制造缺陷。[14]
(二)對主體否定論之反駁
筆者認(rèn)為,首先不應(yīng)當(dāng)否認(rèn)人工智能的學(xué)習(xí)能力是來自人為創(chuàng)造的算法的事實(shí)。然而同時(shí)不能否認(rèn)的是,人工智能的學(xué)習(xí)能力,有超過人工算法的可能性,并且這種可能性并非足夠微小到可以忽略不計(jì)的。這并非將人工智能學(xué)習(xí)能力神化,而是闡述事實(shí)。可以說當(dāng)技術(shù)的進(jìn)化超乎目前人類的平均想象時(shí),拒絕承認(rèn)人工智能的自我能力是對法學(xué)理論發(fā)展是相當(dāng)不利的。
對于主體否定說中認(rèn)為人工智能不具備財(cái)產(chǎn)能力進(jìn)而影響責(zé)任分配,因此不應(yīng)當(dāng)由人工智能承擔(dān)責(zé)任成為主體的推論,這種推論實(shí)質(zhì)上隱含著一個(gè)在先的前提,即人工智能沒有主體資格進(jìn)而不具有財(cái)產(chǎn)能力。用隱含在先前提的推論去反駁在先前提的逆命題,從邏輯上來說并不可取。
若將人工智能視為一種單純的產(chǎn)品則會(huì)導(dǎo)致這樣一種情況:人工智能的設(shè)計(jì)者、生產(chǎn)者將由于自己所不能預(yù)知或掌控的事情而背負(fù)產(chǎn)品對第三人造成損害的責(zé)任;又或者,人工智能的設(shè)計(jì)者、生產(chǎn)者將因自己所控制的范圍外的因素而被苛責(zé),隨著人工智能自主性增強(qiáng),這種情況將越來越明顯,使設(shè)計(jì)者與生產(chǎn)者將因?yàn)槿斯ぶ悄茏灾靼l(fā)起的活動(dòng)而受到苛責(zé)。這可以說是將人工智能視為單一產(chǎn)品的最直接的弊端,同時(shí)也帶來一個(gè)問題,如何對待人工智能在具備高度自主性后所產(chǎn)生的人工算法以外的信息。這意味著一個(gè)技術(shù)性問題:如何將人工智能自主學(xué)習(xí)的新信息與偏差及其造成的損害與原始預(yù)設(shè)行為的損害進(jìn)行區(qū)分。
(三)人工智能特殊人格
現(xiàn)階段考慮人工智能的法律人格問題,通過自主性程度對人工智能加以區(qū)分[6]會(huì)導(dǎo)致針對弱人工智能的追責(zé)存在一定偏移。以自動(dòng)駕駛系統(tǒng)偏差導(dǎo)致交通事故發(fā)生致人損害事件為例,若因弱人工智能的自主性程度較低而放棄對自動(dòng)駕駛系統(tǒng)的問責(zé),而轉(zhuǎn)向設(shè)計(jì)者、生產(chǎn)者,則在其問責(zé)邏輯中會(huì)出現(xiàn)這樣一種情況:需要證明自動(dòng)駕駛系統(tǒng)的偏差的發(fā)生至少是可以預(yù)見的,自動(dòng)駕駛系統(tǒng)的設(shè)計(jì)者、生產(chǎn)者對于這種偏差主觀意識上至少是有過失的。但是在現(xiàn)實(shí)技術(shù)面前,軟件運(yùn)行造成的傷害并不能總是歸因于人的過錯(cuò),這意味著設(shè)計(jì)者、生產(chǎn)者始終處于被苛責(zé)的狀態(tài)。如果說將運(yùn)行偏差從所有由自動(dòng)駕駛導(dǎo)致的損害中剝離出來,針對由原有技術(shù)工藝造成的損害,由設(shè)計(jì)者、生產(chǎn)者自行承擔(dān)責(zé)任,而針對由于自動(dòng)駕駛系統(tǒng)自主學(xué)習(xí)而新產(chǎn)生的偏差導(dǎo)致的損害,由自動(dòng)駕駛系統(tǒng)承擔(dān)責(zé)任,面臨的是現(xiàn)實(shí)技術(shù)問題——如何將這兩種不同自主性行動(dòng)帶來的損害加以區(qū)分。當(dāng)人工智能能夠發(fā)展到高度自主的程度時(shí),這種技術(shù)也應(yīng)當(dāng)并非完全不可行之物。
以筆者之拙見,對于人工智能,由法律賦予其一種較為特殊的人格并非不可能。賦予人工智能以法律人格能夠解決人工智能隨自主性增強(qiáng)做出了某種行為造成損害的問題。當(dāng)發(fā)展到強(qiáng)人工智能、超人工智能階段的人工智能,其算法具有越來越強(qiáng)的自主性,能夠辨認(rèn)和控制自己的行為時(shí),它就已經(jīng)具備了成為法律上的“人”的基礎(chǔ)條件。在現(xiàn)代法律中,在對行為進(jìn)行界定時(shí),“人”的物理屬性的身體條件已經(jīng)不是必需要素,行為的本質(zhì)更多地著眼于基于意志做出某種行為及其后果。[19]人工智能是否具備生物意義上的有新陳代謝功能的肉體,這并非法律應(yīng)當(dāng)關(guān)注的對象。當(dāng)人工智能具有自主性與自主能力時(shí),它已經(jīng)具備了更為根本的有意性條件。
在人工智能被賦予特定法律人格時(shí),損害歸責(zé)問題也不再是難以解決的問題。人工智能以其超出設(shè)計(jì)者、生產(chǎn)者意圖的自主能力實(shí)施了某種行為,造成了一定的損害后果,這種后果與行為之間的因果關(guān)系無法被否定,那么責(zé)任的歸屬也就相對明確。此時(shí)面臨的問題則是人工智能如何承擔(dān)責(zé)任,畢竟單純地具有法律人格并不等同于具有承擔(dān)責(zé)任的能力。若人工智基于這種法律人格,通過法律擬制,能夠取得一定的財(cái)產(chǎn)權(quán)利,那人工智能至少對經(jīng)濟(jì)性質(zhì)的責(zé)任部分具有一定的承擔(dān)能力。關(guān)于人工智能的權(quán)利,有學(xué)者甚至提出在財(cái)產(chǎn)權(quán)利之外,應(yīng)當(dāng)使強(qiáng)人工智能享有尊嚴(yán)權(quán)。[19]尊嚴(yán)權(quán)的問題暫且不表,但賦予人工智能以財(cái)產(chǎn)權(quán)利并不與現(xiàn)行法律系統(tǒng)矛盾,也并不存在倫理上的矛盾。一旦人工智能能夠以獨(dú)立個(gè)體身份,以其財(cái)產(chǎn)權(quán)利為損害承擔(dān)經(jīng)濟(jì)化的責(zé)任,生產(chǎn)者設(shè)計(jì)者也能夠從持續(xù)的苛責(zé)中解放出來。這種財(cái)產(chǎn)權(quán)利并不等同于保險(xiǎn)制度。為人工智能系統(tǒng)設(shè)立保險(xiǎn)的方式,其本質(zhì)是將風(fēng)險(xiǎn)轉(zhuǎn)移給流通過程中的其他主體,這種風(fēng)險(xiǎn)轉(zhuǎn)嫁雖然不與人工智能法律人格問題與責(zé)任分擔(dān)問題沖突,但如果因?yàn)轱L(fēng)險(xiǎn)轉(zhuǎn)移而對人工智能運(yùn)行保險(xiǎn)的批判能夠成立,商業(yè)保險(xiǎn)也將失去它的基本邏輯立場。
人工智能所能夠取得的法律人格可以與自然人、法人的法律身份加以區(qū)分。人工智能由于其人工產(chǎn)物的特殊性質(zhì),在“生命”范疇內(nèi)與自然人具有不同的物理屬性。當(dāng)沒有從倫理層面對“生命”一詞進(jìn)行重新界定時(shí),法律意義上的生命權(quán)人身權(quán)仍然只能適用于自然人。人工智能在獲得法律人格的同時(shí),雖然不具有現(xiàn)行界定的生命權(quán)與人身權(quán)利,但可以以技術(shù)手段對其財(cái)產(chǎn)進(jìn)行界定,使其擁有對一定財(cái)產(chǎn)的支配權(quán)利。這種財(cái)產(chǎn)的最初來源可以來自其流通過程中的其他主體,基于風(fēng)險(xiǎn)認(rèn)同而進(jìn)行財(cái)產(chǎn)轉(zhuǎn)讓,也可以是人工智能通過運(yùn)行自行取得的各種形式的財(cái)產(chǎn)。財(cái)產(chǎn)權(quán)利可以成為對人工智能因其自主行為導(dǎo)致的損害的填平或彌補(bǔ)。
在否定人工智能法律主體資格的辯駁中,反對人工智能作為法律主體承擔(dān)責(zé)任享有權(quán)利的理由之一在于,針對人工智能適用自由刑與生命刑是沒有意義的。自由刑對人工智能并不適用,而生命刑,對于人工智能而言意味著刪除或拆解,只會(huì)造成開發(fā)人員與使用者的損失。[20]筆者眼中的人工智能的自由并非完全無法受到限制。由于物理性質(zhì)上人工智能并不存在“位移”活動(dòng)的問題,對人工智能的自由的限制應(yīng)該是一種針對其意志與行動(dòng)的自由而非物理位置自由的技術(shù)性問題。而生命刑對于人工智能而言則意味著被拆解、終止使用、被永久地從數(shù)字世界中剝離出來。當(dāng)人工智能能夠以獨(dú)立個(gè)體形式活動(dòng)時(shí),其生產(chǎn)者更多的是以“父母”的身份存在,而非財(cái)產(chǎn)所有人。子女的生命的喪失對父母而言是一種損失,但這并不應(yīng)當(dāng)被稱為一種財(cái)產(chǎn)性的損失。這種損失也應(yīng)當(dāng)是雙向的,并非單方面的流通中其他主體的損失。
四、結(jié)語
人工智能是具有被賦予法律人格的條件的,并且賦予其法律人格并不會(huì)有違現(xiàn)有法律。以筆者之拙見,在倫理層面對“生命”做出重新界定之前,在落后于技術(shù)且本身局限性極強(qiáng)的法律思維層面討論生命刑對于人工智能的適用,其結(jié)果只能是局限且狹隘的。當(dāng)“生命”的概念被改寫或被承認(rèn)時(shí),人工智能作為一個(gè)獨(dú)立的法律上的主體才真正具有意義。
[參 考 文 獻(xiàn)]
[1] Sergio Ferraz, Victor Del Nero.人工智能倫理與法律風(fēng)險(xiǎn)的探析[J].科技與法律, 2018(01):19-24, 31.
[2] 王榮余.“機(jī)器人也是人”的法理拷問[J].社會(huì)科學(xué)動(dòng)態(tài),2019(11):18-23.
[3] 劉憲權(quán).人工智能時(shí)代的“內(nèi)憂”“外患”與刑事責(zé)任[J].東方法學(xué),2018(01):134-142.
[4] 賀樹龍.人工智能革命:人類將永生或者滅絕.網(wǎng)易科技, 2015-02-10,來源http://tech.163.com/15/0210/16/AI3VNEES00094P0U_all.html, 2019-12-16.
[5] Gottfredson L S. Intelligence and social inequality: Why the biological link[J]. The Wiley-Blackwell handbook of individual differences. Blackwell Publishing Ltd, 2011: 538-75.
[6] 馬治國, 田小楚. 論人工智能體刑法適用之可能性[J]. 華中科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版), 2018, 34(2): 108-115.
[7] 石冠彬.人工智能民事主體資格論:不同路徑的價(jià)值抉擇[J].西南民族大學(xué)學(xué)報(bào)(人文社科版), 2019, 40(12):94-102.
[8] 江溯. 法律如何應(yīng)對自動(dòng)駕駛汽車的挑戰(zhàn)[N].經(jīng)濟(jì)參考報(bào),2018-06-27(008).
[9] 莫法有.試論中西哲學(xué)史上人性論之差異[J].復(fù)旦學(xué)報(bào)(社會(huì)科學(xué)版),1996(01):10-15.
[10] 時(shí)方.人工智能刑事主體地位之否定[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2018,36(06):67-75.
[11] 閆坤如.機(jī)器人倫理學(xué):機(jī)器的倫理學(xué)還是人的倫理學(xué)? [J].社會(huì)科學(xué)文摘,2019(10):11-13.
[12] 陳全真. 論智能機(jī)器人權(quán)利存在的由因及對策[J].貴州師范大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2019(3).
[13] Lawrence Solum. Legal personhood for artigicial intelligence[J]. North Carolina Law Review. 1992,70: 1232.
[14] 成素梅,高詩宇.智能機(jī)器人應(yīng)有法律主體資格嗎? [EB/OL]. 西安交通大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版): 1-12.源http://kns.cnki.net/kcms/detail/61.1329.C.20191111.1141.002.html, 2019-12-20.
[15] John Frank Weaver.機(jī)器人也是人[M],鄭志峰,譯.元照出版, 2018:46-47.
[16] Peter Asaro. Robots and responsibilities from a legal perspective, 2007. http://www.peterasaro.org/writing/ASARO%20Legal%20Perspective.pdf. 2019-12-20.
[17] 馮潔.人工智能體法律主體地位的法理反思[J].東方法學(xué),2019(04):43-54.
[18] George Zarkadakis. 人類的終極命運(yùn)[M],陳朝,譯.北京:中信出版社,2017:198,276.
[19] 劉憲權(quán),張俊英.人工智能時(shí)代機(jī)器人異化與刑事責(zé)任[J].法治研究, 2019(04):90-97.
[20] 文詩映.人工智能的刑事法律地位探討[J].法制博覽,2019(33):179-180.
〔責(zé)任編輯:張 毫〕
[收稿日期]2020-06-17
[作者簡介]蔡文坤(1989—),女,四川成都人,碩士研究生,從事國際經(jīng)濟(jì)法研究。