国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能法律主體建構(gòu)的責(zé)任路徑

2022-01-01 10:45鄭文革
中國(guó)應(yīng)用法學(xué) 2022年5期
關(guān)鍵詞:法律責(zé)任主體責(zé)任

鄭文革

一、主體性的概念

主體性的概念是二元論世界觀的產(chǎn)物。在古代哲學(xué)中,由于人類改造自然能力的欠缺,人對(duì)自然充滿敬畏,萬(wàn)物有靈,主體的概念并不是特指人類。自康德始,歐陸哲學(xué)的主體性通常與人的自由意志和理性緊密相關(guān),康德哲學(xué)中的“人為自然立法”,確立了人的“主體性”原則?!?〕嚴(yán)福平、吳珍:《論康德哲學(xué)的批判主體性認(rèn)識(shí)論》,載《學(xué)術(shù)交流》2012年第10期??档隆爸黧w性”原則的確立反映了人的自我意識(shí)覺(jué)醒在文藝復(fù)興以后所達(dá)到的最高程度?!?〕溫純?nèi)纾骸墩J(rèn)知、邏輯與價(jià)值:康德〈純粹理性批判〉新探》,中國(guó)社會(huì)科學(xué)出版社2002年版,第297頁(yè)。自我意識(shí)覺(jué)醒,人才會(huì)以理性的尺度對(duì)現(xiàn)實(shí)對(duì)象展開(kāi)批判,去創(chuàng)造新世界?!?〕李揚(yáng)、李曉宇:《康德哲學(xué)視點(diǎn)下人工智能生成物的著作權(quán)問(wèn)題探討》,載《法學(xué)雜志》2018年第9期。哲學(xué)上的主體性主要源自于人的自我意識(shí)和主觀能動(dòng)性,體現(xiàn)了人作為主體的自為、自覺(jué)和自由。

法律主體是指在法律關(guān)系中享有權(quán)利或負(fù)有義務(wù)的人,通常又稱為權(quán)利主體和義務(wù)主體。〔4〕張文顯主編:《法理學(xué)》(第三版),法律出版社2007年版,第186頁(yè)。法學(xué)上的主體性以哲學(xué)上的主體性為基礎(chǔ),因此主觀意思在法律關(guān)系中具有決定性作用,民法便是建立在主觀意思表示的基礎(chǔ)之上。法律主體的制度建構(gòu)一般有自由意志和責(zé)任承擔(dān)兩個(gè)層面的考量,自由意志主要用于論證自然人作為法律關(guān)系的主體,從哲學(xué)的主體到法學(xué)的主體再到具體法律中對(duì)法律主體的規(guī)定,自由意志都是主體的核心要素,自由意志意味著法律主體可以根據(jù)自己的意思選擇自己的行為,目前絕大多數(shù)法律主體都可以滿足這一要求。責(zé)任承擔(dān)主要用于論證法人或單位等作為法律關(guān)系的主體,法人的出現(xiàn)其實(shí)是為了解決有限責(zé)任的問(wèn)題,法人的主體地位則是民事法律責(zé)任承擔(dān)的特殊制度建構(gòu),團(tuán)體人格是用作區(qū)分團(tuán)體有無(wú)民法上獨(dú)立財(cái)產(chǎn)主體地位的純法律技術(shù)工具,既無(wú)社會(huì)政治性,亦無(wú)倫理性。〔5〕尹田:《論法人人格權(quán)》,載《法學(xué)研究》2004年第4期。我國(guó)刑法目前對(duì)單位犯罪主體的認(rèn)定更多地是基于功利主義的理論基礎(chǔ)且受到刑事政策的影響,法人犯罪的刑事責(zé)任理論依據(jù)就是新派刑法理論的“以人的自由意志為基礎(chǔ)的刑法是完全錯(cuò)誤的,刑法的任務(wù)在于保衛(wèi)社會(huì),為了防止犯罪對(duì)社會(huì)的侵害,應(yīng)當(dāng)充實(shí)社會(huì)政策”?!?〕尉琳:《單位犯罪主體資格問(wèn)題探析》,載《法學(xué)雜志》2016年第6期??梢?jiàn),我國(guó)設(shè)定單位犯罪的初衷亦是責(zé)任承擔(dān)。據(jù)此,自然人法律主體兼具身份性和財(cái)產(chǎn)性,既有自由意志的一面,也有責(zé)任承擔(dān)的一面,而非自然人法律主體僅是以責(zé)任承擔(dān)為基礎(chǔ)的財(cái)產(chǎn)性法律主體,沒(méi)有意志和倫理的屬性。故而有學(xué)者認(rèn)為人工智能具有財(cái)產(chǎn)方面的意思能力和責(zé)任能力,但不具有人身性人格,其自主行為背后體現(xiàn)的也是多方主體的意志,以財(cái)產(chǎn)性人格的進(jìn)路將其擬制為電子法人,既是可行的,也是必要的?!?〕張志堅(jiān):《論人工智能的電子法人地位》,載《現(xiàn)代法學(xué)》2019年第5期。

二、人工智能法律主體地位的可能性

法律上的主體性自始就是一種制度安排與設(shè)計(jì),自然人并非一直當(dāng)然為法律主體,古羅馬法就曾經(jīng)將奴隸排除在法律主體的范圍之外,奴隸是會(huì)說(shuō)話的工具,可以自由奴役、買賣、懲處,是法律關(guān)系的客體,無(wú)法享有羅馬人的法律主體地位。古羅馬法有所謂“人格減等(人格變更)”制度,完整的人格權(quán)包括自由權(quán)、市民權(quán)和家長(zhǎng)權(quán),喪失自由權(quán)淪為奴隸者,為人格大減等,喪失羅馬市民權(quán)而成為拉丁人或外國(guó)人者,為人格中減等,喪失家長(zhǎng)權(quán)而成為普通家庭成員者,為人格小減等?!?〕何勤華主編:《外國(guó)法制史》,法律出版社2016年版,第65-66頁(yè)。此外,瑞士1992年《憲法》認(rèn)為動(dòng)物為“存在體”,蘇黎世地方法律規(guī)定受虐的動(dòng)物存在擁有律師的權(quán)利,從9世紀(jì)到19世紀(jì)的西歐,有超過(guò)200個(gè)記錄在案的動(dòng)物被審判的案例?!?〕[意]烏戈·帕加羅:《誰(shuí)為機(jī)器人的行為負(fù)責(zé)?》,張卉林、王黎黎譯,上海人民出版社2018年版,第37頁(yè)。2014年新西蘭北島霍克灣地區(qū)的尤瑞瓦拉(Te-Urewera)國(guó)家公園獲準(zhǔn)為法人,2017年新西蘭國(guó)會(huì)又賦予具有特殊民族信仰地位的旺格努伊河(Whanganui River)以法律人格,西方法制史上也曾多次出現(xiàn)過(guò)將河流等無(wú)生命主體作為法律主體對(duì)待的情形?!?0〕孫建偉、袁曾、袁葦鳴:《人工智能法學(xué)簡(jiǎn)論》,知識(shí)產(chǎn)權(quán)出版社2019年版,第30-31頁(yè)??v觀人類的法律歷史,自然人從來(lái)就不是法律主體的充要條件,現(xiàn)代法律上自然人也并不是唯一的主體,法人作為一種法律擬制,同樣可以具有法律主體地位,其意思能力則由相關(guān)的自然人補(bǔ)足。

因此,成為法律主體的考量因素不僅限于自由意志或自然人,法律主體的范圍是開(kāi)放的,是由社會(huì)發(fā)展的需要而決定的。故而有學(xué)者認(rèn)為,人工智能革命也可嘗試在法理學(xué)上納入法律位格的擬制傳統(tǒng),根據(jù)物種位階的規(guī)范主義立場(chǎng),現(xiàn)代法人制度通過(guò)“位格加等”把人為設(shè)置的團(tuán)體組織提升到具有一定法律位格的地位?!爸悄軝C(jī)器人”概念是對(duì)“智人”概念的模仿和擬制,人工智能概念是通過(guò)“位格加等”把機(jī)器人提升到自然人的法律位格?!?1〕張燒欣:《法律位格、法律主體與人工智能的法律地位》,載《現(xiàn)代法學(xué)》2019年第4期。無(wú)論是從法律史的梳理,還是從當(dāng)前法律規(guī)范的考察,抑或是法學(xué)理論的分析,人工智能成為法律主體均有其可能性。誠(chéng)如馬克思所言:“社會(huì)不是以法律為基礎(chǔ)的,那是法學(xué)家的幻想。相反地,法律應(yīng)該以社會(huì)為基礎(chǔ)?!薄?2〕《馬克思恩格斯全集》(第6卷),人民出版社1961年版,第291-292頁(yè)。人工智能有無(wú)必要成為法律關(guān)系的主體取決于社會(huì)生活的需要,而不是囿于傳統(tǒng)的法律主體判定規(guī)則。

人工智能的法律主體地位更多是一種法律決斷,而且是我們最終必須作出的決斷,〔13〕[德]托馬斯·威施邁耶、蒂莫·拉德馬赫編:《人工智能與法律的對(duì)話2》,韓旭志、李輝等譯,上海人民出版社2020年版,第140頁(yè)。換言之,即目前是否有賦予人工智能主體地位的必要。人工智能主體地位的必要性,可以從反面進(jìn)行考量,即如果法律上不給予人工智能主體地位會(huì)給法律的理論和實(shí)踐帶來(lái)什么樣的問(wèn)題。由于目前人工智能不具有自由意志,故而核心的問(wèn)題就是責(zé)任承擔(dān),即人工智能的責(zé)任風(fēng)險(xiǎn),目前人工智能造成的損害已屢見(jiàn)不鮮,國(guó)內(nèi)外人工智能造成人類傷害的新聞時(shí)常見(jiàn)諸報(bào)端?!?4〕1978年9月6日,日本廣島發(fā)生了第一起人工智能殺人事件,此后相關(guān)事件接連不斷出現(xiàn)。2018年9月10日,我國(guó)安徽蕪湖也發(fā)生類似事件,一搬運(yùn)機(jī)器人突然攔腰“抱住”工人,致其傷重身亡。2018年10月29日,印尼獅航空難的原因也是因?yàn)槿斯ぶ悄芟到y(tǒng)MCAS與飛行員爭(zhēng)奪飛機(jī)控制權(quán)所致。人工智能所造成的責(zé)任風(fēng)險(xiǎn)會(huì)給傳統(tǒng)的法律責(zé)任理論帶來(lái)困境,在以過(guò)錯(cuò)責(zé)任為主的侵權(quán)法領(lǐng)域以及主客觀相結(jié)合的犯罪領(lǐng)域,當(dāng)人工智能因?yàn)樽约旱脑蛟斐蓳p害,由于無(wú)法以存在過(guò)錯(cuò)對(duì)相關(guān)的傳統(tǒng)法律主體進(jìn)行追責(zé),傳統(tǒng)的法律責(zé)任理論在處理人工智能相關(guān)責(zé)任時(shí)顯得捉襟見(jiàn)肘,承認(rèn)人工智能具有某種程度的法律地位則是處理類似問(wèn)題的較優(yōu)路徑,這一法律決斷隨著人工智能法律實(shí)踐的不斷深入而愈顯重要且必要。

法律是社會(huì)關(guān)系的調(diào)節(jié)器,調(diào)節(jié)的方式便是基于法理和社會(huì)現(xiàn)實(shí)的各種法律制度設(shè)計(jì),當(dāng)新興的事物不但在法理上滿足了理論論證的要求,同樣在現(xiàn)實(shí)中產(chǎn)生了迫切的待決問(wèn)題,新的制度化設(shè)計(jì)也將有認(rèn)真思考的必要性。承認(rèn)公司的法人地位會(huì)帶來(lái)經(jīng)濟(jì)效益,承認(rèn)河流、公園等自然物為法律主體具有很大的政治、社會(huì)和經(jīng)濟(jì)意義,同樣地,賦予機(jī)器人以法律人格是減少與其有關(guān)的違法和不道德行為的一個(gè)良好解決方案?!?5〕See Roman Dremliuga, Pavel Kuznetcov, Alexey Mamychev, Criteria for Recognition of AI as a Legal Person, 12 J. POL. & L. 105 (2019).承認(rèn)人工智能的主體地位不但會(huì)延展法律的主體制度設(shè)計(jì)內(nèi)涵,而且會(huì)妥善解決在各種社會(huì)生活場(chǎng)景中產(chǎn)生的各類道德問(wèn)題和法律問(wèn)題。因此,沒(méi)有先驗(yàn)理由不給予真正自主的機(jī)器某種正式的法律地位,使它們像公司和某些信托機(jī)構(gòu)一樣成為法律上的“人”并可以參加訴訟?!?6〕See David C. Vladeck, Machines without Principals: Liability Rules and Artificial Intelligence, 89 Wash. L. REV. 117 (2014).

三、人工智能法律主體問(wèn)題的核心

在賦予人工智能法律主體地位時(shí),應(yīng)當(dāng)滿足法律主體的一些基本要求,并兼顧社會(huì)實(shí)踐的需要。人工智能的主體性首先應(yīng)當(dāng)考慮的問(wèn)題就是自由意志,如果產(chǎn)生了自由意志,那么主體性的問(wèn)題將迎刃而解。在人工智能自由意志的產(chǎn)生尚需時(shí)間的情況下,主體性的考慮必須以功能論為基礎(chǔ),即人工智能可能在主體功能領(lǐng)域發(fā)揮多大的作用,這是人工智能主體設(shè)計(jì)的最直接參考。人工智能主體功能的發(fā)揮主要體現(xiàn)于其在法律責(zé)任漏洞填補(bǔ)上相較于傳統(tǒng)法律責(zé)任理論的巨大優(yōu)勢(shì),因而可以說(shuō),人工智能法律主體問(wèn)題的本質(zhì)和核心其實(shí)主要是法律責(zé)任承擔(dān)的問(wèn)題,人工智能引發(fā)的各種困境尤其是法律責(zé)任漏洞最終基本都可以通過(guò)責(zé)任分配得到解決。

縱觀人類的法律制度,法律主體的內(nèi)涵一直是開(kāi)放的,法律主體經(jīng)歷了從自由人到自然人再到自然人與擬制人并存的發(fā)展過(guò)程,每一步的變化都與社會(huì)變遷息息相關(guān),也和責(zé)任承擔(dān)密不可分,尤其是法人的主體地位則是直接基于有限責(zé)任的制度設(shè)計(jì)。法律從某種程度上來(lái)說(shuō),也是以責(zé)任承擔(dān)為基礎(chǔ)的一種社會(huì)規(guī)范建構(gòu),法律的絕大部分規(guī)范和制度設(shè)計(jì)都是通過(guò)責(zé)任承擔(dān)來(lái)最終落實(shí)的。在整個(gè)社會(huì)關(guān)系體系中,責(zé)任的基本價(jià)值趨向也在于對(duì)自由的保障。沒(méi)有法律責(zé)任作為最后一道防線的保障,權(quán)利被侵犯、義務(wù)不履行沒(méi)有相應(yīng)的法律后果,那么法律最終也不過(guò)是一紙空文?!?7〕葉傳星:《法律責(zé)任的哲學(xué)根據(jù)》,載《法制與社會(huì)發(fā)展》1998年第6期。責(zé)任的概念在法律理論中的重要性一直被忽視,有學(xué)者認(rèn)為,在“權(quán)利本位論”逐漸暴露出自身理論缺陷、日益難以應(yīng)對(duì)社會(huì)亂象的今天,倡導(dǎo)一種以有限政府理念為基礎(chǔ)的“責(zé)任本位論”作為一種替代性的法律理論?!?8〕蔡宏偉:《“法律責(zé)任”概念之澄清》 ,載《法制與社會(huì)發(fā)展》2020年第6期。因此,以責(zé)任承擔(dān)為基礎(chǔ)賦予人工智能以法律主體地位在理論和實(shí)踐上都有其支撐。

四、人工智能法律主體建構(gòu)的具體路徑

(一)賦予強(qiáng)人工智能法律主體地位

人工智能是對(duì)人類智能的模仿,根據(jù)其模仿的程度,可以大體將人工智能分為三個(gè)層次。第一層次是弱人工智能,在這一階段人工智能并未接近或達(dá)到人類的智能,只能夠在某一方面做到很好,例如下圍棋、語(yǔ)音識(shí)別等,除了這些特定領(lǐng)域,人工智能則無(wú)能為力。因?yàn)檫@一階段的人工智能并沒(méi)有自己的意識(shí),它只是機(jī)械地重復(fù)人們之前做過(guò)的事情,可以熟練做到之前人類所做的事情,但是這種重復(fù)是單一的無(wú)意識(shí)重復(fù),這種熟練也是某一領(lǐng)域機(jī)械重復(fù)的結(jié)果,熟練的廣度和深度都有所欠缺,所以本質(zhì)上來(lái)說(shuō)這一階段的人工智能跟真正的智能還有很大的區(qū)別??梢哉f(shuō),目前絕大多數(shù)的人工智能都處于這一階段。第二層次是強(qiáng)人工智能(又稱通用人工智能),在這一階段人工智能已經(jīng)接近人類智能,能夠在很多方面熟練從事原本由人類從事的工作,強(qiáng)人工智能通過(guò)深度學(xué)習(xí)可以進(jìn)行一定程度的思考,能夠在各種常見(jiàn)領(lǐng)域根據(jù)具體情形提供當(dāng)下問(wèn)題的解決方案。盡管如此,強(qiáng)人工智能仍然是對(duì)人類智能的深度學(xué)習(xí),建立在對(duì)人類智能的深刻學(xué)習(xí)理解和高度模仿的基礎(chǔ)上,缺乏自主意識(shí)。這個(gè)階段的人工智能不擅長(zhǎng)處理抽象問(wèn)題、理解意義、舉一反三以及處理完全非結(jié)構(gòu)化或開(kāi)放式的任務(wù)。〔19〕Harry Surden, Artificial Intelligence and Law: An Overview, 35 GA. St. U. L. REV. 1305 (2019).第三層次是超人工智能,這一階段的人工智能發(fā)生了質(zhì)變,一些未來(lái)學(xué)家預(yù)測(cè)的“奇點(diǎn)”已經(jīng)來(lái)到,人工智能機(jī)器轉(zhuǎn)變成為有自主意識(shí)的能夠獨(dú)立行為的機(jī)器人。此時(shí)的人工智能機(jī)器不僅擁有自己的自由意志,而且在智能的各方面都將超越人類,當(dāng)然這一階段是一個(gè)猜想的階段,它的到來(lái)可能需要一定的時(shí)間,也可能永遠(yuǎn)都不會(huì)到來(lái)。

在弱人工智能階段,人工智能仍然處于低級(jí)的工具性階段,自由意志的缺位和社會(huì)功能的單一化導(dǎo)致了法理上主體理論基礎(chǔ)的不足,此階段的人工智能只是單功能智能體,并不具有法律主體資格認(rèn)定的形式要件,因而不能認(rèn)定其法律主體地位。在強(qiáng)人工智能階段,全面模仿人類智能行為的外在特征使得其具有了法律資格認(rèn)定的形式基礎(chǔ),如果因此發(fā)揮了某一特定社會(huì)功能,深入地介入了社會(huì)關(guān)系中,那么可以在一定范圍內(nèi)承認(rèn)人工智能的法律主體地位。有學(xué)者總結(jié)了強(qiáng)人工智能的五個(gè)特征:(1)交流,被認(rèn)為是定義智能實(shí)體最重要的屬性;(2)內(nèi)部知識(shí),指的是實(shí)體對(duì)于自身的知識(shí),這和自我意識(shí)相似;(3)外部知識(shí),指關(guān)于外部世界和事實(shí)真相的事實(shí)數(shù)據(jù);(4)目標(biāo)驅(qū)動(dòng)的行為,標(biāo)志著隨意或任意行為和有意行為之間的差異;(5)創(chuàng)造力,包括發(fā)現(xiàn)新的理解方式或行為方式?!?0〕[以色列]加布里埃爾·哈列維:《審判機(jī)器人》,陳萍譯,上海人民出版社2019年版,第8-10頁(yè)。強(qiáng)人工智能由于具備以上五個(gè)特征,可以進(jìn)行以前的程序所不能的、自主性的、創(chuàng)造性的判斷和行動(dòng),人們很難控制AI會(huì)如何進(jìn)行自主性地、創(chuàng)造性地判斷,并作出怎樣的行為。AI的這種特性,導(dǎo)致其蘊(yùn)含著產(chǎn)生事故的危險(xiǎn)性,失去了可預(yù)見(jiàn)性,催生了責(zé)任的空白,即在使用AI的情況下,原告難以舉證,使得過(guò)失和因果關(guān)系缺位,因此催生了法律層面上不存在責(zé)任者的問(wèn)題。〔21〕[ 日]福田雅樹(shù)、林秀彌、成原慧編著:《AI聯(lián)結(jié)的社會(huì)——人工智能網(wǎng)絡(luò)化時(shí)代的倫理與法律》,宋愛(ài)譯,社會(huì)科學(xué)文獻(xiàn)出版社2020年版,第266-269頁(yè)。還有學(xué)者總結(jié)了機(jī)器人的三個(gè)特征,即機(jī)器人是互動(dòng)的、自治的、適應(yīng)性強(qiáng),因此會(huì)對(duì)法律主體資格和法律責(zé)任問(wèn)題產(chǎn)生影響?!?2〕前引〔9〕,[意]烏戈·帕加羅書(shū),第39頁(yè)。因此,人工智能主體地位的建構(gòu)應(yīng)圍繞強(qiáng)人工智能體設(shè)計(jì)一套以責(zé)任承擔(dān)為核心的法律主體制度。

(二)人工智能是特殊類型的法律主體

人工智能的法律地位在法學(xué)理論界一直處于爭(zhēng)議之中,主要有否定說(shuō)和肯定說(shuō)兩種觀點(diǎn)。否定說(shuō)一般認(rèn)為,人工智能并沒(méi)有特別之處,只能被作為法律上的客體對(duì)待。人工智能不具備心理認(rèn)知意義上的意志,它自身并非是一種目的性存在物,且不具有自律性,人工智能無(wú)法承載法?!?3〕劉練軍:《人工智能法律主體論的法理反思》,載《現(xiàn)代法學(xué)》2021年第4期。人工智能超強(qiáng)的智能蘊(yùn)含巨大的風(fēng)險(xiǎn),必須處于人類的支配和控制之下,只能是法律關(guān)系客體而非主體。鑒于人工智能的智能性和自主性,可以將高度智能化的人工智能作為客體中的特殊物,予以特殊的法律規(guī)制?!?4〕劉洪華:《論人工智能的法律地位》,載《政治與法律》2019年第1期。有學(xué)者指出當(dāng)前人工智能法學(xué)研究出現(xiàn)了違反人類智力常識(shí)的反智化現(xiàn)象。概念附會(huì)現(xiàn)象嚴(yán)重,不少成果只是基于“AI+法律”的任意性組合,“泛人工智能化”研究正在產(chǎn)生大量學(xué)術(shù)泡沫,其中人工智能法律人格問(wèn)題是個(gè)徹底的偽問(wèn)題,沒(méi)有任何法制建構(gòu)和法學(xué)研究上的借鑒性?!?5〕劉艷紅:《人工智能法學(xué)研究的反智化批判》,載《東方法學(xué)》2019年第5期。針對(duì)否定說(shuō)的批評(píng),有持肯定說(shuō)的學(xué)者甚至專門撰文回應(yīng),并稱之為“偽批判”,認(rèn)為在人工智能時(shí)代的刑法學(xué)研究中存在不同觀點(diǎn)和爭(zhēng)議完全正常不足為怪。對(duì)人工智能刑法學(xué)探討研究的前提應(yīng)是對(duì)所涉對(duì)象、前人成果及相關(guān)概念全面了解,理性、客觀地提出自己的見(jiàn)解,論述應(yīng)實(shí)現(xiàn)邏輯自洽、自圓其說(shuō)并言之成理。不應(yīng)開(kāi)展“為批判而批判”的“偽批判”?!皞闻小敝饕ɑ煜拍钚?、移花接木型和自相矛盾型三種類型?!?6〕劉憲權(quán):《對(duì)人工智能法學(xué)研究“偽批判”的回應(yīng)》,載《法學(xué)》2020年第1期??隙ㄕf(shuō)一般同意在法律上賦予人工智能主體地位,但是為人工智能建構(gòu)何種類型的法律主體則有不同的意見(jiàn)??傮w來(lái)說(shuō),目前理論界存在電子人格說(shuō)、代理說(shuō)、有限主體說(shuō)等觀點(diǎn)。電子人格說(shuō)是歐盟的建議,2016年,歐洲議會(huì)向歐盟委員會(huì)提出報(bào)告,要求制定民事規(guī)范來(lái)限制機(jī)器人的生產(chǎn)和市場(chǎng)流通,其中第50條的(f)項(xiàng)建議:從長(zhǎng)遠(yuǎn)來(lái)看,要?jiǎng)?chuàng)設(shè)機(jī)器人的特殊法律地位,以確保至少最復(fù)雜的自動(dòng)化機(jī)器人可以被確認(rèn)為享有電子人(electronic persons)的法律地位,有責(zé)任彌補(bǔ)自己所造成的任何損害,并且可能在機(jī)器人作出自主決策或以其他方式與第三人獨(dú)立交往的案件中適用電子人格(electronic personality)。〔27〕陳亮、張光君主編:《人工智能時(shí)代的法律變革1》,法律出版社2020年版,第20頁(yè)。代理說(shuō)認(rèn)為,人工智能是人類的電子代理人,人工智能的意識(shí)表示被視為與之相關(guān)聯(lián)的人類的意識(shí)表示,人工智能的行為由作為被代理人的人類來(lái)承擔(dān)最終責(zé)任,甚至有學(xué)者認(rèn)為人工智能是研發(fā)者、制造者和使用者的法律行為。〔28〕李愛(ài)君:《人工智能法律行為論》,載《政法論壇》2019年第3期。有限主體說(shuō)認(rèn)為,應(yīng)該賦予人工智能某種特殊的法律地位,例如美國(guó)學(xué)者瑞恩·卡洛建議創(chuàng)建一個(gè)“介于人與物之間的新類型的法律主體”,賦予人工智能“中間法律地位”,使之具有部分權(quán)利能力,即根據(jù)某些領(lǐng)域的法律可能具有權(quán)利能力,但在同一時(shí)間若依據(jù)其他領(lǐng)域的法律,也可能不具備權(quán)利能力?!?9〕前引〔13〕,[德]托馬斯·威施邁耶、蒂莫·拉德馬赫編書(shū),第145-147頁(yè)。此外,還有主張賦予人工智能類似自然人的完全法律主體地位和類似法人的擬制法律主體地位。

既然作出賦予人工智能法律主體地位的決斷,否定說(shuō)的觀點(diǎn)自然不可采,對(duì)比肯定說(shuō)的幾種觀點(diǎn),完全主體說(shuō)、擬制主體說(shuō)和代理說(shuō)的說(shuō)服力相對(duì)較弱,電子人格說(shuō)和有限主體說(shuō)有異曲同工之妙,因此人工智能的主體地位應(yīng)當(dāng)以二說(shuō)為基礎(chǔ)進(jìn)行建構(gòu)?,F(xiàn)在已經(jīng)很清楚,為了民事責(zé)任的目的,承認(rèn)機(jī)器人為法人不是一個(gè)哲學(xué)問(wèn)題,不可以通過(guò)檢查數(shù)字設(shè)備的特征并詢問(wèn)它是否與人類足夠相似來(lái)回答這個(gè)問(wèn)題。相反,承認(rèn)機(jī)器人可以承擔(dān)責(zé)任需要一個(gè)符合侵權(quán)法一般原則和目標(biāo)的功能性解釋,即補(bǔ)償和威懾?!?0〕Gerhard Wagner, Robot, Inc.: Personhood for Autonomous Systems?, 88 FORDHAM L. REV. 591 (2019).人工智能不同于自然人,其主體性不應(yīng)包含倫理成分,當(dāng)前有關(guān)人工智能倫理性的探討多屬理論設(shè)想,不應(yīng)作為人工智能法律主體設(shè)定的考量因素,故而有關(guān)人身性質(zhì)的主體性不可賦予強(qiáng)人工智能,人工智能的法律主體建構(gòu)應(yīng)該立足于財(cái)產(chǎn)責(zé)任的承擔(dān)。人工智能也不同于法人,法人的意思和行為最終都需要相應(yīng)的自然人來(lái)完成,通過(guò)法律的擬制把自然人的這種意思和行為轉(zhuǎn)化為法人本身的意思和行為,這種意思和行為都是獨(dú)立的和完整的,因而法人的法律責(zé)任具有獨(dú)立性和完整性。而人工智能僅具有一定的意思能力和行為能力,可以作出一定的自主性行為,人工智能的法律責(zé)任相應(yīng)地也不具有獨(dú)立性和完整性,即某些情況下人工智能不具有獨(dú)立承擔(dān)所有法律責(zé)任的能力。總之,人工智能是一種既不同于自然人也不同于法人的特殊類型法律主體,這一類型法律主體沒(méi)有倫理屬性,主要承擔(dān)財(cái)產(chǎn)性法律責(zé)任,并且其承擔(dān)的財(cái)產(chǎn)性法律責(zé)任是有限制的。

(三)人工智能承擔(dān)法律責(zé)任的條件

法律責(zé)任的承擔(dān)通常要求責(zé)任者存在過(guò)錯(cuò),在法律有特別規(guī)定的情況下,責(zé)任者無(wú)過(guò)錯(cuò)也需要承擔(dān)責(zé)任,即過(guò)錯(cuò)責(zé)任和無(wú)過(guò)錯(cuò)責(zé)任。過(guò)錯(cuò)的存在與否是一種主觀狀態(tài)的判斷,前提是被判斷者具有過(guò)錯(cuò)能力,即意識(shí)到自己負(fù)有某種注意義務(wù)并決定是否履行這種注意義務(wù)的能力。當(dāng)前討論的人工智能并不具有自由意志,無(wú)人知道所謂“奇點(diǎn)”何時(shí)來(lái)臨,是否會(huì)來(lái)臨,〔31〕2005年美國(guó)學(xué)者庫(kù)茲韋爾在其《奇點(diǎn)臨近》一書(shū)中預(yù)言人工智能將在2045年迎來(lái)“奇點(diǎn)”,產(chǎn)生自由意志。人工智能現(xiàn)階段很難意識(shí)到自己行為的意義,不具有意識(shí)上的自覺(jué)也就不具有過(guò)錯(cuò)能力,因此人工智能的責(zé)任無(wú)法用通常的過(guò)錯(cuò)責(zé)任或無(wú)過(guò)錯(cuò)責(zé)任進(jìn)行表述,人工智能法律責(zé)任的性質(zhì)是一種法定的嚴(yán)格責(zé)任,即由法律明確規(guī)定人工智能在某種條件滿足時(shí)必須承擔(dān)特定的法律責(zé)任。換言之,機(jī)器人和其他人工智能體將對(duì)它們所造成的傷害或損害負(fù)嚴(yán)格責(zé)任,以此作為應(yīng)對(duì)其行為日益不可預(yù)測(cè)的一種方式?!?2〕前引〔9〕,[意]烏戈·帕加羅書(shū),第174頁(yè)。

人工智能承擔(dān)法律責(zé)任需要滿足特定的條件,當(dāng)存在設(shè)計(jì)缺陷、制造瑕疵、說(shuō)明指示或警告不充分的時(shí)候,人工智能的設(shè)計(jì)者、制造者、銷售者需要對(duì)人工智能的行為承擔(dān)責(zé)任,當(dāng)人工智能處于使用者的監(jiān)控之下時(shí),使用者需要對(duì)人工智能的行為負(fù)責(zé)。只有在以下情況發(fā)生時(shí),人工智能才可能對(duì)其行為承擔(dān)責(zé)任:(1)人工智能造成損害或傷害;(2)造成損害或傷害的所有責(zé)任都不能歸責(zé)于一群人或分配鏈中的某一人。有時(shí)候,當(dāng)這些情況發(fā)生時(shí),人工智能的行為完全按照預(yù)期進(jìn)行,但是仍會(huì)造成損害,也應(yīng)該承擔(dān)責(zé)任。〔33〕[美]約翰·F.韋弗:《機(jī)器人是人嗎?》,劉海安、徐鐵英、向秦譯,上海人民出版社2018年版,第26-30頁(yè)??偠灾?,當(dāng)人工智能造成的損害完全不可追溯且不可歸屬于他人之時(shí)需要獨(dú)立承擔(dān)法律責(zé)任,人工智能承擔(dān)法律責(zé)任是果,其不可歸責(zé)于他人的“自主”行為造成損害或傷害是因。

(四)人工智能法律責(zé)任的類型

法律中最常見(jiàn)責(zé)任類型是民事責(zé)任和刑事責(zé)任,民事責(zé)任主要有侵權(quán)、違約兩種,刑事責(zé)任則由犯罪產(chǎn)生。人工智能能否成為犯罪主體進(jìn)而承擔(dān)刑事責(zé)任一直存在爭(zhēng)論,否定說(shuō)認(rèn)為人工智能本質(zhì)上是人類輔助工具,不具有法律上的人格屬性,其行為不論是依照預(yù)先設(shè)定的程序運(yùn)行還是脫離程序設(shè)計(jì)的自主運(yùn)行,都欠缺法規(guī)范遵從能力的意志性,即使客觀上造成法益侵害后果,同樣不具有刑法上的可歸責(zé)性?!?4〕時(shí)方:《人工智能刑事主體地位之否定》,載《法律科學(xué)》2018年第6期??隙ㄕf(shuō)認(rèn)為,從刑法上的行為理論來(lái)看,應(yīng)當(dāng)認(rèn)為具備足夠決策能力的人工智能可以實(shí)施刑法意義上的行為。現(xiàn)代罪責(zé)理論由于逐漸開(kāi)始排斥“自由意志”這樣的形而上學(xué)概念,因而完全可以容納人工智能的罪責(zé)?!?5〕江溯:《人工智能作為刑事責(zé)任主體:基于刑法哲學(xué)的證立》,載《法制與社會(huì)發(fā)展》2021年第3期。當(dāng)智能機(jī)器人在程序設(shè)計(jì)和編制范圍外實(shí)施嚴(yán)重危害社會(huì)的行為時(shí),智能機(jī)器人具有辨認(rèn)能力和控制能力,因而具有刑事責(zé)任能力,應(yīng)當(dāng)獨(dú)立承擔(dān)刑事責(zé)任?!?6〕劉憲權(quán):《人工智能時(shí)代刑事責(zé)任與刑罰體系的重構(gòu)》,載《政治與法律》2018年第3期。人工智能在人類活動(dòng)中扮演越來(lái)越重要的角色,就像公司一樣,對(duì)公司和人工智能施加刑事責(zé)任的理念之間沒(méi)有實(shí)質(zhì)性的法律區(qū)別?!?7〕See Gabriel Hallevy, The Criminal Liability of Artificial Intelligence Entities - From Science Fiction to Legal Social Control, 4 AKRON INTELL. PROP.J. 171, 191 (2010).刑法的功能已不單純是懲罰犯罪人,改造犯罪人、補(bǔ)償受害人已逐漸成為刑法的重要目的,人工智能犯罪問(wèn)題則完全契合刑法的這一理念轉(zhuǎn)變,關(guān)注的不再是對(duì)人工智能的懲罰,不再考慮人工智能是否具有可刑罰性這樣的抽象問(wèn)題,而是注重對(duì)被侵害者的補(bǔ)償,側(cè)重于分析人工智能這一財(cái)產(chǎn)性主體如何最大程度地通過(guò)財(cái)產(chǎn)彌補(bǔ)受害者的損失。因此,人工智能承擔(dān)刑事責(zé)任符合未來(lái)刑法的發(fā)展趨勢(shì),如何進(jìn)行財(cái)產(chǎn)制度設(shè)計(jì)保障補(bǔ)償功能的實(shí)現(xiàn)是需要重點(diǎn)考慮的問(wèn)題。

在民事領(lǐng)域,人工智能造成的損害通常會(huì)被歸責(zé)于其設(shè)計(jì)者、生產(chǎn)者、銷售者或使用者等。例如,有學(xué)者認(rèn)為人工智能產(chǎn)品不宜成為獨(dú)立的責(zé)任主體,需要建立專門的倫理準(zhǔn)則、登記公示制度與召回處置機(jī)制,確立生產(chǎn)者、銷售者與使用者之間差異化的歸責(zé)原則。〔38〕張童:《人工智能產(chǎn)品致人損害民事責(zé)任研究》,載《社會(huì)科學(xué)》2018年第4期。然而人工智能不同于一般的產(chǎn)品,具有一定的自我行為能力,如果損害行為完全是在人工智能程序設(shè)定之外自主產(chǎn)生,這樣的程序外行為具有很強(qiáng)的不可預(yù)見(jiàn)性,讓上述主體承擔(dān)這一風(fēng)險(xiǎn)極大的責(zé)任有失公允,由于舉證困難的問(wèn)題很多時(shí)候受害者難以得到有效賠償,而且會(huì)在某種程度上降低人們研發(fā)人工智能的熱情,阻礙科技進(jìn)步。甚至有觀點(diǎn)認(rèn)為,分布式人工智能的特點(diǎn)會(huì)導(dǎo)致因果關(guān)系的失效,進(jìn)而使得傳統(tǒng)侵權(quán)制度很難處理涉人工智能案件?!?9〕See Curtis E. A. Karnow, Liability for Distributed Artificial Intelligences, 11 BERKELY TECH. L.J. 147(1996).盡管如此,以侵權(quán)和違約為主體的民事責(zé)任大多是財(cái)產(chǎn)責(zé)任,與人工智能作為財(cái)產(chǎn)性責(zé)任主體具有內(nèi)在一致性,人工智能作為民事責(zé)任主體可以有效化解相關(guān)主體可能承擔(dān)的責(zé)任風(fēng)險(xiǎn),穩(wěn)定社會(huì)關(guān)系,同時(shí)可以通過(guò)相關(guān)財(cái)產(chǎn)制度設(shè)計(jì)使損害得到及時(shí)有效賠償。

(五)人工智能法律責(zé)任的具體承擔(dān)

1.責(zé)任承擔(dān)模式

人工智能承擔(dān)法律責(zé)任可以有兩種模式,即共同責(zé)任模式和獨(dú)立責(zé)任模式,前者由人工智能和相關(guān)責(zé)任人共擔(dān)責(zé)任,后者由人工智能獨(dú)立承擔(dān)責(zé)任。以刑事責(zé)任為例,有學(xué)者認(rèn)為,當(dāng)強(qiáng)人工智能產(chǎn)品實(shí)施了嚴(yán)重危害社會(huì)的行為時(shí),除了追究強(qiáng)人工智能產(chǎn)品的刑事責(zé)任外,負(fù)有預(yù)見(jiàn)義務(wù)和監(jiān)督義務(wù)的設(shè)計(jì)者或使用者也有被追究刑事責(zé)任的可能。如果強(qiáng)人工智能產(chǎn)品的設(shè)計(jì)者或使用者既不可能預(yù)見(jiàn)危害結(jié)果的產(chǎn)生,也確實(shí)履行了監(jiān)督義務(wù),那么其可能不需要承擔(dān)刑事責(zé)任,此為意外事件或由強(qiáng)人工智能產(chǎn)品獨(dú)立承擔(dān)刑事責(zé)任。〔40〕劉憲權(quán):《人工智能時(shí)代的“內(nèi)憂”“外患”與刑事責(zé)任》,載《東方法學(xué)》2018年第1期。在民事領(lǐng)域,當(dāng)人工智能完全自主獨(dú)立為損害行為時(shí)承擔(dān)獨(dú)立責(zé)任,當(dāng)?shù)谌接幸庾R(shí)行為介入,與人工智能的行為共同作為損害的原因力時(shí),人工智能與第三方責(zé)任者承擔(dān)共同責(zé)任??偨Y(jié)來(lái)說(shuō),當(dāng)人工智能造成損害且無(wú)法關(guān)聯(lián)于其他人員時(shí),由人工智能作為法律主體承擔(dān)獨(dú)立責(zé)任;當(dāng)人工智能行為與其他人員行為相關(guān)聯(lián)并共同造成損害時(shí),由人工智能與相關(guān)責(zé)任主體承擔(dān)共同責(zé)任。

2.責(zé)任承擔(dān)方式

人工智能作為財(cái)產(chǎn)性法律主體,財(cái)產(chǎn)是其承擔(dān)法律責(zé)任的基礎(chǔ),必須為其建立獨(dú)立的財(cái)產(chǎn)制度。至少,Al系統(tǒng)必須能夠直接(作為一家公司)或間接(假設(shè)Al系統(tǒng)的許可方或被許可方代表Al系統(tǒng)行事)持有資產(chǎn)。除非原告能夠強(qiáng)制執(zhí)行一項(xiàng)成功的判決,以獲得對(duì)所遭受損失的補(bǔ)償,而且這種補(bǔ)償通常是經(jīng)濟(jì)上的,否則授予人工智能法律人格的目的就會(huì)自始落空?!?1〕See Iria Giuffrida, Liability for AI Decision-Making: Some Legal and Ethical Considerations, 88 FORDHAM L. REV. 439 (2019).在具體制度設(shè)計(jì)上,通過(guò)建立強(qiáng)制保險(xiǎn)制度,每個(gè)具有人工智能功能的機(jī)器都需要買保險(xiǎn),以形成潛在的資金池,便于支付賠償金。通過(guò)建立儲(chǔ)備基金系統(tǒng),人工智能作為一個(gè)整體會(huì)擁有一個(gè)獨(dú)立單一的資金池,以備在承擔(dān)賠償責(zé)任時(shí)使用?!?2〕前引〔33〕,[美]約翰·F.韋弗書(shū),第34頁(yè)。甚至可以考慮建立人工智能雇員薪資制度或者稅收制度,由相關(guān)主體對(duì)參與勞動(dòng)的人工智能支付報(bào)酬或繳納稅金,并將此報(bào)酬或稅金統(tǒng)一轉(zhuǎn)付到相應(yīng)的人工智能薪資稅收資金池。還有學(xué)者希望建立一種圖靈注冊(cè)認(rèn)證制度,讓人工智能進(jìn)行圖靈注冊(cè)認(rèn)證,由人工智能的開(kāi)發(fā)者根據(jù)其開(kāi)發(fā)的人工智能特性支付相應(yīng)的費(fèi)用,認(rèn)證機(jī)構(gòu)評(píng)測(cè)其風(fēng)險(xiǎn)性并插入唯一的加密認(rèn)證,人們只使用經(jīng)過(guò)認(rèn)證的人工智能,認(rèn)證的人工智能也只和其他認(rèn)證的人工智能溝通交流,當(dāng)出現(xiàn)損害涉及認(rèn)證的人工智能時(shí),不考慮因果和過(guò)錯(cuò),注冊(cè)機(jī)構(gòu)都將進(jìn)行賠償,圖靈注冊(cè)認(rèn)證制度提供了一種以技術(shù)應(yīng)對(duì)技術(shù)帶來(lái)的困境的可能性?!?3〕See Curtis E. A. Karnow, Liability for Distributed Artificial Intelligences, 11 BERKELY TECH. L.J. 147(1996).

在知識(shí)產(chǎn)權(quán)領(lǐng)域,對(duì)于能夠獨(dú)立進(jìn)行創(chuàng)作的人工智能,可以賦予其財(cái)產(chǎn)性作者地位,同時(shí)對(duì)其知識(shí)產(chǎn)權(quán)作一定的時(shí)間限制,以獲取知識(shí)產(chǎn)權(quán)財(cái)產(chǎn)收益擴(kuò)大人工智能賠償資金的來(lái)源。與此同時(shí)建立人工智能與特定法律主體共擔(dān)責(zé)任的制度,讓人工智能與其設(shè)計(jì)者、制造者、銷售者、使用者或者其他相關(guān)行為人等共擔(dān)責(zé)任。擁有了財(cái)產(chǎn)的人工智能便有了源頭活水,在人工智能違法犯罪產(chǎn)生損害時(shí),可以通過(guò)自己的財(cái)產(chǎn)承擔(dān)法律責(zé)任。另外,一旦機(jī)器人技術(shù)的設(shè)計(jì)、銷售或供應(yīng)被認(rèn)為是非法的,還可以采取以下措施:監(jiān)視和修改(“維護(hù)”),除去網(wǎng)絡(luò)空間中不連貫的成分,網(wǎng)絡(luò)空間消滅(無(wú)備份刪除)?!?4〕前引〔9〕,[意]烏戈·帕加羅書(shū),第40頁(yè)。在刑事犯罪領(lǐng)域,在財(cái)產(chǎn)賠償外,有學(xué)者認(rèn)為針對(duì)人工智能產(chǎn)品的犯罪,有必要在刑法中增設(shè)刪除數(shù)據(jù)、修改程序、永久銷毀等刑罰種類。〔45〕前引〔40〕,劉憲權(quán)文。此外,還可以通過(guò)算法公開(kāi)、審慎監(jiān)管等方式,讓算法決策系統(tǒng)反映我們作為一個(gè)社會(huì)所珍視的價(jià)值觀,〔46〕Deborah W. Denno & Ryan Surujnath 88 FORDHAM L. REV. 381 (2019).從源頭上避免人工智能責(zé)任的產(chǎn)生。

結(jié) 語(yǔ)

人工智能的發(fā)展讓人們產(chǎn)生了主體性憂思,哲學(xué)上側(cè)重于從主客觀二分的角度理解主體性,核心是自由意志和主觀能動(dòng)性,法學(xué)的主體性以哲學(xué)的主體性為基礎(chǔ),以意志自由為核心建構(gòu)法律主體制度的框架,同時(shí)兼顧法律資格和主體功能的考量。人工智能的主體地位問(wèn)題產(chǎn)生于其類人智能的根本屬性,加之其在社會(huì)生活中的作用以及對(duì)既有倫理的可能沖擊,使得承認(rèn)人工智能的主體地位既有理論的依據(jù)更兼具現(xiàn)實(shí)的意義。然而人工智能的發(fā)展存在一個(gè)漸進(jìn)的過(guò)程,在完全具有自由意志的超人工智能產(chǎn)生之前,承認(rèn)人工智能的法律主體地位應(yīng)當(dāng)保持謹(jǐn)慎的態(tài)度,對(duì)于弱人工智能應(yīng)當(dāng)作為法律客體更加合適,強(qiáng)人工智能法律主體建構(gòu)應(yīng)以解決現(xiàn)實(shí)中出現(xiàn)的責(zé)任問(wèn)題為依歸。就當(dāng)下而言,所謂人工智能主體問(wèn)題可以轉(zhuǎn)化為人工智能的法律責(zé)任承擔(dān)問(wèn)題,而這種責(zé)任主要是財(cái)產(chǎn)性責(zé)任,只要為人工智能建構(gòu)獨(dú)立的財(cái)產(chǎn)制度,承認(rèn)其特殊的財(cái)產(chǎn)性法律主體地位,這些問(wèn)題便可迎刃而解。

猜你喜歡
法律責(zé)任主體責(zé)任
論碳審計(jì)主體
論自然人破產(chǎn)法的適用主體
性騷擾的用人單位法律責(zé)任研究
使命在心 責(zé)任在肩
何謂“主體間性”
每個(gè)人都該承擔(dān)起自己的責(zé)任
略論意象間的主體構(gòu)架
沒(méi)有規(guī)矩,不成方圓
——論教育法律責(zé)任對(duì)當(dāng)代高校教育的重要意義
期望囑托責(zé)任
忠誠(chéng) 責(zé)任 關(guān)愛(ài) 奉獻(xiàn)
剑川县| 横峰县| 乌兰县| 宁晋县| 库尔勒市| 临高县| 霍邱县| 泾川县| 贵港市| 高雄市| 醴陵市| 库车县| 英超| 晋城| 藁城市| 榆社县| 庄河市| 余姚市| 平阳县| 兰溪市| 台安县| 巴林左旗| 交口县| 拉孜县| 平顶山市| 舟山市| 武威市| 潜江市| 宁海县| 柯坪县| 信丰县| 黔东| 建水县| 杭州市| 巴南区| 高碑店市| 成武县| 罗山县| 遂溪县| 高唐县| 呼和浩特市|