国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能的刑法主體地位反思
——自我意思決定、平等主義與刑法技術(shù)措施

2019-02-19 06:29:53
關(guān)鍵詞:刑罰刑法主體

袁 彬

一、問題的緣起

作為現(xiàn)代科技的集大成者,人工智能近年來(lái)取得了快速的發(fā)展。2015年,一系列旨在測(cè)試世界上最好的人工智能(AI)系統(tǒng)和人類智商(IQ)之間的勝負(fù)關(guān)系的試驗(yàn)表明,人工智能的智力目前已經(jīng)達(dá)到了4歲兒童的水平。①參見《目前人工智能的水平相當(dāng)于4歲兒童》,https://www.qianzhan.com,前瞻網(wǎng),2018年10月10日訪問。2016年Google公司的智能機(jī)器人——阿爾法狗(Alpha Go)與圍棋世界冠軍柯潔的對(duì)決(4:1),讓人們見識(shí)了智能機(jī)器人縝密的思維能力。而令人更為震驚的是,2017年Google公司推出的AlphaGo升級(jí)版AlphaGo Zero能夠從零開始,自主學(xué)習(xí),并用40天時(shí)間完虐打敗了柯潔的AlphaGo。②參見開明:《從零開始,全憑自學(xué),它用40天完虐AlphaGo!》,https://www.guokr.com/article/442444/,果殼網(wǎng),2018年2月10日訪問。與此同時(shí),以人工智能技術(shù)為基礎(chǔ)的汽車自動(dòng)駕駛技術(shù)也取得了快速發(fā)展,并將在可預(yù)見的未來(lái)代替人工駕駛。2017年,國(guó)務(wù)院發(fā)布了《新一代人工智能發(fā)展規(guī)劃》,不僅將人工智能的發(fā)展提高到了戰(zhàn)略發(fā)展的高度,而且對(duì)人工智能的發(fā)展做了詳細(xì)規(guī)劃和布局,并提出要“明確人工智能法律主體以及相關(guān)權(quán)利、義務(wù)和責(zé)任”。從刑法的角度看,隨著人工智能的技術(shù)提升和運(yùn)用推廣,涉人工智能的犯罪將不斷呈現(xiàn),并主要體現(xiàn)為3類:一是人工智能因研發(fā)、設(shè)計(jì)存在技術(shù)缺陷而引發(fā)的犯罪,如將技術(shù)不成熟、存在設(shè)計(jì)缺陷的人工智能投入使用而導(dǎo)致了他人人身、財(cái)產(chǎn)損害等;二是人工智能被他人作為工具使用而實(shí)施的犯罪,如利用人工智能竊取電子數(shù)據(jù)、財(cái)物等;三是人工智能獨(dú)立實(shí)施的犯罪。按照我國(guó)現(xiàn)行刑法規(guī)定,對(duì)前2類犯罪可追究人工智能背后的自然人或者單位的刑事責(zé)任,實(shí)現(xiàn)刑法的秩序維護(hù)功能;但對(duì)于第3類犯罪,因?yàn)槿斯ぶ悄鼙旧矸显O(shè)計(jì)規(guī)范且人工智能實(shí)施的行為獨(dú)立于其背后的自然人或者單位,因此,按照現(xiàn)代刑法責(zé)任主義原理無(wú)法追究人工智能背后的自然人或者單位的刑事責(zé)任,刑事責(zé)任面臨落空的危險(xiǎn)。①當(dāng)然,從民事責(zé)任承擔(dān)的角度看,對(duì)于人工智能獨(dú)立實(shí)施的行為,不排除可以追究其背后自然人或者單位的民事賠償責(zé)任。這就引發(fā)一個(gè)問題,在人工智能技術(shù)足夠先進(jìn)、成熟的人工智能時(shí)代,具有自主意識(shí)的人工智能能否成為刑法上的獨(dú)立主體并對(duì)其危害社會(huì)的行為承擔(dān)獨(dú)立的刑事責(zé)任?對(duì)此,我國(guó)刑法理論上存在2種截然對(duì)立的觀點(diǎn):一是否定論。這是當(dāng)前多數(shù)論者的觀點(diǎn),認(rèn)為人工智能不能成為刑法上的主體。其基本理由是:自主意識(shí)不等于意志自由,人工智能不具有獨(dú)立的意志自由,欠缺法規(guī)范遵從能力的意志性,即使客觀上造成法益侵害后果,同樣不具有刑法上的可歸責(zé)性②參見時(shí)方:《人工智能刑事主體地位之否定》,《法律科學(xué)》2018年第4期。;具有“辨認(rèn)能力和控制能力”的不止是人類,如家養(yǎng)和野生動(dòng)物雖有以上能力,但都不是犯罪主體。③參見皮勇:《人工智能刑事法治的基本問題》,《比較法研究》2018年第5期。人工智能所實(shí)際具有的辨認(rèn)和控制能力離刑事責(zé)任能力的要求相去甚遠(yuǎn),懲罰人工智能既不能實(shí)現(xiàn)刑罰的特殊預(yù)防目的,也無(wú)法實(shí)現(xiàn)其一般預(yù)防目的。④參見陰建峰、劉雪丹:《人工智能犯罪主體地位之否定》,載趙秉志、陳澤憲、陳忠林主編:《改革開放新時(shí)代刑事法治熱點(diǎn)聚焦》,中國(guó)人民公安大學(xué)出版社2018年版,第765頁(yè)。二是肯定論。這是當(dāng)前少數(shù)論者的觀點(diǎn),認(rèn)為人工智能可以成為刑法上的主體。其基本理由是:在設(shè)計(jì)和編制的程序范圍外實(shí)施行為時(shí),智能機(jī)器人的行為實(shí)現(xiàn)的是自主意志而非他人意志,因而可以成為刑事責(zé)任主體。⑤參見劉憲權(quán)、胡荷佳:《論人工智能時(shí)代智能機(jī)器人的刑事責(zé)任能力》,《法學(xué)》2018年第1期。在人工智能時(shí)代,智能機(jī)器人有可能具有辨認(rèn)能力和控制能力。⑥參見劉憲權(quán):《人工智能時(shí)代我國(guó)刑罰體系重構(gòu)的法理基礎(chǔ)》,《法律科學(xué)》2018年第3期。

上述爭(zhēng)論,不僅涉及人工智能的刑法主體地位問題,更涉及對(duì)刑法上主體基本問題的認(rèn)識(shí)。換言之,在我們通常闡述的辨認(rèn)能力和控制能力(刑事責(zé)任能力)、意志自由(刑事責(zé)任的哲學(xué)根據(jù))、特殊預(yù)防和一般預(yù)防(刑罰目的)等領(lǐng)域,什么才是作為刑法主體的根據(jù)或者本質(zhì)?這個(gè)問題不僅是人工智能能否成為刑法主體所需要解決的問題,而且也是未來(lái)其他智能生物或者機(jī)器等更多類型主體能否成為刑法上的主體所需要解決的問題,同時(shí)也關(guān)系到刑法主體的自我定位。筆者認(rèn)為,該問題的解決關(guān)系到3個(gè)方面:一是事實(shí)問題,即人工智能的自主意識(shí)及其程度,即這些智能生物或機(jī)器是否具有自主意識(shí)以及其自主意識(shí)能否達(dá)到刑法所要求的程度;二是政策問題,即人類能否放棄人類中心主義的立場(chǎng),將這些智能生物或機(jī)器視為與人類平等的存在;三是技術(shù)問題,即對(duì)這些智能生物或機(jī)器的處置措施是否具有技術(shù)上的可分割性,能否針對(duì)人工智能的自主意識(shí)進(jìn)行設(shè)置并對(duì)這些處置措施作不同法律意義上的區(qū)分。筆者認(rèn)為,技術(shù)問題是解決人工智能法律問題的關(guān)鍵所在。這是因?yàn)?,技術(shù)問題不僅決定其能否區(qū)分刑事責(zé)任與其他法律責(zé)任,而且決定其能否影響人工智能的自我意思決定以及能否實(shí)現(xiàn)人工智能與人類的平等。

美國(guó)心理學(xué)家馬斯洛將人的需求分成生理需求、安全需求、愛和歸屬感、尊重和自我實(shí)現(xiàn)5類,依次由較低層次到較高層次排列。⑦參見楊英法:《馬斯洛需要層次論的不足及其完善》,《哈爾濱師范大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2015年第5期。刑法制裁措施的設(shè)計(jì)主要是針對(duì)人的需求進(jìn)行的,生命刑、自由刑、財(cái)產(chǎn)刑和資格刑分別針對(duì)不同層次的人類需求。一般而言,刑法制裁措施針對(duì)的人類需求層次越低,其制裁嚴(yán)厲性越高;反之,刑法制裁措施針對(duì)的人類需求層次越高,其制裁的嚴(yán)厲性越低。與人類不同,人工智能沒有人類的需求,這決定了傳統(tǒng)的刑法制裁措施對(duì)人工智能是無(wú)效的。在此基礎(chǔ)上,有學(xué)者提出應(yīng)當(dāng)以人工智能為視角對(duì)我國(guó)刑罰體系進(jìn)行重構(gòu),建議在刑法中針對(duì)智能機(jī)器人增設(shè)刪除數(shù)據(jù)、修改程序、永久銷毀等刑罰處罰方式。另外,如果將來(lái)相關(guān)法律賦予智能機(jī)器人財(cái)產(chǎn)權(quán)或者政治權(quán)利,也可以對(duì)智能機(jī)器人單處或并處財(cái)產(chǎn)刑或者權(quán)利刑。①參見劉憲權(quán):《人工智能時(shí)代我國(guó)刑罰體系重構(gòu)的法理基礎(chǔ)》,《法律科學(xué)》2018年第3期。但與人類不同,財(cái)產(chǎn)權(quán)、政治權(quán)利并非人工智能的天然權(quán)利(需要法律賦予其這些權(quán)利后再剝奪),也與人工智能的需求無(wú)關(guān),因此,這些權(quán)利不具備作為刑罰剝奪對(duì)象的基礎(chǔ),只有刪除數(shù)據(jù)、修改程序、永久銷毀等技術(shù)措施才是人工智能的專有處理措施,也是人工智能有朝一日成為刑法主體后承擔(dān)刑事責(zé)任的基本方式。

二、自我意思決定:刑法技術(shù)措施與人工智能的主觀構(gòu)造偏離

關(guān)于人工智能的發(fā)展,科技界一般根據(jù)人工智能與人類智能的對(duì)比差異,將人工智能分為弱人工智能和強(qiáng)人工智能。刑法理論上探討的人工智能則主要集中在強(qiáng)人工智能,這類人工智能是達(dá)到人類水平的、能夠自主地應(yīng)對(duì)外界環(huán)境挑戰(zhàn)的、具有自我意識(shí)的人工智能,又可稱為“通用人工智能”“類人智能”等,其本質(zhì)在于智能機(jī)器人處理不同事務(wù)時(shí)擁有進(jìn)行自主思考的能力,具有作為獨(dú)立主體的自我意識(shí)與身份認(rèn)同。②參見時(shí)方:《人工智能刑事主體地位之否定》,《法律科學(xué)》2018年第4期。論者們主要從與人類類比的角度分析強(qiáng)人工智能能否具備刑法上的主體資格,各方爭(zhēng)論的焦點(diǎn)是強(qiáng)人工智能的“自主意識(shí)”能否成為人工智能具有刑法主體地位的依據(jù)。③肯定論者認(rèn)為,人工智能的自主意識(shí)具備刑法上的辨認(rèn)和控制能力,具備成為刑法主體的基礎(chǔ);否定論者認(rèn)為,人工智能的自主意識(shí)與刑法上的意志自由存在較大差異,也與刑事責(zé)任能力的辨認(rèn)能力、控制能力存在明顯差異,不能因此賦予人工智能刑法主體地位。因此,要解決人工智能的刑法主體地位問題,首先必須解決人工智能的自主意識(shí)及其在刑法上的價(jià)值。

(一)“自主意識(shí)”的刑法意蘊(yùn)及其價(jià)值

人工智能的“自主意識(shí)”是人工智能處理不同事務(wù)時(shí)擁有的進(jìn)行自主思考的能力,具有作為獨(dú)立主體的自我意識(shí)與身份認(rèn)同。這種“意識(shí)”的獨(dú)立性是相對(duì)于人工智能的設(shè)計(jì)和編制的程序而言的,這就涉及“自主意識(shí)”在刑法上的意蘊(yùn)問題。對(duì)此,可以從以下3個(gè)方面進(jìn)行理解:

第一,“自主意識(shí)”是刑法的重要基礎(chǔ)?!白灾饕庾R(shí)”在刑法上可與4個(gè)方面的因素相關(guān)聯(lián)。這包括:一是刑事責(zé)任能力,即行為人辨認(rèn)、控制自己行為的能力?!白灾饕庾R(shí)”可視為刑事責(zé)任能力的基礎(chǔ),沒有“自主意識(shí)”的人或者人工智能,必然沒有辨認(rèn)和控制能力,因而不具有刑事責(zé)任能力。二是主觀罪過,即故意和過失。主觀罪過要求行為人的認(rèn)識(shí)、意志參與,包括能否認(rèn)識(shí)到自己行為的社會(huì)危害性和能否用意志控制自己行為的實(shí)施?!白灾饕庾R(shí)”是主觀罪過的認(rèn)識(shí)因素和意志因素的基礎(chǔ),無(wú)自主意識(shí)則無(wú)主觀罪過。三是刑事責(zé)任的根據(jù)?,F(xiàn)代刑法理論上一般認(rèn)為,相對(duì)的意志自由是行為人對(duì)自己實(shí)施的犯罪行為負(fù)刑事責(zé)任的哲學(xué)根據(jù)。對(duì)于這一點(diǎn),道義責(zé)任論、社會(huì)責(zé)任論和規(guī)范責(zé)任論基本都認(rèn)可,“自主意識(shí)”是相對(duì)意志自由的基礎(chǔ)。四是刑罰的目的。國(guó)內(nèi)外刑法理論上大多將“報(bào)應(yīng)”“預(yù)防”作為刑罰的目的,其中預(yù)防包括一般預(yù)防和特殊預(yù)防。不過,無(wú)論是報(bào)應(yīng)、一般預(yù)防還是特殊預(yù)防,其背后的基本邏輯都是犯罪人或者社會(huì)上的一般人會(huì)根據(jù)刑罰處罰調(diào)整自己的行為,以使其未來(lái)會(huì)采取合法行動(dòng)。在這個(gè)前提下,“自主意識(shí)”是基礎(chǔ)。

第二,“自主意識(shí)”不是刑法的唯一基礎(chǔ)?!白灾饕庾R(shí)”是刑法的重要基礎(chǔ),但在刑法上,沒有“自主意識(shí)”是不是就不能成為刑法的主體呢?對(duì)此,我們需要考察刑法自身的定位。更進(jìn)一步地講,這涉及刑法上的刑罰與保安處分二元主義。刑罰與保安處分的二元主義立足于人的行為危害性和社會(huì)危險(xiǎn)性,認(rèn)為刑罰與保安處分是刑法上的兩種不同存在但可以共存互補(bǔ)。保安處分可以適用于刑罰無(wú)法適用的犯人,按照二元主義,刑法上的犯人包括“心神狀況完全正常的偶發(fā)犯”“神志清楚的常態(tài)犯”和“心神喪失犯”。其中,“心神喪失犯”是因精神障礙,對(duì)外部事物全然缺乏知覺、理會(huì)和判斷能力的人。這類人的行為具備刑事違法性但不具有刑事責(zé)任能力。①參見胡橋:《20世紀(jì)西方刑事法律的基本價(jià)值取向》,《外國(guó)法制史研究》2006年第3期。按照刑罰與保安處分的二元主義立場(chǎng),不具有“自主意識(shí)”的“心神喪失犯”也是刑法的主體和規(guī)制的對(duì)象。“自主意識(shí)”不是刑法的唯一基礎(chǔ),沒有“自主意識(shí)”但具有社會(huì)危險(xiǎn)性的人,也可以成為刑法上的主體。

第三,“自主意識(shí)”只是為他人具備刑法主體地位提供可能。“自主意識(shí)”既是一種能力,也是一種狀態(tài):作為一種能力,“自主意識(shí)”賦予了人工智能接受外界信息并作出自主反應(yīng)、啟動(dòng)并控制自己行為的可能性;作為一種狀態(tài),“自主意識(shí)”能讓人工智能實(shí)際地接受外界信息,然后進(jìn)行加工并作出決策,進(jìn)行反應(yīng)。也正因?yàn)槿绱?,現(xiàn)代刑法理論上的刑事責(zé)任能力、罪過、意志自由和預(yù)防目的主要都是建立在“自主意識(shí)”基礎(chǔ)之上,沒有“自主意識(shí)”就不可能具有或者符合刑法意義上的刑事責(zé)任能力、罪過、意志自由和預(yù)防目的。強(qiáng)人工智能的這種“自主意識(shí)”為人工智能成為刑法上的主體提供了一種可能性,但刑法上的刑事責(zé)任能力、罪過、意志自由和預(yù)防目的畢竟不等同于“自主意識(shí)”,不是有“自主意識(shí)”就一定具備刑法上的刑事責(zé)任能力、罪過、意志自由和預(yù)防目的。對(duì)于刑法主體,更重要的是刑法上的自我意思決定能力,即在充分認(rèn)識(shí)個(gè)人需要和環(huán)境信息的基礎(chǔ)上,個(gè)體對(duì)自己的行動(dòng)做出自由選擇的能力。這是一種更高層次、更高水平的自主意識(shí)形態(tài),因此,自主意識(shí)只是為人工智能具備刑法主體身份提供了一種可能性。

(二)“自主意識(shí)”并非人工智能具備刑法主體地位的決定性因素

弱人工智能與強(qiáng)人工智能的根本差異在于其是否具有“自主意識(shí)”。一般認(rèn)為,弱人工智能沒有自主意識(shí),但強(qiáng)人工智能具有自主意識(shí)。贊成者認(rèn)為,強(qiáng)人工智能的自主意識(shí)可使其成為刑法上的行為主體?!爸悄軝C(jī)器人與普通機(jī)器人的差異在于其可能超越人類設(shè)計(jì)和編制的程序產(chǎn)生獨(dú)立的意識(shí)和意志。其按照自主的意識(shí)和意志實(shí)施犯罪行為,因而完全可能成為行為主體而承擔(dān)刑事責(zé)任?!雹趧棛?quán)、胡荷佳:《論人工智能時(shí)代智能機(jī)器人的刑事責(zé)任能力》,《法學(xué)》2018年第1期。但“自主意識(shí)”能否成為人工智能具有刑法主體地位的根據(jù)呢?筆者認(rèn)為,答案是否定的。這是因?yàn)椋?/p>

第一,刑法對(duì)“自主意識(shí)”的程度要求決定了人工智能難以因?yàn)槠溆凶灾饕庾R(shí)而成為刑法上的行為主體。正如德國(guó)刑法學(xué)者所言,刑法對(duì)于行為主體的責(zé)難,應(yīng)當(dāng)以其具有自由且能正確地在合法和非法之間作出決定的能力為基礎(chǔ),如此才具有意義。③參見[德]托馬斯·希倫坎普:《沒有意志自由的刑法?——一個(gè)對(duì)腦科學(xué)研究的回答》,劉家汝譯,載趙秉志主編:《刑法論叢》(第3卷),法律出版社2011年版,第245頁(yè)。換言之,刑法上的“自主意識(shí)”在內(nèi)容和強(qiáng)度上有著特殊的要求:一方面,在內(nèi)容上,刑法上的“自主意識(shí)”要求行為人能在合法和非法之間作出決定,這要求人工智能在“自主意識(shí)”的內(nèi)容上具有自主地遵守法規(guī)范的意識(shí)。而現(xiàn)代社會(huì)的法規(guī)范大都是建立在習(xí)慣、道德等自然法基礎(chǔ)之上,這給人工智能的“法規(guī)范意識(shí)”提出了很高的要求,并非只要有“自主意識(shí)”就能實(shí)現(xiàn)。另一方面,在強(qiáng)度上,刑法上的“自主意識(shí)”要求“自由而正確地”作出決定,即能夠做出正確的自我意思決定。人工智能的“自主意識(shí)”雖然能在一定程度上獨(dú)立于“人類設(shè)計(jì)和編制的程序”,但是否能達(dá)到完全脫離程序設(shè)計(jì)者的自由狀態(tài)并且正確作出決定,顯然是存疑的,且目前無(wú)法做到,未來(lái)也不一定能做到。

第二,刑法“自主意識(shí)”的推定性決定了人工智能的“自主意識(shí)”不是其成為刑法主體的條件。按照現(xiàn)代刑法理念,一個(gè)人在刑法上是否具有自主意識(shí)不僅是一個(gè)事實(shí)問題,更是一個(gè)規(guī)范問題。以最低刑事責(zé)任年齡為例,我國(guó)刑法規(guī)定的最低刑事責(zé)任年齡是14周歲。不滿14周歲的人被認(rèn)為不具有刑法上的辨認(rèn)能力和控制能力,包括不具有刑法上的“自我意思決定能力”。但在許多國(guó)家,最低刑事責(zé)任年齡被規(guī)定為10周歲、7周歲甚至更低,同是現(xiàn)代社會(huì)中的“人”,為什么最低刑事責(zé)任年齡的標(biāo)準(zhǔn)會(huì)在刑法上存在這么大的差異,其根本在于刑法上的“自主意識(shí)”及其程度是一個(gè)法規(guī)范概念,其對(duì)“自主意識(shí)”的事實(shí)狀態(tài)是推定性的。刑法立法者認(rèn)為某個(gè)年齡段的人具有“自主意識(shí)”即可讓其成為行為主體,即便其“自主意識(shí)”在客觀上并未達(dá)到通常所要求的程度。對(duì)于人工智能而言,人工智能所具有的“自主意識(shí)”能否得到刑法上的認(rèn)可,這與其是否具有“自主意識(shí)”相關(guān),但并不具有必然聯(lián)系。因?yàn)樾谭ㄍ耆赡芑诜烧叩脑?,?guī)定無(wú)論具有何種程度的自主意識(shí)的人工智能均不能成為刑法上的主體,或者相反。

第三,刑法“自主意識(shí)”的功能性決定了人工智能的“自主意識(shí)”不是其成為刑法主體的條件?,F(xiàn)代刑法的歷史雖然短暫,但線條并不單一。關(guān)于行為刑法與行為人刑法的歷史爭(zhēng)議在當(dāng)代并沒有停息。通過《刑法修正案(八)》《刑法修正案(九)》的立法,我國(guó)刑法正逐步強(qiáng)化行為人刑法的色彩和因素,社區(qū)矯正、禁止令、職業(yè)禁止、終身監(jiān)禁等帶有相當(dāng)強(qiáng)的保安處分性質(zhì)的措施不斷涌入立法,可以想見,行為刑法雖然仍是我國(guó)刑法立法和司法的主導(dǎo),但以危險(xiǎn)性為主要依據(jù)的保安處分措施必然會(huì)進(jìn)一步增加。其對(duì)刑法上的行為主體的直接影響是淡化“自主意識(shí)”“意志自由”,強(qiáng)調(diào)“危險(xiǎn)性”。這意味著,對(duì)于人工智能而言,其是否具有“自主意識(shí)”并不是其能否成為刑法主體的決定性條件,而是需要綜合考慮立法的取向和價(jià)值選擇。

第四,人工智能“自主意識(shí)”的人類意識(shí)延伸性與變異性決定了人工智能的“自主意識(shí)”不是其成為刑法主體的條件。這主要涉及2個(gè)方面:一是人工智能“自主意識(shí)”具有人類意識(shí)延伸性特點(diǎn)。強(qiáng)人工智能的“自主意識(shí)”看起來(lái)獨(dú)立于“人類”,但實(shí)際上并非如此。人工智能的“自主意識(shí)”依賴于人類的設(shè)計(jì)和編制的程序,這些“人類的設(shè)計(jì)和編制的程序”體現(xiàn)的是人類意識(shí),包括人類的思維、經(jīng)驗(yàn)、道德、文化等意識(shí)內(nèi)容。人工智能在“人類意識(shí)”之上產(chǎn)生的“自主意識(shí)”是人類意識(shí)的延伸。在這個(gè)意義上,人工智能的設(shè)計(jì)者對(duì)人工智能的行為及其后果應(yīng)該是有預(yù)見性的。刑法如對(duì)“犯錯(cuò)”的人工智能進(jìn)行懲治,如刪除數(shù)據(jù)、修改程序等,調(diào)整的到底是人工智能的“行為”,還是人工智能設(shè)計(jì)者的“行為”,顯然也是存在疑問的。二是人工智能“自主意識(shí)”的人類意識(shí)變異性。如前所述,人工智能的“自主意識(shí)”是建立在人類的意識(shí)之上,是人類意識(shí)的延伸。但人工智能的“自主意識(shí)”也可以出現(xiàn)變異,變成完全不同于人類意識(shí)的“自主意識(shí)”。在人工智能領(lǐng)域,一般認(rèn)為強(qiáng)人工智能包括2種類型,即“類人的人工智能”(即機(jī)器的思考和推理就像人的思維一樣)和“非類人的人工智能”(即機(jī)器產(chǎn)生了和人完全不一樣的知覺和意識(shí),使用和人完全不一樣的推理方式)。“類人的人工智能”所產(chǎn)生的“自主意識(shí)”與人類意識(shí)具有相通性,但“非類人的人工智能”的“自主意識(shí)”則完全不是按照人類的思維方式進(jìn)行推理。將這類人工智能作為刑法主體,要求其按照人類的思維方式調(diào)整自己的行為,顯然是無(wú)法實(shí)現(xiàn)的。

(三)刑法技術(shù)措施與人工智能“自主意識(shí)”的偏離

人工智能“自主意識(shí)”的發(fā)展結(jié)果是自我意思決定能力,對(duì)于刑法而言,自我意思決定要求行為人將自身的需求與行為的后果進(jìn)行聯(lián)結(jié),即行為人能夠?qū)⑿袨樗赡苊媾R的法律后果納入自我意思決定之中,進(jìn)而作出抑制自我需求并實(shí)施符合法律要求的行為。不過,作為人工智能獨(dú)立承擔(dān)刑事責(zé)任的形式,刪除數(shù)據(jù)、修改程序、永久銷毀等技術(shù)措施與人工智能的“自主意識(shí)”并不具有對(duì)應(yīng)性。這主要體現(xiàn)在:

第一,刑法技術(shù)措施與人工智能的需求無(wú)關(guān)。如前所述,人工智能不具有人類的基本需求,沒有生理、安全等低層次的需求,也沒有自我實(shí)現(xiàn)等高層次需求。而且,在可以想見的未來(lái),人工智能是否會(huì)產(chǎn)生某種需求仍不可知。而無(wú)論人工智能未來(lái)是否會(huì)產(chǎn)生某種需求,刪除數(shù)據(jù)、修改程序、永久銷毀等技術(shù)措施都難以與人工智能的需求建立起直接聯(lián)系。這是因?yàn)椋斯ぶ悄苁峭ㄟ^技術(shù)方式設(shè)計(jì)、制造出來(lái)的,通過技術(shù)方式對(duì)人工智能進(jìn)行行為矯正乃至銷毀,仍可歸結(jié)為人工智能的設(shè)計(jì)領(lǐng)域,無(wú)法與人工智能的需求建立聯(lián)系。不過,人工智能的自我意思決定是建立在人工智能的特定需求之上,這意味著,刪除數(shù)據(jù)、修改程序、永久銷毀等技術(shù)措施難以介入人工智能的自我意思決定,進(jìn)而表明其與人工智能的“自主意識(shí)”不具有對(duì)應(yīng)關(guān)系。

第二,刑法技術(shù)措施與人工智能的決策無(wú)關(guān)?,F(xiàn)代刑罰之所以能對(duì)人的行為產(chǎn)生影響、能夠影響人的自我意思決定,是因?yàn)樾塘P的嚴(yán)重后果具有對(duì)人的威嚇性,人們懼怕刑罰的后果進(jìn)而會(huì)通過調(diào)整自己的行為避免刑罰后果的出現(xiàn)。但是,對(duì)于人工智能而言,刪除數(shù)據(jù)、修改程序、永久銷毀等技術(shù)措施很難對(duì)具有“自主意識(shí)”的人工智能產(chǎn)生威嚇作用。這是因?yàn)?,一方面,人工智能的永久銷毀是一個(gè)相對(duì)的概念,其銷毀的通常是人工智能的物理載體,作為人工智能核心的內(nèi)核可能通過技術(shù)革新轉(zhuǎn)移到其他物理載體上,這可能導(dǎo)致其形式上是一個(gè)新的人工智能,但實(shí)質(zhì)上仍是原有人工智能的延續(xù)。因此,真正的人工智能只有技術(shù)淘汰問題,而無(wú)真正的銷毀問題。另一方面,刪除數(shù)據(jù)、修改程序?qū)θ斯ぶ悄懿痪哂型樞?,它是人工智能的技術(shù)要求,如同人類看病一樣,不會(huì)對(duì)人工智能形成威嚇,進(jìn)而無(wú)法參與到人工智能的決策之中。

第三,刑法技術(shù)措施與人工智能的自主意識(shí)無(wú)關(guān)。針對(duì)人工智能的刪除數(shù)據(jù)、修改程序、永久銷毀等技術(shù)措施客觀上能夠調(diào)整人工智能的“自主意識(shí)”,以防止其作出不適格的行為。但這些技術(shù)措施并不以人工智能的“自主意識(shí)”為中介,即它不是通過刑法立法規(guī)定的刪除數(shù)據(jù)、修改程序、永久銷毀等技術(shù)措施讓人工智能運(yùn)用“自主意識(shí)”進(jìn)行自我調(diào)整,不會(huì)形成以這些技術(shù)措施迫使人工智能進(jìn)行自我行為調(diào)整的格局和結(jié)果。刑法技術(shù)措施對(duì)人工智能“自主意識(shí)”的調(diào)整是直接的、簡(jiǎn)單的、粗暴的,具有明顯的物理屬性,不需要人工智能“自主意識(shí)”的參與。從這個(gè)角度看,刑法技術(shù)措施與人工智能的自主意識(shí)并無(wú)直接關(guān)系。

可見,刪除數(shù)據(jù)、修改程序、永久銷毀等技術(shù)措施與人工智能的“自我意識(shí)”之間存在一種疏離關(guān)系,這表明,人工智能能否成為刑法上的獨(dú)立主體,決定性因素不在于人工智能是否具有自主意識(shí)(自主意識(shí)只是前提和基礎(chǔ)),而在于刑法針對(duì)人工智能的技術(shù)措施能否讓人工智能發(fā)揮其自主意識(shí)進(jìn)行自我的行為調(diào)整。但目前來(lái)看,人工智能是否能做到這一點(diǎn)仍然是無(wú)法預(yù)見的。

三、平等主義:刑法技術(shù)措施與人工智能的行為限制

在人類與動(dòng)物的關(guān)系上,刑法理論界一直以來(lái)都存在人類中心主義與非人類中心主義之爭(zhēng)。其中,非人類中心主義也即平等主義,倡導(dǎo)動(dòng)物與人類享有平等的權(quán)利、處于平等地位,人類中心主義與非人類中心主義(平等主義)分歧的焦點(diǎn)在于刑法的制度設(shè)計(jì)是否以人類的利益作為思考的中心并以此調(diào)整人與自然等方面的關(guān)系。人類中心主義認(rèn)為:“在人與自然的關(guān)系中,人是主體,自然是客體,一切應(yīng)當(dāng)以人類的利益為中心和尺度,應(yīng)當(dāng)貫徹人是目的的思想?!雹儆嘀\昌:《走出人類中心主義》,《自然辯證法研究》1994年第7期。非人類中心主義則強(qiáng)調(diào)動(dòng)物與人具有平等的地位、平等地享有權(quán)利承擔(dān)義務(wù)。②參見孟偉:《環(huán)境刑法的倫理基礎(chǔ)》,《法商研究》2004年第6期。人類中心主義與非人類中心主義之爭(zhēng)可延伸到人類與人工智能的關(guān)系上,其分歧將主要體現(xiàn)為人工智能與人類是否擁有平等的權(quán)利,能否作為與人類平等的權(quán)利主體,而這將影響到人工智能能否具有獨(dú)立的刑法地位。

(一)平等主義是人工智能的“人化”關(guān)鍵

從含義上看,人工智能的“智能”核心是認(rèn)知決策能力,這決定了人工智能的技術(shù)屬性。由于人工智能的設(shè)計(jì)和程序編制是由人類掌握,因此人工智能的“人工”使得其在本質(zhì)上具有“物化”的屬性,被普遍認(rèn)為是人類的工具。人工智能要成為刑法主體,意味著其必須“人化”。對(duì)此,在人工智能與人類關(guān)系上堅(jiān)持“平等主義”就十分關(guān)鍵。這具體體現(xiàn)在:

第一,法律評(píng)價(jià)的平等性是人工智能具有獨(dú)立刑法地位的基本前提。按照平等主義的視角,在人工智能與人類的關(guān)系上不是以人類的利益為核心,人工智能具有獨(dú)立于人類的平等利益,是獨(dú)立的法律主體。不過,從刑法的角度看,刑法賦予人工智能獨(dú)立的主體地位,即意味著人工智能與人類在刑法上是平等的。這涉及法律評(píng)價(jià)的2個(gè)方面:一是人工智能與人類在犯罪的認(rèn)定上平等。人工智能實(shí)施了與人類相同或者相似的違法行為,如竊取了他人的個(gè)人信息、故意或者過失地導(dǎo)致他人死亡,都應(yīng)當(dāng)被認(rèn)定為犯罪。當(dāng)然,這并不意味著人工智能在犯罪的類型上與人類完全一致,兩者的犯罪類型可以有所區(qū)別,但它們?cè)诜缮鲜艿降姆穸ㄔu(píng)價(jià)應(yīng)當(dāng)是一致的。二是人工智能與人類在責(zé)任的追究上平等。人工智能與人類的平等要求其在實(shí)施了違法犯罪行為后都應(yīng)當(dāng)受到責(zé)任的追究,當(dāng)然,兩者在責(zé)任的實(shí)現(xiàn)方式上可能完全不同。而無(wú)論是犯罪認(rèn)定上的平等還是責(zé)任追究上的平等,都意味著我們要將人工智能當(dāng)人看待,人工智能與人類在法律價(jià)值上具有平等性。

第二,權(quán)利義務(wù)的對(duì)等性是人工智能具有獨(dú)立刑法地位的必要內(nèi)容。將人工智能確立為刑法主體后,人工智能將對(duì)其實(shí)施的犯罪行為獨(dú)立承擔(dān)刑事責(zé)任,其中特別是不能實(shí)施針對(duì)人類權(quán)益的犯罪。但權(quán)利義務(wù)的對(duì)等性原理決定了,人類也不能針對(duì)人工智能實(shí)施犯罪。例如,刑法禁止人工智能傷害人類,那么刑法反過來(lái)也應(yīng)該禁止人類傷害人工智能,這是權(quán)利義務(wù)對(duì)等性的要求。否則,人工智能在犯罪和責(zé)任上與人類一樣是刑法上的平等主體,但在保護(hù)對(duì)象上卻處于與人類不同的地位,則必然違反現(xiàn)代刑法的基本原理。從這個(gè)角度看,人工智能要具有獨(dú)立的刑法地位就意味著人工智能與人類處于平等地位。

第三,罪刑的法定性是人工智能具有獨(dú)立刑法地位的重要保障。贊成人工智能具有獨(dú)立刑法地位的論者主張圍繞人工智能構(gòu)成專門的刑罰體系,包括刪除數(shù)據(jù)、修改程序、永久銷毀等刑罰處罰方式。③參見劉憲權(quán):《人工智能時(shí)代我國(guó)刑罰體系重構(gòu)的法理基礎(chǔ)》,《法律科學(xué)》2018年第3期。這些措施專門適用于實(shí)施了“犯罪”的人工智能,不過,根據(jù)我國(guó)刑法規(guī)定的罪刑法定原則,其潛在意思是在沒有實(shí)施犯罪行為的情況下,將不能對(duì)人工智能實(shí)施刪除數(shù)據(jù)、修改程序、永久銷毀等刑罰處罰,人工智能的相關(guān)權(quán)利要受到刑法的保護(hù)。這一方面意味著人工智能可以在刑法規(guī)定的犯罪行為之外“自由”地實(shí)施其他合法行為,人工智能的發(fā)展會(huì)不會(huì)面臨不可控的危機(jī)仍不可知;另一方面,一旦人類的發(fā)展與人工智能的發(fā)展形成了競(jìng)爭(zhēng)關(guān)系,人類要對(duì)人工智能的發(fā)展進(jìn)行控制,將可能無(wú)計(jì)可施。從這個(gè)角度看,人類一旦賦予了人工智能獨(dú)立的刑法地位,就意味著人類必須承認(rèn)人工智能與人類的平等性。

(二)人工智能與人類的完全平等主義不可行

盡管在浩瀚的宇宙中人類只是短暫的存在,但筆者認(rèn)為,在人類漫長(zhǎng)的過去和長(zhǎng)久的未來(lái)發(fā)展之中,人工智能與人類成為完全平等意義上的法律主體是難以實(shí)現(xiàn)的。完全的平等主義在目前及可預(yù)見的未來(lái)面臨著不可行的局面,這是因?yàn)椋?/p>

第一,完全平等不符合人工智能的設(shè)計(jì)目的。從根本上看,人類設(shè)計(jì)人工智能,目的是為了更好地服務(wù)于人類的社會(huì)生活。換言之,人工智能從其產(chǎn)生之日起,它就是一種工具,而不是目的,它不是作為一種目的而存在和出現(xiàn)的。完全的平等主義要求對(duì)人工智能和人類平等對(duì)待,人工智能將因此成為與人類一樣的存在,人工智能必將要擺脫其工具屬性而走向目的。但從邏輯上看,人類設(shè)計(jì)人工智能的初衷與人工智能的實(shí)際狀況將發(fā)生分離、沖突。國(guó)務(wù)院2017年制定的《新一代人工智能發(fā)展規(guī)劃》明確提出了人工智能要在人類的控制下發(fā)展,目的是“推動(dòng)以人類可持續(xù)發(fā)展為中心的智能化,全面提升社會(huì)生產(chǎn)力、綜合國(guó)力和國(guó)家競(jìng)爭(zhēng)力,為加快建設(shè)創(chuàng)新型國(guó)家和世界科技強(qiáng)國(guó)”。從這個(gè)角度看,人工智能不符合當(dāng)前我國(guó)刑法的主體本質(zhì),難以成為刑法上的獨(dú)立行為和責(zé)任主體。

第二,完全平等不符合人工智能的法律定位需要。如前所述,國(guó)務(wù)院2017年《新一代人工智能發(fā)展規(guī)劃》提出了要“開展與人工智能應(yīng)用相關(guān)的民事與刑事責(zé)任確認(rèn)、隱私和產(chǎn)權(quán)保護(hù)、信息安全利用等法律問題研究,建立追溯和問責(zé)制度,明確人工智能法律主體以及相關(guān)權(quán)利、義務(wù)和責(zé)任等”。而且,在此之前,日本、美國(guó)和沙特都進(jìn)行過這方面的實(shí)踐。2010年11月7日,日本為寵物機(jī)器人帕羅登記戶籍;2016年2月4日,美國(guó)國(guó)家公路交通安全管理局在其法律文件中將谷歌自動(dòng)駕駛汽車中的自動(dòng)駕駛系統(tǒng)視為“駕駛員”;2017年10月25日,沙特政府宣布授予機(jī)器人索菲亞公民身份等。這期間,歐盟法律事務(wù)委員會(huì)2016年5月提交了一項(xiàng)動(dòng)議,建議至少考慮將最先進(jìn)的自動(dòng)化機(jī)器人的身份定位為“電子人”(Electronic Persons),賦予它們“特定的權(quán)利與義務(wù)”①百度公共政策研究院:《人工智能法律前沿問題探討——機(jī)器人是“人”嗎?》,http://www.idataapi.com/news/1245.html,大數(shù)據(jù)共享交易平臺(tái),2017年11月11日訪問。。但這并不表明各國(guó)和歐盟對(duì)人工智能采取了與人類完全平等的立場(chǎng),也并不表明我們應(yīng)當(dāng)堅(jiān)持人工智能與人類完全平等的立場(chǎng),要將人工智能與人類作為平等的法律主體同等對(duì)待。實(shí)際上,人工智能的法律主體地位的明確可以在民法、行政法等多個(gè)領(lǐng)域展開,刑法作為最后法,在民法、行政法等部門法均未明確人工智能的獨(dú)立法律定位的情況下探討其作為獨(dú)立刑法主體問題,并不可行。

第三,完全平等意味著要人類主動(dòng)放棄對(duì)人工智能的支配地位,難以實(shí)現(xiàn)。人工智能的出現(xiàn)是人類智慧的結(jié)晶,無(wú)論人工智能是人類基于何種目的推出,但其推廣一定是為了人類自身的利益而進(jìn)行的?!巴耆降戎髁x”要求將人工智能與人類放在同等重要的刑法地位上,實(shí)際上就是要求人類與人工智能各自獨(dú)立、各行其道,其在根本上是要求人類放棄對(duì)人工智能的支配權(quán)??梢韵胂?,一旦人類放棄了對(duì)人工智能的支配權(quán),人工智能可以無(wú)限地自我設(shè)計(jì)、自我制造、自我繁殖,人類在地球上的生存空間將被極大地壓縮,最終必將處于無(wú)立足之地的境地。而這種情況一旦出現(xiàn),人類必定要進(jìn)行反擊,屆時(shí)人工智能在刑法上的地位將毫無(wú)意義。正因?yàn)槿绱?,?guó)務(wù)院2017年發(fā)布的《新一代人工智能發(fā)展規(guī)劃》明確提出“在大力發(fā)展人工智能的同時(shí),必須高度重視可能帶來(lái)的安全風(fēng)險(xiǎn)挑戰(zhàn),加強(qiáng)前瞻預(yù)防與約束引導(dǎo),最大限度降低風(fēng)險(xiǎn),確保人工智能安全、可靠、可控發(fā)展”。

(三)刑法技術(shù)措施與人工智能的行為限制

現(xiàn)代刑法強(qiáng)調(diào)犯罪是刑法的基礎(chǔ)和起點(diǎn),刑法上所有的措施(包括技術(shù)措施)都是針對(duì)犯罪行為的。對(duì)于人工智能而言,將刪除數(shù)據(jù)、修改程序、永久銷毀等技術(shù)措施上升為刑罰,將限制人類對(duì)人工智能的行為調(diào)整。這主要體現(xiàn)在:

第一,罪之法定限制了人工智能的行為規(guī)制范圍。一旦賦予人工智能獨(dú)立的刑法主體地位,即意味著人工智能與人類在刑法上的平等地位。對(duì)人工智能的刑法治理也必須遵循罪刑法定、刑法謙抑等現(xiàn)代刑法原則。這勢(shì)必對(duì)人工智能的入罪范圍產(chǎn)生兩個(gè)方面的限制:一是行為類型限制,即只有刑法明確規(guī)定為犯罪的行為才是犯罪,才能對(duì)其適用刑罰。而在任何一個(gè)國(guó)家,罪行的設(shè)置總是具有很強(qiáng)的有限性和滯后性。刑法難以將人工智能實(shí)施的所有危害行為都規(guī)定為犯罪,這必將對(duì)人工智能的犯罪行為類型產(chǎn)生很大的限制作用。二是行為程度限制,即根據(jù)《刑法》第13條但書的規(guī)定,只有嚴(yán)重危害社會(huì)的行為才能入罪。根據(jù)該規(guī)定,對(duì)于人工智能實(shí)施的一般違法行為不能作為犯罪處理,這也將限制人工智能危害行為入罪的范圍。

第二,刑之法定限制了人工智能危害行為的處罰范圍。與人類不同,定罪、刑罰難以對(duì)人工智能產(chǎn)生附帶效果,如不存在因定罪、刑罰適用而影響人工智能就業(yè)、從事相關(guān)活動(dòng)等問題,對(duì)實(shí)施了“犯罪”的人工智能所可能產(chǎn)生的所有影響都來(lái)自人工智能的刑法技術(shù)措施。而如前所述,人工智能的刑法技術(shù)措施主要包括修改(包括刪除數(shù)據(jù)、修改程序)和銷毀(包括物理銷毀、技術(shù)銷毀)。這些技術(shù)措施作為刑罰手段將對(duì)人工智能的行為規(guī)制產(chǎn)生兩方面的限制:一是技術(shù)措施區(qū)分的有限性限制了人工智能犯罪行為的范圍。與自由刑、財(cái)產(chǎn)刑、資格刑所具有的較大區(qū)分度不同,技術(shù)措施的區(qū)分度非常有限,只能區(qū)分為修改和銷毀,無(wú)法適應(yīng)行為在危害程度上的變化需要。技術(shù)措施的這一特點(diǎn)決定了刑法無(wú)法對(duì)人工智能實(shí)施的犯罪行為進(jìn)行各種程度的區(qū)分,進(jìn)而將限制人工智能危害行為入罪的范圍。二是技術(shù)措施區(qū)分的有限性限制了人工智能違法行為與犯罪行為的區(qū)分?!盁o(wú)刑罰則無(wú)犯罪”是現(xiàn)代刑法的基本原則之一,也是罪刑法定原則的基本要求。技術(shù)措施區(qū)分的有限性決定了對(duì)人工智能的行政處罰與刑事處罰的區(qū)分困難,進(jìn)而將極大地限制人工智能危害行為的入罪范圍。

平等主義必將限制人工智能行為的入罪范圍,將人工智能規(guī)定為刑法上的獨(dú)立主體將給人類治理人工智能的危害行為設(shè)定諸多限制,這是否必要、是否可行需要政策層面的準(zhǔn)確把握。但就目前而言,這種限制顯然不具有政策價(jià)值。

四、后果差異性:刑法技術(shù)措施與人工智能的法律窘境

這里的“后果差異性”是指不同部門法之間的法律后果差異性,“自主意識(shí)”和“平等主義”主要關(guān)乎人工智能成為刑法主體的主觀條件和行為條件。對(duì)于人工智能而言,決定其能否成為刑法主體的關(guān)鍵性法律技術(shù)是針對(duì)人工智能的刑法與其他部門法的法律后果差異性,其中的核心是刑法對(duì)人工智能的處置手段是否具備足夠的獨(dú)特性和差異性。

(一)法律后果的差異性及其刑法價(jià)值

在法學(xué)理論上,部門法的劃分標(biāo)準(zhǔn)通常被認(rèn)為包括2個(gè)方面:調(diào)整對(duì)象和調(diào)整手段。一般認(rèn)為,刑法作為一個(gè)獨(dú)立的部門法,其獨(dú)立存在的依據(jù)在于其調(diào)整的對(duì)象和手段的獨(dú)特性(其調(diào)整的對(duì)象是犯罪,調(diào)整的手段是刑罰)。①參見高銘暄、馬克昌:《刑法學(xué)》(第6版),北京大學(xué)出版社、高等教育出版社2016年版,第18頁(yè)。刑罰被認(rèn)為是犯罪的主要法律后果,法律后果的差異性是刑法存在的價(jià)值,并主要體現(xiàn)在以下兩個(gè)方面:

第一,刑罰與其他法律后果的差異性是刑法的法律本質(zhì)。法律后果本身具有界定法律部門的性質(zhì),在一些國(guó)家,刑法完全被以其法律后果命名,被稱為“刑罰法”。一般認(rèn)為,刑法的法律后果差異性主要包括兩個(gè)方面:一是刑罰處罰的嚴(yán)厲性。在我國(guó),刑罰不僅可以剝奪他人的財(cái)產(chǎn)、資格,還可以剝奪他人的自由、生命,也正因?yàn)槿绱?,我?guó)《立法法》明確規(guī)定“刑罰”只能由法律加以規(guī)定。二是附隨后果的嚴(yán)重性。根據(jù)我國(guó)現(xiàn)行法律體系,被認(rèn)定為犯罪、被判處刑罰的人,將要在刑罰之外承擔(dān)由此帶來(lái)的不利法律后果。例如,受過刑罰處罰的人一般不能再擔(dān)任某些特定的職務(wù)(如法官、檢察官、公司高管等)、不能進(jìn)入特定的行業(yè)(如不能再?gòu)氖路上嚓P(guān)職業(yè))、不能享受職業(yè)優(yōu)待(如不能得到職務(wù)晉升)、不能享受社會(huì)聲譽(yù)優(yōu)待(如因留下不良記錄而在社會(huì)生活評(píng)價(jià)中處于不利地位)等。從性質(zhì)上看,這些附隨性法律后果涵蓋的責(zé)任包括了行政法律責(zé)任、民事法律責(zé)任和社會(huì)道德責(zé)任等各個(gè)方面。換言之,刑法的法律后果兼具專門性和全覆蓋性。這是其他部門法所沒有的,也是刑法作為一個(gè)獨(dú)立部門法存在的價(jià)值和前提。

第二,刑罰與其他法律后果的差異性是刑事處罰權(quán)的基礎(chǔ)。在權(quán)力的性質(zhì)上,行政權(quán)與司法權(quán)的劃分是國(guó)家權(quán)力劃分的一個(gè)基本方面。其中,行政權(quán)由行政機(jī)關(guān)享有,其特點(diǎn)是行政機(jī)關(guān)直接做出,且通常缺乏外在的監(jiān)督但十分高效。而司法權(quán)由司法機(jī)關(guān)享有,其特點(diǎn)是通常由控、辯、審三方參與,強(qiáng)調(diào)公正但效率要低。在效率上,行政權(quán)的效率要明顯高于司法權(quán)。而刑罰權(quán)顯然是屬于司法權(quán)的范疇,刑罰權(quán)作為一種司法權(quán),它以犧牲效率為代價(jià),換取的是司法的公正,其背后的理由是刑罰權(quán)的法律后果嚴(yán)重(主要是剝奪的利益重大),需要多方參與和審慎處理。反過來(lái)說,一種處罰措施能否作為刑罰的種類,其較之于行政處罰措施更為嚴(yán)厲就是一個(gè)基本條件。換言之,刑罰處罰措施與行政處罰措施的不同(即更為嚴(yán)厲)是刑事處罰權(quán)的基礎(chǔ),也是啟動(dòng)刑事訴訟、以效率換公正的基礎(chǔ)。否則,相關(guān)的措施完全沒有必要上升為刑法上的措施。

(二)刑法技術(shù)措施的差異性與人工智能的獨(dú)立主體地位

如前所述,人工智能獨(dú)立承擔(dān)法律責(zé)任的方式主要是技術(shù)修改和銷毀,包括刪除數(shù)據(jù)、修改程序、永久銷毀等方式。不過,從法律后果上看,“刪除數(shù)據(jù)、修改程序、永久銷毀等方式”作為人工智能犯罪的刑罰方式,欠缺處罰的差異性。這主要體現(xiàn)在以下3個(gè)方面:

第一,對(duì)人工智能的技術(shù)處理方式難以區(qū)分“物化”的人工智能和“人化”的人工智能??紤]到人工智能的特殊性,其既無(wú)“人”意義上的生命和自由,也無(wú)“人”所擁有的獨(dú)立財(cái)產(chǎn),而只有技術(shù)。從技術(shù)的層面上看,對(duì)人工智能只有2種處理方式:一是修改,即修改人工智能的設(shè)計(jì)和程序,包括刪除數(shù)據(jù)、修改程序;二是銷毀,即從技術(shù)上毀滅人工智能。這2種方式是人工智能的通用處理方式,無(wú)論是針對(duì)弱人工智能還是針對(duì)強(qiáng)人工智能均如此。從法律后果上看,“刪除數(shù)據(jù)、修改程序、永久銷毀等方式”無(wú)法區(qū)分“物化”的人工智能(如弱人工智能)和“人化”的人工智能(如強(qiáng)人工智能),進(jìn)而將導(dǎo)致人工智能“物”“人”不分。這些措施作為人工智能的刑罰方式之特殊性、差異性也就不具備,難以單獨(dú)存在。

第二,對(duì)人工智能的技術(shù)處理方式難以區(qū)分人工智能的行政責(zé)任與刑事責(zé)任??陀^地看,對(duì)人工智能的技術(shù)修改或者銷毀,看起來(lái)可以進(jìn)行輕重程度的劃分,如技術(shù)修改的處理程度輕,技術(shù)銷毀的處理程度重。但其實(shí)這兩種手段是不可分割的,當(dāng)技術(shù)修改手段無(wú)法解決人工智能的“技術(shù)障礙”,則最終只能對(duì)其作“技術(shù)銷毀”處理;反之,如果要對(duì)人工智能作技術(shù)銷毀,但發(fā)現(xiàn)可以通過技術(shù)修改方式完成,則完全有必要改變技術(shù)手段,不對(duì)其進(jìn)行“技術(shù)銷毀”而進(jìn)行“技術(shù)修改”。這兩種措施之間的貫通性,決定了對(duì)人工智能的處罰無(wú)法進(jìn)行行政處罰和刑事處罰意義上的區(qū)分。即無(wú)論是對(duì)于人工智能實(shí)施的行政違法行為還是其實(shí)施的刑事犯罪行為,要對(duì)其進(jìn)行處罰,都只能采取刪除數(shù)據(jù)、修改程序、永久銷毀等方式。對(duì)人工智能的處罰而言,這將導(dǎo)致行政法律責(zé)任與刑事法律責(zé)任不分。

第三,對(duì)人工智能的技術(shù)處理方式難以區(qū)分人工智能的行政違法與刑事犯罪。按照現(xiàn)代刑法的基本理論,犯罪的法律本質(zhì)特征是“應(yīng)受刑罰懲罰性”。這意味著,從法律層面上看,區(qū)分違法和犯罪的標(biāo)準(zhǔn)是行為的“應(yīng)受刑罰懲罰性”。作為該前提,則要求對(duì)行政處罰措施和刑罰措施進(jìn)行區(qū)分。如前所述,對(duì)人工智能的刪除數(shù)據(jù)、修改程序、永久銷毀等方式,不具有區(qū)分行政處罰措施與刑罰措施的特性,這些措施之間具有貫通性和不可分割性。這意味著,人工智能的違法行為與犯罪行為的法律后果將因此難以區(qū)分,兩者是一樣的,這反過來(lái)必將導(dǎo)致人工智能的行政違法行為與刑事犯罪行為的不分,人工智能作為刑法上的主體地位也就難以成立。

刑法技術(shù)措施的區(qū)分度差、差異性低決定了很難從法律后果上區(qū)分人工智能的行為性質(zhì),將人工智能規(guī)定為刑法上的獨(dú)立主體可能面臨著人工智能作為不同法律主體的身份、行為和后果區(qū)分困難,法律對(duì)人工智能的定位和適用將面臨窘境。

五、余 論

將人工智能規(guī)定為刑法上的主體,意味著對(duì)人工智能還存在民法、行政法等部門法意義上的主體區(qū)分。對(duì)于人工智能而言,這種主體的區(qū)分是否有必要、是否可行,顯然不僅是一個(gè)立法技術(shù)問題,也是一個(gè)立法觀念問題。對(duì)人工智能的法律主體定位而言,至少以目前的眼光來(lái)看,筆者認(rèn)為,對(duì)人工智能作民法、行政法和刑法上的區(qū)分既無(wú)必要也不可行,而是應(yīng)當(dāng)堅(jiān)持“綜合法律主體論”。綜合法律主體論是對(duì)人工智能的民事、行政和刑事法律責(zé)任不作明確的區(qū)分,而是根據(jù)人工智能的能力和狀態(tài),由其綜合承擔(dān)各種其所能承擔(dān)和應(yīng)當(dāng)承擔(dān)的法律責(zé)任。以人工智能導(dǎo)致他人財(cái)物損害為例,其責(zé)任無(wú)非涉及兩個(gè)方面:一是對(duì)財(cái)物以恢復(fù)原狀等方式進(jìn)行價(jià)值的恢復(fù)、賠償(以人工智能具有獨(dú)立財(cái)產(chǎn)為前提)等。人工智能應(yīng)該由其自己或者找他人對(duì)財(cái)物進(jìn)行修理、賠償,這種責(zé)任類似于民事責(zé)任。如果人工智能不具備承擔(dān)這種責(zé)任的能力,那么這方面的責(zé)任將不復(fù)存在。二是對(duì)人工智能進(jìn)行技術(shù)修復(fù)、銷毀。如果人工智能造成他人財(cái)物損害是由其自身的技術(shù)原因造成的,則應(yīng)該對(duì)其進(jìn)行技術(shù)上的修復(fù),若無(wú)法進(jìn)行技術(shù)上的修復(fù)且存在進(jìn)一步的潛在風(fēng)險(xiǎn),則可能要對(duì)其進(jìn)行技術(shù)銷毀。人工智能所承擔(dān)的這種責(zé)任類似于行政責(zé)任和刑事責(zé)任。但這兩個(gè)方面是人工智能行為的一體兩面,很難且也沒有必要進(jìn)行區(qū)分。綜合法律主體論意味著對(duì)人工智能要進(jìn)行綜合立法,即對(duì)人工智能的法律主體地位、倫理道德、權(quán)利義務(wù)、法律責(zé)任等方面的內(nèi)容作系統(tǒng)規(guī)定。對(duì)此,國(guó)務(wù)院2017年發(fā)布的《新一代人工智能發(fā)展規(guī)劃》規(guī)定要“明確人工智能法律主體以及相關(guān)權(quán)利、義務(wù)和責(zé)任等”“開展人工智能行為科學(xué)和倫理等問題研究,建立倫理道德多層次判斷結(jié)構(gòu)及人機(jī)協(xié)作的倫理框架。”根據(jù)這一發(fā)展規(guī)劃,我們似乎可以預(yù)見,一部關(guān)于人工智能的綜合立法必將隨著人工智能時(shí)代的來(lái)臨而呼之欲出。

猜你喜歡
刑罰刑法主體
論自然人破產(chǎn)法的適用主體
過度刑法化的傾向及其糾正
法律方法(2021年4期)2021-03-16 05:35:02
刑罰威懾力的刑法學(xué)分析
活力(2019年22期)2019-03-16 12:49:24
代運(yùn)為名行詐騙 構(gòu)成犯罪獲刑罰
斷鹽也是一種刑罰
刑法適用與刑法教義學(xué)的向度
刑法論叢(2016年3期)2016-06-01 12:15:17
關(guān)于遺產(chǎn)保護(hù)主體的思考
刑罰的證明標(biāo)準(zhǔn)
人間(2015年22期)2016-01-04 12:47:28
論多元主體的生成
釋疑刑法
浙江人大(2014年6期)2014-03-20 16:20:40
曲沃县| 宝丰县| 玛多县| 大同市| 澜沧| 通江县| 巴林左旗| 乐东| 耒阳市| 石河子市| 黄冈市| 谢通门县| 上虞市| 金堂县| 西吉县| 文化| 杭锦旗| 凭祥市| 南川市| 开平市| 阳西县| 张掖市| 尼勒克县| 白水县| 琼海市| 诸暨市| 读书| 孟州市| 依兰县| 延庆县| 贵阳市| 静海县| 汕头市| 汪清县| 枝江市| 宁安市| 庆城县| 三江| 柯坪县| 彰化县| 纳雍县|