張曉燕
(266071 青島大學(xué)法學(xué)院 山東 青島)
隨著科技的發(fā)展,人工智能技術(shù)越來越成熟。一些具有超前性的科技大片已經(jīng)在上演著智能機(jī)器人與人類分庭抗禮甚至控制或代替人類的場景。那么當(dāng)人工智能造成刑事?lián)p害,是否能夠具有刑事主體地位呢?
對于這個(gè)問題,是近來刑法學(xué)界關(guān)注的問題之一,不同的學(xué)者對此也表達(dá)了不同的看法。關(guān)于人工智能的主體地位,其爭議焦點(diǎn)主要集中在以下兩個(gè)方面:第一,人工智能是否具有了自由意志;第二,人工智能是否有必要獨(dú)立承擔(dān)責(zé)任。
一些學(xué)者否認(rèn)了人工智能具有刑法意義上的主體地位。首先,從意志自由方面來說,[1]意志自由是法律人格的根本條件,如果犯罪主體不具有意志自由,那么將無法與其進(jìn)行倫理對話并對其行為進(jìn)行有效的刑罰譴責(zé)。雖然人工智能的目標(biāo)是使機(jī)器人可以像人類一樣思考、自我學(xué)習(xí)并具有獨(dú)立行為的能力,但是人工智能的行為不論看起來有多自主,其僅僅是預(yù)先設(shè)定的程序的運(yùn)行結(jié)果或是多項(xiàng)運(yùn)行程序的最優(yōu)選擇而已。[2]而人類之所以具有刑事主體地位,本質(zhì)在于具有自我意識(shí)以及自我反思的能力,即使人工智能已經(jīng)具有了自我學(xué)習(xí)并自我決策的能力,但是從目前的狀況來看,人工智能還不具有自我意識(shí)和反思的能力,其所實(shí)施的是純粹的物理意義上的行為,與人類的行為不具有同等的意義,其僅僅只能作為人類行為的“工具”而存在。其次,從責(zé)任的承擔(dān)方面來講,一方面,我國的刑罰分為人身刑和財(cái)產(chǎn)刑,人工智能作為一種非有機(jī)體,只要對載體保存得當(dāng),就不存在生命的限制,智能機(jī)器人代碼的可復(fù)制性,徹底打破了被處罰主體的獨(dú)立性和可辨識(shí)性特征,因此無法適用人身刑;并且,人工智能無法像法人這種擬制刑事責(zé)任主體一樣具有獨(dú)立的財(cái)產(chǎn)權(quán),因此也無法適用財(cái)產(chǎn)刑。另一方面,人工智能不具備自由意志,欠缺法規(guī)范遵從能力的意志性,即便其在客觀上造成了法益的侵害后果,也不具有刑法上的可歸責(zé)性。最后,有的學(xué)者指出,[3]機(jī)器人無論以何種方式承擔(dān)責(zé)任,最終的責(zé)任承擔(dān)者都是人,這使得它的‘法律人格’顯得多余和毫無必要。
而另一些學(xué)者則明確表達(dá)了對人工智能刑事主體地位的支持態(tài)度,主要以華東政法大學(xué)劉憲權(quán)教授為代表,他認(rèn)為,[4]從法律屬性上可以將智能機(jī)器人定位為經(jīng)程序設(shè)計(jì)和編制而成的、可以通過深度學(xué)習(xí)產(chǎn)生自主意識(shí)和意志的、不具有生命體的“人工人”。當(dāng)人工智能實(shí)施了具有嚴(yán)重社會(huì)危害性的行為時(shí),其行為可以大致分為如下兩類:一種是在程序設(shè)計(jì)和編制的范圍以內(nèi),另一種是在程序設(shè)計(jì)和編制的范圍以外。當(dāng)人工智能在人類設(shè)計(jì)和編制的程序范圍以內(nèi)實(shí)施行為,其行為體現(xiàn)的是研發(fā)者或者使用者的意志,因此其不具有辨認(rèn)和控制能力,可以稱之為[5]“弱人工智能”,此時(shí)應(yīng)當(dāng)將人工智能作為其研發(fā)或者使用者的“工具”來看待,其本身不需要承擔(dān)刑事責(zé)任,而是由控制人來承擔(dān)。這種弱人工智能不承擔(dān)刑事責(zé)任的看法與反對人工智能成為刑事責(zé)任主體的觀點(diǎn)不謀而合。但是,當(dāng)人工智能達(dá)到能夠在設(shè)計(jì)和編制的程序范圍以外實(shí)施犯罪行為時(shí),其就具有了自由意志,也就是說,[6]人工智能具有了辨認(rèn)和控制能力,此時(shí)便達(dá)到了“強(qiáng)人工智能”的程度,具有獨(dú)立人格和刑事責(zé)任能力,可以將其實(shí)施的嚴(yán)重危害社會(huì)的行為認(rèn)定為犯罪行為并給予刑罰處罰。但是如果強(qiáng)人工智能的設(shè)計(jì)者和使用者未履行預(yù)見義務(wù)和監(jiān)督義務(wù),也可能承擔(dān)相應(yīng)的刑事責(zé)任,其可能與自然人責(zé)任主體、其他強(qiáng)人工智能產(chǎn)品構(gòu)成共同犯罪。
對比以上兩種關(guān)于人工智能能否具備刑事責(zé)任主體地位的看法,就個(gè)人意見來說,更支持第二種觀點(diǎn)。在反對者的意見中,他們主要是從當(dāng)前人工智能所達(dá)到的水平來出發(fā)的,當(dāng)前的人工智能大致處于一種“弱人工智能”時(shí)代,產(chǎn)品看似智能,但是仍然是在控制著的設(shè)計(jì)和編制程序范圍內(nèi)運(yùn)行,因此需要人工智能背后的“人”,來承擔(dān)刑事責(zé)任。在支持者的意見中,其觀點(diǎn)更具有前瞻性,不僅考慮到了當(dāng)前的弱人工智能時(shí)代,也考慮到在不久的將來將會(huì)達(dá)到的強(qiáng)人工智能時(shí)代,刑法不能總是具有滯后性,當(dāng)某種嚴(yán)重危害性社會(huì)的行為出現(xiàn)后再立法以規(guī)制,刑法也可以在可預(yù)見的范圍內(nèi)呈現(xiàn)出前瞻性,這樣便可以達(dá)到一種“有備無患”的刑事環(huán)境,使得行為人的行為更具有預(yù)見可能性。
當(dāng)強(qiáng)人工智能時(shí)代將人工智能列入刑事主體范圍時(shí),具體應(yīng)該怎么實(shí)施呢?正如反對者的觀點(diǎn)中,人工智能不具備人身刑和財(cái)產(chǎn)刑的基礎(chǔ),這樣是否就限制了人工智能入刑呢?答案是否定的。我們對待新興事物應(yīng)該以一種全新的思維,而不是看其是否適合原有的規(guī)制。首先,[7]可以借鑒同是擬制責(zé)任主體的“單位”這一主體設(shè)定的理念,將現(xiàn)階段刑法中的刑事責(zé)任主體由自然人和單位增加為自然人、單位和人工智能。參照我國當(dāng)前刑法中對單位進(jìn)行的雙罰制處罰模式,運(yùn)用有關(guān)刑法理論演繹人工智能這一刑事責(zé)任主體在刑罰體系中的適用也未嘗不可,只是將單位雙罰制處罰的責(zé)任主體單位和主要責(zé)任人員相應(yīng)轉(zhuǎn)化為人工智能與其相關(guān)的研發(fā)者、銷售者或使用者這類自然人。其次,在具體的刑罰種類中,既然不適合人身刑和財(cái)產(chǎn)刑,也可增設(shè)刪除數(shù)據(jù)、修改程序、永久銷毀等刑罰種類。