趙文龍,張 郁
(甘肅政法大學(xué),甘肅 蘭州 730070)
烏爾希里·貝克曾經(jīng)說過:“我們的當(dāng)今世界面臨著一種壓倒性風(fēng)險,面對源于不同的各種風(fēng)險,我們所采取的態(tài)度只能是否認(rèn)、漠視或者轉(zhuǎn)型”。[1]德國社會學(xué)家盧曼也曾經(jīng)表達(dá)過對所處時代境地類似悲觀的態(tài)度,即“我們生活在一個除了冒險,別無選擇的時代?!盵2]當(dāng)下,正處于向人工智能時代邁進(jìn)的發(fā)展進(jìn)潮,人工智能技術(shù)發(fā)展速度超越了人們的想象,人們在享受人工智能所帶來的正面福利效應(yīng)的同時,也不得不擔(dān)憂人工智能技術(shù)所可能帶來的諸如反人化、反社會化等負(fù)面危險效應(yīng)。正如已經(jīng)過世的偉大物理學(xué)家、宇宙學(xué)家史蒂芬·霍金就曾表示:“人工智能的崛起是人類歷史上最好的事情,憑借這場新的科技革命,我們或許可以挽回上一場工業(yè)革命給自然界和人類社會帶來的破壞,然而人工智能在未來可能對人類生存帶來毀滅性的威脅,除非我們學(xué)會如何規(guī)避、控制風(fēng)險?!盵3]從目前人工智能技術(shù)的發(fā)展階段來看,霍金本人或許過于擔(dān)憂,因為人工智能還是附屬于自然人,受自然人的控制,并沒有達(dá)到人工智能與人類“大戰(zhàn)”的階段。但是,隨著深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)、蒙特卡洛樹搜索以及云計算等技術(shù)的發(fā)展與完善,不得不由得我們思考以下幾個問題:依托算法的人工智能是否真的能夠達(dá)到脫離人類設(shè)計和編制程序的限制,完全按照自己所獨立設(shè)計的一套程序?qū)嵤﹪?yán)重危害社會行為的程度? 那時的人工智能將會對人類產(chǎn)生何種威脅? 如果真的能夠達(dá)到,將在何時到來? 對于這幾個問題,想必理論家和普通人都充滿著困惑。與普通人不同的是,部分理論家的態(tài)度是假設(shè)或承認(rèn)它的存在,相信未來能來,并在各自的研究領(lǐng)域進(jìn)行思考。
從學(xué)科的分布情況來看,不僅有計算機(jī)科學(xué)、信息科學(xué)、神經(jīng)生理學(xué)等自然科學(xué)先后將人工智能作為研究的重點,而且哲學(xué)、倫理學(xué)、法學(xué)等社會科學(xué)也競相地將人工智能元素增添至自己的研究領(lǐng)域。在我國法學(xué)界,起初只是對人工智能引發(fā)的知識產(chǎn)權(quán)、隱私權(quán)以及人工智能引發(fā)的侵權(quán)產(chǎn)品責(zé)任等民事領(lǐng)域進(jìn)行討論,并且紛紛撰文著說,提出不少的新銳見解。但是,在刑法領(lǐng)域,我國刑法學(xué)者也不甘落后,再加上我國已然發(fā)生了通過利用人工智能撞庫打碼牟利的犯罪案件,[4]更加增促了部分刑法學(xué)者對未來將會發(fā)生未知風(fēng)險的擔(dān)憂。抱著“居安思危、有備無患”的研究態(tài)度,部分刑法學(xué)者便對強(qiáng)人工智能時代的人工智能將會帶來何種刑事風(fēng)險以及將對我國現(xiàn)行刑法體系帶來何種挑戰(zhàn)等問題進(jìn)行設(shè)想和思考。由此,有學(xué)者①在本文中,筆者將主張人工智能刑事責(zé)任主體正當(dāng)性的觀點統(tǒng)稱為“獨立刑事責(zé)任論”。就提出了當(dāng)人工智能具有辨認(rèn)能力和控制能力,且能在設(shè)計和編制的程序范圍外實施危害社會的行為時,可賦予人工智能以刑事責(zé)任主體地位,[5]即人工智能成為除自然人及法人之外的第三刑事責(zé)任主體。對上述觀點,筆者對此是持有懷疑態(tài)度的。因為,是否要打破現(xiàn)有的刑事責(zé)任主體制度以賦予人工智能刑事責(zé)任主體資格,不僅要基于犯罪的角度來討論人工智能所實施的行為能否成為犯罪行為,而且還要基于刑罰的角度來衡量有無賦予的必要性,或者說能否實現(xiàn)刑罰目的和價值。
“犯罪論不是用以理論性地闡明犯罪的本質(zhì),而是用來確定犯罪的工具”,[6]日本刑法學(xué)者前田雅英在其《刑法總論講義》的“犯罪論基本構(gòu)造”部分開門見山地指出犯罪論的本質(zhì),即犯罪論是確定哪些行為是值得被刑法處罰的工具。由此,可以得知如果要主張人工智能所實施的行為是一種值得被刑法處罰的犯罪行為,那么該行為必須要滿足犯罪論的基本構(gòu)造。換言之,人工智能所實施的行為必須客觀上為刑法所關(guān)注的違法行為,且必須有罪責(zé)的實施。猶如已滿16周歲的人和未滿14周歲的人實施性質(zhì)和結(jié)果完全相同的犯罪行為,由于未滿14周歲的人缺乏辨認(rèn)能力和控制能力,意志自由度較低,不具有罪責(zé)性,所以不能成為刑事責(zé)任主體。有時,人工智能所實施的行為與年幼的兒童并沒有本質(zhì)區(qū)別,但如果人工智能要成為刑事責(zé)任主體,最為關(guān)鍵地還是要判斷在承認(rèn)存在客觀法益侵害的前提下是否具有罪責(zé)以及人工智能所實施的行為能否被認(rèn)定為“犯罪行為”。
犯罪是一種行為,行為是行為人踏入到法律領(lǐng)域的唯一途徑,犯罪行為是行為人成立犯罪的前提。[7]如果按照獨立刑事責(zé)任論者的觀點,把人工智能當(dāng)作除自然人及法人之外的第三種刑事責(zé)任主體進(jìn)行對待的話,人工智能所實施的外部舉動能否被評價為犯罪行為,這將是當(dāng)前所有的行為理論所要面對的困境。在刑法學(xué)中,為了回答“什么是行為”、“行為的實質(zhì)是什么”等難度問題,導(dǎo)致刑法學(xué)者提出了各種不同的理論學(xué)說。這些理論主要有因果行為論(二戰(zhàn)之前,德國刑法學(xué)的支配理論)、社會行為論、目的行為論(德國刑法學(xué)者Welzel于20世紀(jì)30年代提出) 以及人格行為論等。這些行為理論,歸根結(jié)底,屬于不同國家的刑法學(xué)者基于不同的現(xiàn)實基礎(chǔ)對行為的本質(zhì)作出不同的解讀所導(dǎo)致的結(jié)果。當(dāng)然,這也可以看出,沒有任何的一種行為理論能夠在一國刑法制度或者一個學(xué)者的理論體系內(nèi)實現(xiàn)完美自洽。[8]但是,這些不同的行為理論都有一個共同點,即都是以具有生命體征的自然人為理論基點進(jìn)行展開的。
由此,人工智能所實施的行動若被認(rèn)定為犯罪行為,就可能會與現(xiàn)存的行為理論產(chǎn)生沖突和碰撞。如目的行為論對行為的解讀,表語為:“人的行為是實現(xiàn)一定目的的活動,它是一種目的事物現(xiàn)象,目的性是構(gòu)成行為的核心要素?!盵9]在目的行為論中,目的性則表現(xiàn)在人以因果關(guān)系的認(rèn)識為基礎(chǔ),在一定范圍內(nèi)預(yù)見自己的活動可能產(chǎn)生一定的結(jié)果,于是行為人設(shè)立各種各樣的目的,選擇達(dá)到目的的手段,朝著這些目的有計劃地進(jìn)行活動。[9]因此,按照目的行為論的立場,若人工智能超出設(shè)計和編制的程序范圍之外,按照自己獨立設(shè)計的一套行動程序或者數(shù)據(jù)指令實施的行動能夠被認(rèn)定為行為,必須要證明人工智能所實施的該行動必須具有“自我”的目的性。有學(xué)者認(rèn)為隨著人工智能技術(shù)的發(fā)展,人類完全可以設(shè)計出具有故意性或目的性的人工智能,且人工智能可以采取行動實現(xiàn)目的。[10]筆者認(rèn)為,該觀點忽略了被設(shè)計和制造出的人工智能所包含的人類的意志、意愿和目的?;蛘?,可以表述為人工智能是人類設(shè)計和制造出來的,人工智能的存在本身就是人類目的實現(xiàn)的外在表現(xiàn)。正如康德從抽象的人性論出發(fā),認(rèn)為人和自然物之間的一個重要的區(qū)別則是:“人是目的,自然物是人實現(xiàn)目的的手段”。[11]所以,那些看似人工智能脫離人類設(shè)計和編制的程序范圍之外所實施的“殺人或傷害”行動,并不是人工智能在故意或者有目的地實施。再如,人格行為論是以行為人之人格的外在表現(xiàn)進(jìn)行定義行為。人格行為論的提倡者—團(tuán)藤重光就認(rèn)為:“行為是行為者人格的主體的實現(xiàn)化的身體舉動?!盵12]德國學(xué)者Roxin也曾經(jīng)指出:“行為是能夠歸于以心理和精神活動為中心的自然人的一切舉止?!盵9]65所以,從人格行為論的角度對人工智能進(jìn)行審視,人工智能所實施的犯罪行為也很難與其兼容。
“違法是客觀的,責(zé)任是主觀的”,即責(zé)任能力是在責(zé)任階層中所去討論的問題。刑法中的責(zé)任能力,包括辨認(rèn)能力與控制能力。辨認(rèn)能力,是一種認(rèn)知行為社會意義的能力……??刂颇芰?,是行為人對自己的行為的掌控、支配和決定的能力,本質(zhì)上是一種意志能力。[13]適格的刑事責(zé)任主體,不僅需要辨認(rèn)能力,而且還需滿足控制能力。某種意義上來講,控制能力是判斷一個適格的刑事責(zé)任主體的最后一道閥門。換言之,刑事責(zé)任能力是一種選擇能力,這種選擇表現(xiàn)為刑法意義上去惡從善或者去善從惡的意志選擇,而意志自由正是這種選擇的前提和基礎(chǔ)。[14]早在中世紀(jì),野蠻、落后、非理性、不人道等刑法思想籠罩于一片蒙昧落后的愁云慘霧之中。在刑罰適用方面,除了以死刑和肉刑之外,刑罰的殘酷性還表現(xiàn)在主觀歸罪以及客觀歸責(zé)。主觀歸罪,也稱為思想歸罪,只要具有犯罪的意思,即使沒有將犯意付諸實施,也要判處相應(yīng)的刑罰??陀^歸罪,也稱為結(jié)果歸罪,不管行為人的主觀內(nèi)容如何,只要客觀上造成了損害結(jié)果,就要承擔(dān)刑事責(zé)任。后來,一批啟蒙思想家為了適應(yīng)時代的要求,開始對封建專制制度進(jìn)行了猛烈的抨擊。其中,就有以貝卡利亞、費爾巴哈、康德、黑格爾等為代表的刑事古典學(xué)派肩負(fù)起反對封建專制,提倡個人主義、合理主義,要求自由權(quán)利的任務(wù)。如德國哲學(xué)家黑格爾認(rèn)為“行動只有作為意志的過錯才能歸責(zé)于我。這是認(rèn)識的法”。[15]按照日本學(xué)者山口邦夫的話語,則表示為:“犯罪者的意志在作為善與惡的能力的人之恣意之中或者在選擇自由之中有其根源?!盵16]刑事古典學(xué)派非常重視意志自由在決定某一行為人是否承擔(dān)刑事責(zé)任判斷中的地位,“一是人在達(dá)到一定年齡時除精神上有異狀者(瘋癲、白癡、喑啞者)與精神未充分發(fā)達(dá)者外,任何人都有為善避惡的自由意思;二是犯罪是惡,而有自由意思的人,盡管能夠避之而竟敢實施之,所以犯罪是也是出于自由意思?!盵17]由此,犯罪是出于自由意志,所以一個適格的刑事責(zé)任主體必須以自由意志為前提。
按照刑事古典學(xué)派的邏輯,如果人工智能順利地獲取刑事責(zé)任主體資格,其必須要證明人工智能具有自由意志。為了能夠證成人工智能具有自由意志這一課題,一些專家從不同的側(cè)面提出了解決方案。一是人腦生成意識路徑的克隆。人腦是產(chǎn)生意識的來源,如果能夠?qū)θ四X生成意識路徑進(jìn)行復(fù)制、克隆,那么該復(fù)制品同樣也能產(chǎn)生意識。如人工智能專家科赫就認(rèn)為:“如果你能建造一臺電路和大腦一模一樣的計算機(jī),那么這臺計算機(jī)就能產(chǎn)生意識?!盵18]二是通過深度學(xué)習(xí)獲取意識和意志。人工智能依靠數(shù)據(jù)、算法和計算能力進(jìn)行深度學(xué)習(xí),使其控制能力源于獲取超強(qiáng)的數(shù)據(jù)采集能力與分析能力,從而在人類設(shè)計和編制的程序范圍之外產(chǎn)生自主的意識和意志。[19]持此觀點的學(xué)者以無人駕駛汽車為引證,無人駕駛汽車能夠在幾公里之內(nèi),便能夠精準(zhǔn)地計算出到達(dá)目的地期間還需要經(jīng)過幾個路口、學(xué)校、人行道、紅綠燈的等待時間以及人流、車流的狀況,以此決定是否減速、停車或者繞道。所以,人工智能發(fā)展到一定階段時,是能夠通過自己獨立意志控制行為的。三是機(jī)器與人腦連接一體化。機(jī)器與人腦連接一體化源自“缽中之腦”的假想,其假設(shè)將人腦從身體截取出來并放在一個能夠讓人腦存活的 “營養(yǎng)缽”中,人腦的神經(jīng)末梢連接另一端的計算機(jī),通過計算機(jī)傳輸?shù)缴窠?jīng)末梢的電脈沖,使人能一如既往地體驗到人腦未分離之前的感覺。[20]上述三種解決方案或許能夠為人工智能的進(jìn)一步智能化發(fā)展提供幫助,但是這種單向的模仿、學(xué)習(xí)以及傳輸仍然無法達(dá)到人腦所具有的復(fù)雜結(jié)構(gòu)以及意識的產(chǎn)生機(jī)制。馬克思曾經(jīng)說過:“人與動物的生命活動相區(qū)別的標(biāo)志,則在于人的活動是一種有意識的生命活動。”[21]因此,自由意志是人所特有的精神實體,上述關(guān)于證明人工智能具有自由意志的方案,均存在著無法超越自由意志這一人所特有的精神實體的藩籬。
從馬克思主義刑法觀來看,對犯罪人追究刑事責(zé)任的哲學(xué)根據(jù)在于行為人具有相對的自由意志。[8]意志自由之所以重要,是因為它體現(xiàn)了人類的特質(zhì),即人類不是機(jī)械地對外界作出反應(yīng),而是通過思維和意識進(jìn)行選擇與決定,實現(xiàn)自我價值。盡管,我們承認(rèn)人工智能在某些領(lǐng)域已經(jīng)發(fā)揮了不可替代的價值,甚至已經(jīng)超越了人類。但是,人工智能存在的終極價值,還是人類創(chuàng)造且為人類服務(wù)的工具價值。人工智能沒有意識、沒有思維,無論人工智能發(fā)展到何種程度,它只能是對人類社會作出機(jī)械的反應(yīng)??此迫斯ぶ悄茉谀承┓矫嬉呀?jīng)超越了人類,它仍舊實現(xiàn)的是人類的價值,而非人工智能自身的價值。有些科學(xué)家所認(rèn)為的,如果通過對人類大腦生成意識的路徑進(jìn)行科技克隆,在某種程度上也是鏡花水月、空中樓閣。一方面,人類大腦的神經(jīng)系統(tǒng)、結(jié)構(gòu)以及意識產(chǎn)生的路徑極為復(fù)雜,人類腦科學(xué)也沒有完全的解釋清楚。截至目前,還沒有一位科學(xué)家在實驗的情況下觀察到意識能夠誕生以及提出意識如何誕生的理論。[22]另外,即使科學(xué)家弄清了人的意識在大腦中如何產(chǎn)生的,也很難對大腦中復(fù)雜的神經(jīng)系統(tǒng)以及結(jié)構(gòu)產(chǎn)生模擬。因為,從幼年到成年,人類意識的發(fā)展伴隨著人的成長過程,而人工智能只是算法、程序、指令的一種攝入結(jié)果,缺乏類如人類的“成長過程”。有學(xué)者認(rèn)為,人工智能的深度學(xué)習(xí)能力,使其完全能夠像人類的成長過程一樣,不斷地增進(jìn)思考和學(xué)習(xí)的能力,從而產(chǎn)生自主的意識和意志。[19]但是,該觀點卻存在著一定邏輯倒置的問題,即正是因為人工智能具有自主的意識和意志,才可能有人工智能進(jìn)一步地思考和學(xué)習(xí)。思考是一種人類通過大腦的思維活動探求、發(fā)現(xiàn)和認(rèn)識世界的過程,具有一定的主動性,需要自主的意識和意志。所以,意志自由是思考和學(xué)習(xí)的必要條件,而非思考和學(xué)習(xí)是意志自由的必要條件。另外,人類在成長的過程中,不斷地受到動態(tài)著的外界變化和影響,外界對人類意志發(fā)展的干擾因素比較多。但是,人工智能只能被動地依靠設(shè)計者的信息輸入,才可以感知到這個世界的變化。所以,以人工智能的深度學(xué)習(xí)能力來推斷出猶如人類一樣的成長過程的結(jié)論,只是將兩者之間進(jìn)行機(jī)械地、簡單地類比,缺乏充分的說服力。
在哲學(xué)中,我們經(jīng)常討論道德責(zé)任(moral responsibility)和因果責(zé)任(causal responsibility)的區(qū)別問題。一般認(rèn)為道德責(zé)任是一種主觀意義上的責(zé)任,以意志自由為前提。而因果責(zé)任是一種客觀意義上的責(zé)任,指對結(jié)果的發(fā)生具有原因上的作用。一般來講,當(dāng)人和非人同時造成了某一損害結(jié)果發(fā)生的時候 (人與非人都可承擔(dān)同樣的因果責(zé)任),只能夠?qū)θ诉M(jìn)行道德上的責(zé)難,而不能讓非人者承擔(dān)道德責(zé)任。[23]例如,一只小貓和一個人分別將別人的珍貴花瓶打碎,如果是一位不懷好意之人將珍貴花瓶打碎的,主人可能對他懷恨在心。然而,如果是一只小貓在桌子上亂跳導(dǎo)致花瓶落地摔碎的,主人或許不會對這只貓加以譴責(zé)。為什么主人對貓和不懷好意之人會出現(xiàn)截然相反的態(tài)度? 因為,貓與人類相比缺乏了道義或社會上的非難可能性。正如臺灣刑法學(xué)者洪增福指出:“行為人在道義上或社會上可非難之心理狀態(tài)下,而實施于刑法上之犯罪構(gòu)成要件的違法行為時所應(yīng)受道義的或社會的非難。”[24]正是因為動物沒有責(zé)任能力,故意或過失的心理狀態(tài),所以不應(yīng)受到道德或者法律的譴責(zé)。由此可見,以心理事實為內(nèi)容的心理責(zé)任論也可以說明這個問題。
對于人工智能所造成的損害,或許通過心理責(zé)任論也可以反駁人工智能刑事責(zé)任主體地位的正當(dāng)性。但是,按照規(guī)范責(zé)任論的觀點,心理責(zé)任論畢竟未能充分彰顯對責(zé)任的規(guī)范評價的價值。根據(jù)德國學(xué)者佛朗克的觀點,心理事實應(yīng)當(dāng)與規(guī)范評價相分離,所以為了能夠?qū)π袨槿说牟环☉B(tài)度進(jìn)行譴責(zé),必須要滿足以下三個前提:一是責(zé)任能力,行為人必須具有通常的精神狀態(tài);二是行為人所實施的行為必須與心理具有某種聯(lián)系,也就是存有故意或過失;三是各種附隨情況的通常性,也就是具有期待可能性。[25]在這里,佛朗克不再將非難等同于心理事實,而是在心理事實之外加入了其它的評價要素,從而使責(zé)任的內(nèi)容變得純粹,只剩下規(guī)范評價要素,也就是違法性認(rèn)識以及期待可能性。對于人工智能刑事責(zé)任主體問題,盡管我們按照獨立刑事責(zé)任論者的觀點,認(rèn)為人工智能能夠具有故意或過失的心態(tài),但是人工智能具有違法認(rèn)識的可能性(智識)和期待可能性(意愿)嗎? 有學(xué)者認(rèn)為設(shè)計者完全可以在編制和設(shè)計程序之時,將人工智能所需要遵守的法律法規(guī)進(jìn)行植入,從而獲得違法認(rèn)識的可能。[26]筆者對此并不認(rèn)可。違法性認(rèn)識的可能性,指行為人具有認(rèn)識和理解自己所實施的行為是一種為法規(guī)范所不包容的可能性的能力。人工智能并不具有這種認(rèn)識和理解的能力。因為,將法條機(jī)械地植入到人工智能的程序之內(nèi),便認(rèn)為人工智能具有違法性的認(rèn)知力,實際上是忽略了法律學(xué)習(xí)背后的認(rèn)知學(xué)習(xí)的機(jī)理。因為,規(guī)范的認(rèn)知是以理解法條背后的社會意義為前提的。而人工智能并沒有經(jīng)歷社會生活的“洗禮”,無法理解自己所實施行為的社會意義。正如,“殺人犯罪”、“殺人償命” 等樸素的社會觀念,是任何設(shè)計者都無法“賦予”人工智能的。就如有學(xué)者指出的那樣,“即使人工智能發(fā)展到超越人的地步,也無法像人類一樣在規(guī)則的基礎(chǔ)之上進(jìn)行價值的判斷?!盵27]另外,機(jī)器人對法律規(guī)范的認(rèn)知,是建立在機(jī)器知識庫的基礎(chǔ)之上的,只有人類不斷地將新的法律規(guī)范輸入到知識庫內(nèi),人工智能才可以對信息進(jìn)行提取和分析。由此得知,脫離人類的控制,人工智能是不能夠自行獲取法律規(guī)范的。但是,人類對法律規(guī)范的認(rèn)識并非如此。人類通過聽覺、視覺等感官以及注意和意識等高級認(rèn)知能力和功能之間高強(qiáng)度的交互,能夠及時地了解到新的法律規(guī)范,進(jìn)而修正自己的行為。所以,人工智能不僅沒有違法性認(rèn)識的可能,甚至人工智能連認(rèn)知能力都要依靠人類向數(shù)據(jù)庫中不斷儲存知識才能實現(xiàn)。
期待可能性,是指在某些情況下,具有期待行為人不去實施違法行為的可能。期待可能性對行為人具有較高的要求,即行為人要在自己的能力范圍之內(nèi)去搜尋實施合法行為的可能,從而避免淪入違法的“沼澤”。對于人工智能來講,期待可能性同樣是不能夠?qū)ζ溥M(jìn)行適用的,因為人工智能根本就不可能認(rèn)識到自己的行為的社會意義、規(guī)范意義,更談不上“趨利避害”的能力了。
綜上,即使我們承認(rèn)獨立刑事責(zé)任論者的觀點,認(rèn)為人工智能能夠在人類設(shè)計和編制的程序范圍之外獨立地實施行為。但是,由于人工智能根本無法具備違法性認(rèn)識可能以及期待可能性所要求的能力,所以始終在責(zé)任層面無法符合構(gòu)造,進(jìn)一步導(dǎo)致人工智能所實施的行為始終不能夠被認(rèn)定為犯罪。對于一個始終無法被認(rèn)定為犯罪的人工智能,試問我們?yōu)槭裁催€要大費周章地論證人工智能刑事責(zé)任主體正當(dāng)性的所有可能呢?
刑罰是一種痛苦,一種由國家施加的痛苦,一種既折磨人的精神又折磨人的肉體的痛苦。[28]從一定意義上講,如果把制造痛苦理解成為一種“惡”的話,那么刑罰的目的就是“以惡御惡”,或者叫作“公惡”御“私惡”??v觀歷史的發(fā)展脈絡(luò),自奴隸社會正式產(chǎn)生刑罰制度以來,大概可以劃分為報復(fù)時代、威懾時代、等價時代、矯正時代以及折中時代。[29]在這幾千年的發(fā)展過程中,刑罰的手段逐漸地從野蠻走向文明、從零散走向了體系化。這一切,都是在對“何為刑罰目的”這一問題的檢視過程中發(fā)展的。而在現(xiàn)代的刑法理論中,對于這一問題,主要有以下幾種理論觀點:一是贖罪理論。通過對罪犯施加精神或者身體上的痛苦,使其由于自己的行為所產(chǎn)生的罪責(zé)得以實現(xiàn);[30]贖罪理論,又稱為報應(yīng)理論、正義理論。二是預(yù)防理論,也稱為相對理論。預(yù)防理論可追溯的歷史比較久遠(yuǎn),如孟德斯鳩、貝卡利亞、伏爾泰、邊沁等偉大的啟蒙思想家都在其著作中提及過該理論。早期的預(yù)防理論,指的是通過對犯罪者施加刑罰,使其免于再次觸犯刑律。這也稱之為“特殊預(yù)防”。后來,費爾巴哈又從其所發(fā)展的“心理強(qiáng)制說”推導(dǎo)并提出了“一般預(yù)防”的概念?!耙话泐A(yù)防”既不是報復(fù),也不是針對實施者,而是通過刑罰的威脅及實施對一般公眾產(chǎn)生影響,使公眾了解法律所禁止的事項,并避免違反法律規(guī)范。[31]三是綜合理論。綜合理論是通過對贖罪理論和預(yù)防理論的優(yōu)點進(jìn)行采納,所形成的最佳理論。綜合理論既講求罪責(zé)報應(yīng),也顧及一般預(yù)防和特殊預(yù)防??v觀現(xiàn)代刑罰目的理論的研究成果,可以看出,現(xiàn)代的刑罰目的理論仍然是圍繞著報應(yīng)以及預(yù)防進(jìn)行展開的。所以,對于人工智能來講,人工智能在應(yīng)然層面的刑事責(zé)任主體是否正當(dāng)仍然可以通過刑罰目的進(jìn)行檢視。
報應(yīng),即使行為人承擔(dān)精神或肉體痛苦的方式,使行為人由于自己的行為而加于罪責(zé),在正義的方式之下得到報復(fù)和贖罪。[32]報應(yīng)的目的主要體現(xiàn)在以下三個方面: 一是彰顯刑法的不可違背性以及權(quán)威性、嚴(yán)厲性;二是使犯罪者因其犯罪行為而付出代價;三是撫慰被害者。由此,從報應(yīng)的三個方面的目的進(jìn)行檢視發(fā)現(xiàn),如果對人工智能施加以刑罰,并不能夠?qū)崿F(xiàn)報應(yīng)的三個目的。首先,刑法與其它部門法的重大區(qū)別之一,在于刑法的嚴(yán)厲性,因為刑法能夠限制人的自由,甚至剝奪人的生命。但是,人工智能并非如人類一樣擁有生命、肉體,也沒有人類那樣擁有對自由的強(qiáng)烈渴望。所以,當(dāng)人工智能與自然人分別以特別殘忍之手段致使他人死亡時,刑法可以對自然人判處死刑,但是對人工智能卻無能為力。獨立刑事責(zé)任論者認(rèn)為,可以通過刪除數(shù)據(jù)、修改程序以及永久銷毀等手段對人工智能進(jìn)行懲治。但是,這種懲治手段所體現(xiàn)的效果,畢竟與生命不可同日而語。如果分別對人工智能以及自然人定同樣的罪但是判處不同的刑罰,必然會損害刑法的權(quán)威性、嚴(yán)厲性。甚至,也可能會導(dǎo)致人們產(chǎn)生對人工智能的恐慌。其次,人工智能并不類似于法人一樣擁有獨立的財產(chǎn),可以適用罰金的規(guī)定。人工智能沒有自己的財產(chǎn),也沒有生命以及對自由的渴望,所以人工智能并不能為自己的犯罪行為付出代價。而如果真的可以通過刪除數(shù)據(jù)、修改程序以及永久銷毀等手段對人工智能進(jìn)行懲治的話,實際上并不是人工智能自身承擔(dān)代價,而是人工智能的所有權(quán)者或者使用者,因為人工智能是屬于他們的財產(chǎn)。最后,對人工智能施加于刑罰同樣不能夠撫慰被害人。這不僅是因為人工智能的特殊形態(tài),使其無法實現(xiàn)應(yīng)有的刑罰效果,撫慰被害人所受傷的內(nèi)心,而且人工智能也沒有自己獨立的財產(chǎn)進(jìn)行補(bǔ)償,只能由人工智能的所有權(quán)者或者使用者向被害人家屬支付一定的補(bǔ)償或賠償費用。所以,如果真的對人工智能施加于刑罰,那么報應(yīng)的結(jié)果并不是由人工智能承擔(dān),而是落在人工智能的所有權(quán)者或者使用者的頭上。
刑罰的預(yù)防目的,包括特別預(yù)防和一般預(yù)防。特別預(yù)防,旨在通過對犯罪個體剝奪犯罪能力,予以積極的教育改造,從而使其消除再犯危險,以實現(xiàn)個別矯正的效果。貝卡利亞曾說:“刑罰的目的僅僅在于:阻止罪犯再重新侵害公民,并規(guī)誡其他人不要再做同等的事情。”[28]85那么,對于人工智能來講,通過刪除數(shù)據(jù)、修改程序以及永久銷毀等手段能不能預(yù)防該人工智能再次犯罪呢? 筆者認(rèn)為,這是完全可以預(yù)防的。但是這種預(yù)防效果和19世紀(jì)以龍勃羅梭、加羅法洛等為代表的矯正功能并不相同。矯正功能在于通過教育、改造,以使犯罪者內(nèi)心得到懺悔、醒悟,使其深深體會到自己所實施行為的社會意義,從而不再犯罪。但是,由于人工智能缺乏意志自由,且所有的運(yùn)行過程和結(jié)果都是設(shè)計者預(yù)先設(shè)定的,人工智能根本不可能理解自己行為的社會危險性。所以,對人工智能并不能夠通過教育改造的方式達(dá)到特殊預(yù)防的目標(biāo)。
對于一般預(yù)防來講,人工智能并非如人一樣擁有血肉之軀,其只是一個由冷冰冰的材料和一系列的算法程序所組合而成的產(chǎn)物。與人相比,人工智能缺乏道德和倫理上的感召和制約,它只是基于程序和指令而總結(jié)出來規(guī)律實施行為,不能夠像人類那樣基于自己內(nèi)心的良知作出善惡的評判以及行為選擇。所以,其它人工智能根本不可能吸取經(jīng)驗教訓(xùn)進(jìn)而實現(xiàn)一般預(yù)防的功能。另外,我們也很難通過對人工智能進(jìn)行偵查、逮捕、起訴以及審判等訴訟程序?qū)崿F(xiàn)刑罰的警示作用。試想一下,人工智能坐在被告席,且在辯護(hù)律師的幫助之下,接受法官審判的場面是多么的滑稽。
“未來能來”并不等同于“未來即將到來”,在刑法以人類中心主義為犯罪觀的前提下,面對是否應(yīng)當(dāng)賦予人工智能以刑事責(zé)任主體資格的問題,還是應(yīng)當(dāng)審慎地思索。對于人工智能所實施的危害社會的行為,刑法還是應(yīng)當(dāng)表明其應(yīng)有的立場。如果沒有突破現(xiàn)行刑法之規(guī)定,就不必要增設(shè)新的罪名或者刑罰來進(jìn)行規(guī)制與人工智能相關(guān)的犯罪。比如,在人工智能生產(chǎn)出廠之前,研發(fā)者為了達(dá)到某種犯罪目的,故意在人工智能的設(shè)計或制造階段植入類似于犯罪計劃的數(shù)據(jù)、程序,且使用者并不知道人工智能的數(shù)據(jù)、程序被他人植入犯罪計劃,使用階段的人工智能所造成的刑事風(fēng)險由研發(fā)者承擔(dān)。抑或之,在使用過程中,人工智能并沒有任何的問題,研發(fā)者也已經(jīng)盡到了合理的注意義務(wù),且研發(fā)者也無法預(yù)見該人工智能出廠以后所可能造成的后果,只是使用者故意通過所購買的人工智能實施犯罪。在這種情況下,應(yīng)當(dāng)由使用者作為刑事責(zé)任主體,進(jìn)而接受刑法對其行為的評價。因為,在這兩種情況下,人工智能只是扮演者智能化犯罪工具的角色。
另外,如果人工智能真的脫離人類所設(shè)計和編制的程序范圍之外獨立實施危害社會的行為,該如何進(jìn)行歸責(zé)呢?筆者認(rèn)為,考慮到人工智能不可能成為刑事責(zé)任主體,所以應(yīng)當(dāng)刺破人工智能實施犯罪的面紗。針對這一情況,立法者可以通過對人工智能設(shè)定相關(guān)的監(jiān)管人員。這樣的話,監(jiān)管人員就有義務(wù)監(jiān)管人工智能,防止人工智能實施侵害行為。如果監(jiān)管人員沒有履行或者沒有充分地履行監(jiān)管義務(wù),致使人工智能脫離監(jiān)管嚴(yán)重危害社會的,監(jiān)管人員應(yīng)當(dāng)承擔(dān)刑事責(zé)任。
人工智能刑事責(zé)任主體的賦予并不是必然的邏輯選擇。當(dāng)前,人工智能所產(chǎn)生的風(fēng)險,仍然是一種預(yù)設(shè)的未知風(fēng)險,我們首先強(qiáng)調(diào)的還是注重刑法謙抑性的表達(dá),在變革與守護(hù)之間把握平衡。保持刑法既不過度介入,影響人工智能技術(shù)的發(fā)展,也應(yīng)密切關(guān)注,以防刑法無法及時應(yīng)對。