王 燕 玲
(華南師范大學(xué) 法學(xué)院,廣東 廣州 510898)
近年,人工智能體法律問(wèn)題研究是學(xué)術(shù)熱點(diǎn)之一。尤其是ChatGPT問(wèn)世以后,不少人對(duì)強(qiáng)人工智能時(shí)代的降臨充滿(mǎn)希冀,這就引發(fā)了人工智能體(1)本文中人工智能體指包含了人工智能技術(shù)(實(shí)現(xiàn)人工智能技術(shù))的智能機(jī)器人(智能計(jì)算機(jī)信息系統(tǒng)),為了行文方便,本文也將人工智能體簡(jiǎn)稱(chēng)為人工智能。能否成為刑事責(zé)任主體的重要問(wèn)題。這“不但是只有明確誰(shuí)應(yīng)當(dāng)對(duì)人工智能‘失控’行為所造成的危害結(jié)果承擔(dān)刑事責(zé)任,才能夠以此為基準(zhǔn)建立起對(duì)于人工智能犯罪治理的法律體系”[1],“更是因?yàn)橹挥写_定了刑事責(zé)任主體,才可能有針對(duì)性地設(shè)置與適用歸責(zé)原則與刑罰措施”[2]。以是否承認(rèn)人工智能體的刑事責(zé)任主體地位為標(biāo)準(zhǔn),目前形成了肯定說(shuō)、否定說(shuō)與區(qū)分說(shuō)[2]。這些學(xué)術(shù)爭(zhēng)鳴,整體上仍限于刑法人這一文科群體的法學(xué)之視野,尚未能立于人工智能學(xué)科基于人工智能技術(shù)原理展開(kāi)探討。這種脫離人工智能技術(shù)原理,探討人工智能體的刑事責(zé)任主體地位的做法,給人以辭令技巧的空轉(zhuǎn)之嫌,也無(wú)法為人工智能法學(xué)的發(fā)展提供切實(shí)有效的理論指導(dǎo)。正如喻海松博士所言,“對(duì)網(wǎng)絡(luò)犯罪的研究,遵循先搞清技術(shù)原理再談法律的基本路徑,避免法律論證脫離技術(shù)原理‘自說(shuō)自話(huà)’”(2)參見(jiàn)海喻松《〈網(wǎng)絡(luò)犯罪二十講〉的基本進(jìn)路》,https://mp.weixin.qq.com/s/lvcWhGhM6loLTTFZHK3UCA,2022年11月10日訪(fǎng)問(wèn)。。畢竟,人工智能體的刑事責(zé)任主體地位的研究應(yīng)該建立在事實(shí)和規(guī)范之上,應(yīng)該在技術(shù)和法學(xué)的一體化上具有邏輯自洽性,而不是純粹化的主觀(guān)構(gòu)想?;谶@一問(wèn)題意識(shí),本文將基于技術(shù)原理和法學(xué)理論,采取一體化共視方式,探討人工智能體的刑事責(zé)任主體定位。
當(dāng)前,有不少法律人認(rèn)可具有自主意志的人工智能體,并承認(rèn)其具備法律責(zé)任主體地位。其主要理由如下。第一,強(qiáng)人工智能體具有辨認(rèn)能力和控制能力——這一人類(lèi)所具有的智能,因而具有刑事責(zé)任能力(3)有個(gè)別學(xué)者認(rèn)為,討論智能機(jī)器人具有辨認(rèn)能力和控制能力,其走入了一個(gè)誤區(qū),而應(yīng)立于社會(huì)防衛(wèi)論,創(chuàng)立以人工智能等科技風(fēng)險(xiǎn)為對(duì)象的“科技社會(huì)防衛(wèi)論”與“技術(shù)責(zé)任論”,將人工智能作為獨(dú)立的刑事責(zé)任主體,對(duì)具有實(shí)施了危害社會(huì)行為的人工智能施以技術(shù)危險(xiǎn)消除措施。參見(jiàn)黃云波《論人工智能時(shí)代的刑事責(zé)任主體:誤區(qū)、立場(chǎng)與類(lèi)型》,載《中國(guó)應(yīng)用法學(xué)》2019年第2期。。有學(xué)者認(rèn)為:“高級(jí)階段的智能機(jī)器人能夠脫離人類(lèi)的程序控制而行動(dòng),而具備了與人類(lèi)相同的辨認(rèn)能力及控制能力,若其在該項(xiàng)自由意志支配下實(shí)施了違法行為,則無(wú)法再將其作為一項(xiàng)工具而存在,而應(yīng)將其作為一個(gè)具有獨(dú)立承擔(dān)刑事責(zé)任能力的主體認(rèn)定?!盵3]也有學(xué)者認(rèn)為:“當(dāng)智能機(jī)器人在程序設(shè)計(jì)和編制范圍外實(shí)施嚴(yán)重危害社會(huì)的行為時(shí),智能機(jī)器人具有辨認(rèn)能力和控制能力,因而具有刑事責(zé)任能力,應(yīng)當(dāng)獨(dú)立承擔(dān)刑事責(zé)任。智能機(jī)器人與自然人可以成立共同犯罪,這樣處理符合共同犯罪客觀(guān)方面、主體方面的要求,有利于解決智能機(jī)器人與自然人的刑事責(zé)任分擔(dān)問(wèn)題?!盵4]還有學(xué)者認(rèn)為“強(qiáng)人工智能機(jī)器人具備刑事責(zé)任主體的核心要件一一辨認(rèn)、控制能力,因此強(qiáng)人工智能機(jī)器人能夠成為刑事責(zé)任主體?!盵5]第二,強(qiáng)人工智能體可以實(shí)施法律意義上的行為。有學(xué)者認(rèn)為,刑法上的行為不一定是“人”的行為,也可以是其他主體的行為?!皩?duì)于一個(gè)基于普通故意傷害的被害人而言,被自然人故意傷害與被智能機(jī)器人故意傷害并沒(méi)有什么本質(zhì)的區(qū)別?!盵6]第三,強(qiáng)人工智能體與人類(lèi)是平等的主體,兩者之間有主體間性。有學(xué)者認(rèn)為,“當(dāng)人工智能與人類(lèi)一樣具有自主意識(shí)后,雙方主體就是各自的自在此在和彼此的共同存在,兩個(gè)主體之間既是主體,也是客體,在物質(zhì)與精神的交往實(shí)踐中表現(xiàn)為主客體的二重性,并且與客觀(guān)世界并列存在”[7]。第四,強(qiáng)人工智能體與人類(lèi)有共情的可能性。有學(xué)者認(rèn)為,“智能機(jī)器人擁有人類(lèi)文明的基本素養(yǎng),懂得人類(lèi)表達(dá)或接受情感的方式,使用人類(lèi)的語(yǔ)言和文字,擁有與人類(lèi)相似的體貌特征,它們比動(dòng)物更理解人類(lèi)的想法。如果將智能機(jī)器人視作奴隸或工具,其社會(huì)圖景與奴隸制復(fù)活將沒(méi)有明顯差異”[8]。
對(duì)于上述見(jiàn)解,法學(xué)界也有不同聲音。有學(xué)者從三個(gè)方面否定人工智能體的適格刑事責(zé)任主體地位:第一,強(qiáng)人工智能存在難以跨越的技術(shù)瓶頸,無(wú)法實(shí)現(xiàn)跨界領(lǐng)域的認(rèn)識(shí)能力;第二,無(wú)論是內(nèi)生自發(fā),還是外在輸入,人工智能都無(wú)法生成意識(shí),因而無(wú)法具有自由意志;第三,人工智能不可能具有人類(lèi)的情感動(dòng)機(jī),無(wú)法體驗(yàn)犯罪之樂(lè)和刑罰之苦, 因而不是適格的受罰主體[9]。也有學(xué)者從實(shí)然和應(yīng)然兩個(gè)角度否定強(qiáng)人工智能體刑事主體地位,首先,超越編程外的人工智能不能形成自主獨(dú)立的程序,無(wú)法產(chǎn)生自由意志,也不能產(chǎn)生法規(guī)范意識(shí);其次,承認(rèn)人工智能體刑事主體地位,將會(huì)對(duì)傳統(tǒng)刑法理論帶來(lái)嚴(yán)重沖擊,刑事司法活動(dòng)無(wú)法展開(kāi),相關(guān)強(qiáng)人工智能體刑法立法也缺乏必要性和合理性;最后,強(qiáng)人工智能體不能類(lèi)比單位犯罪。
綜上,強(qiáng)人工智能體具有類(lèi)人般的智能性是人工智能體具有獨(dú)立法律主體資格的決定性因素。如果人工智能體不能具有類(lèi)人般的智能性,就沒(méi)有探討人工智能體的法律資格的必要。
人工智能技術(shù)專(zhuān)家認(rèn)可人工智能體具有自我意識(shí),具有類(lèi)人般的智能嗎?中國(guó)工程院院士、歐亞科學(xué)院院士、中國(guó)人工智能學(xué)會(huì)名譽(yù)理事長(zhǎng)、軍事科學(xué)院系統(tǒng)工程研究院李德毅研究員認(rèn)為,“新一代人工智能將從傳統(tǒng)的計(jì)算機(jī)智能躍升為無(wú)意識(shí)的類(lèi)腦智能,是人類(lèi)智能的體外延伸,不涉及生命和意識(shí),由人賦予意圖,通過(guò)有指導(dǎo)的傳承學(xué)習(xí)和自主學(xué)習(xí),能夠與時(shí)俱進(jìn)地解釋、解決新的智力問(wèn)題,形成有感知、有認(rèn)知、有行為、可交互、會(huì)學(xué)習(xí)、自成長(zhǎng)的新一代人工智能——智能機(jī)器”“原始的自我意識(shí)是低級(jí)意識(shí),只有自己本人才能體驗(yàn)到這種意識(shí)的存在,正所謂‘我思故我在’,在此之上,才談得上高級(jí)意識(shí)或更高級(jí)的群體意識(shí)”“而要制造出類(lèi)似人類(lèi)皮膚這樣敏感的人工感知膜、電子皮膚甚至量子皮膚,還來(lái)日方長(zhǎng),也許要一百年”“對(duì)于高等生物而言,意識(shí)和智能是智慧的基礎(chǔ)”“新一代人工智能不觸及意識(shí)”“當(dāng)前的人工智能都是專(zhuān)設(shè)智能,它們只能按照程序員的設(shè)定,完成特定的任務(wù)目標(biāo)”[10]。國(guó)際核能院院士、中國(guó)人工智能學(xué)會(huì)不確定性人工智能專(zhuān)委會(huì)主任張勤教授指出,“事實(shí)上,計(jì)算機(jī)只能執(zhí)行人事先設(shè)定的程序(包括算法和數(shù)據(jù)),不具有真正意義上的智能,至少目前如此”。人工智能和人“一個(gè)顯著的區(qū)別是:人能夠通過(guò)自我意識(shí)理解事物,而計(jì)算機(jī)沒(méi)有自我意識(shí),也理解不了事物(缺少理解主體)。從這個(gè)意義上講,學(xué)習(xí)(Learning)這個(gè)詞用在計(jì)算機(jī)上是不恰當(dāng)?shù)?。擬合(Fitting)更準(zhǔn)確,但不夠吸睛”[11]。中國(guó)工程院院士、清華大學(xué)信息學(xué)院院長(zhǎng)戴瓊海教授指出,“人工智能的問(wèn)題所在——難以理解場(chǎng)景與對(duì)象間的關(guān)系,人工智能能干成年人干的活,但理解能力不如一歲的孩子”(4)參見(jiàn)戴瓊?!度斯ぶ悄芪磥?lái)的理解與創(chuàng)造》,http://aiig.tsinghua.edu.cn/info/1296/1551.htm,2022年11月6日訪(fǎng)問(wèn)。。在2022年11月6日第五屆世界頂尖科學(xué)家論壇開(kāi)幕式上,首屆世界頂尖科學(xué)家協(xié)會(huì)獎(jiǎng)“智能科學(xué)或數(shù)學(xué)獎(jiǎng)”得主——美國(guó)計(jì)算機(jī)科學(xué)與統(tǒng)計(jì)學(xué)家邁克爾·I·喬丹在其主旨演講中認(rèn)為,“到目前為止,計(jì)算機(jī)還不能像人類(lèi)一樣進(jìn)行思考,因?yàn)槿祟?lèi)是很復(fù)雜、精妙的”“‘機(jī)器學(xué)習(xí)’是讓計(jì)算機(jī)輔助人類(lèi),而不是開(kāi)發(fā)一個(gè)和人類(lèi)一樣的‘類(lèi)人計(jì)算機(jī)’,是把人和人、人和市場(chǎng)、人和物件等聯(lián)系起來(lái)”(5)參見(jiàn)《“機(jī)器學(xué)習(xí)”將如何影響我們?首屆世界頂尖科學(xué)家協(xié)會(huì)獎(jiǎng)得主這樣說(shuō)》,https://view.inews.qq.com/k/20221106A03UW300,2022年11月8日訪(fǎng)問(wèn)。。在2022年10月22日“智行中國(guó)”系列論壇第一期“邁向教育科學(xué)研究新范式”上,美國(guó)科學(xué)院院士、中國(guó)科學(xué)院外籍院士、世界著名數(shù)學(xué)家丘成桐在其主旨演講中認(rèn)為,DeepMind(6)DeepMind位于英國(guó)倫敦,是由人工智能程序師兼神經(jīng)科學(xué)家戴密斯·哈薩比斯(Demis Hassabis)等人聯(lián)合創(chuàng)立的Google旗下前沿人工智能企業(yè)。其將機(jī)器學(xué)習(xí)和系統(tǒng)神經(jīng)科學(xué)的最先進(jìn)技術(shù)結(jié)合起來(lái),建立強(qiáng)大的通用學(xué)習(xí)算法。的工作確是人工智能進(jìn)展的里程碑,“開(kāi)始可以解決一些比較理論的問(wèn)題,但是離人類(lèi)思考的能力還是相當(dāng)?shù)倪b遠(yuǎn)”“到目前為止,人工智能還沒(méi)有能力問(wèn)一個(gè)既有意義又有深度的問(wèn)題”(7)參見(jiàn)丘成桐《人工智能與學(xué)“問(wèn)”》,https://m.sohu.com/a/602657176_121119002,2022年11月8日訪(fǎng)問(wèn)。。如肯定論者常引用2017年10月被沙特阿拉伯授予公民身份的智能機(jī)器人索菲亞,將其視為AI挑戰(zhàn)現(xiàn)行法律體的個(gè)例。對(duì)此,李開(kāi)復(fù)先生評(píng)論道,索菲亞“絲毫沒(méi)有人性、人的理解、愛(ài)心、創(chuàng)造力。授予這樣一臺(tái)只會(huì)模式識(shí)別的機(jī)器‘公民’,是對(duì)人類(lèi)最大的羞辱和誤導(dǎo)。一個(gè)國(guó)家用這種嘩眾取寵的方式來(lái)推進(jìn)人工智能科研,只會(huì)適得其反”[12]。還有專(zhuān)家評(píng)論道,“索菲亞之于A(yíng)I,就像變戲法的之于真正的魔法,我們把它稱(chēng)作‘AI崇拜’‘假冒AI’或者‘遠(yuǎn)程操控AI’可能比較好”(8)同上注。。
以智能司法為例,我國(guó)刑事司法人工智能走在世界前列,各地積極研發(fā)、應(yīng)用刑事司法人工智能系統(tǒng),幾乎實(shí)現(xiàn)對(duì)刑事訴訟流程的全覆蓋。此類(lèi)司法智能系統(tǒng)大致可以分為:智能輔助決策應(yīng)用系統(tǒng)(如智能輔助量刑系統(tǒng))、智能輔助支持系統(tǒng)(如智能類(lèi)案檢索系統(tǒng))、案件管理應(yīng)用系統(tǒng)(如智能案管系統(tǒng))、訴訟服務(wù)應(yīng)用系統(tǒng)(智能訴訟服務(wù)平臺(tái))。人工智能技術(shù)的深入運(yùn)用,實(shí)現(xiàn)了以往司法難以完成的任務(wù)。例如,智能輔助量刑系統(tǒng)可以解決量刑規(guī)則不明確的問(wèn)題,有力推進(jìn)量刑規(guī)范化,因而實(shí)務(wù)部門(mén)提出,要進(jìn)一步提高量刑智能化水平(9)參見(jiàn)陳學(xué)勇《更高水平推進(jìn)量刑規(guī)范化工作》,https://www.chinacourt.org/article/detail/2020/11/id/5562775.shtml,2020年11月7日訪(fǎng)問(wèn)。,加強(qiáng)智慧檢務(wù)建設(shè),增加法律檢索、類(lèi)案分析、量刑輔助等功能(10)參見(jiàn)《最高檢張軍檢察長(zhǎng)向全國(guó)人大常委會(huì)作認(rèn)罪認(rèn)罰從寬制度適用情況報(bào)告》,https://mp.weixin.qq.com/s/PvUjrNntddwcYfAGrHkfIA,2022年10月14日訪(fǎng)問(wèn)。。又如,實(shí)時(shí)從海量司法數(shù)據(jù)中發(fā)現(xiàn)問(wèn)題,實(shí)現(xiàn)全程、自動(dòng)、靜默和可視化精準(zhǔn)監(jiān)管(如量刑偏離監(jiān)測(cè)),這將大大提升監(jiān)管的質(zhì)效。這都表明,將人工智能、大數(shù)據(jù)挖掘等技術(shù)和政法專(zhuān)業(yè)知識(shí)深度融合,就不同監(jiān)管場(chǎng)景研發(fā)所需系統(tǒng),智能化監(jiān)督手段,是實(shí)現(xiàn)案件管理監(jiān)督能力現(xiàn)代化必然選擇(11)筆者主持研發(fā)的《智能量刑偏離監(jiān)測(cè)系統(tǒng)》,可有效監(jiān)測(cè)宏觀(guān)的案件量刑偏離情況以及微觀(guān)的個(gè)案量刑偏離程度,受到司法實(shí)踐的高度認(rèn)可,獲全國(guó)政法智能化建設(shè)智慧檢務(wù)創(chuàng)新產(chǎn)品稱(chēng)號(hào)。?!拔磥?lái)應(yīng)當(dāng)秉持以人為本、技術(shù)賦權(quán)理念,重塑人機(jī)關(guān)系新格局下的價(jià)值取向和行為準(zhǔn)則,遵循法律公平正義的價(jià)值追求,構(gòu)建人機(jī)協(xié)同司法治理新格局?!盵13]若持人工智能體具有自主意志因而具備認(rèn)識(shí)和控制能力這一觀(guān)點(diǎn),那人工智能的司法應(yīng)用將受到極大壓縮——擔(dān)憂(yōu)司法被人工智能所操控,形成脫序的裁判。不過(guò),從技術(shù)層面上看,這種擔(dān)憂(yōu)是不合理的,因?yàn)槿斯ぶ悄苤荒茌o助保障司法,而不會(huì)主宰操控司法?!霸谶@樣的現(xiàn)代法治體制面前,大數(shù)據(jù)、云計(jì)算、信息技術(shù)、人工智能都只是實(shí)現(xiàn)合法正義的輔助手段,切不可本末倒置。”[14]
綜上,在技術(shù)原理上,人工智能專(zhuān)家們就人工智能體的智能性定位可以總結(jié)如下。第一,人工智能系統(tǒng)是計(jì)算機(jī)系統(tǒng),屬于物理機(jī)器的一部分,不是人工創(chuàng)造出的生命。從進(jìn)化論的角度來(lái)看,無(wú)機(jī)物先進(jìn)化為有機(jī)物,再到無(wú)智能的生命體以及有智能的生命體。對(duì)尚不具有生命的物賦予主體資格,不符合進(jìn)化論的基本規(guī)律。第二,形成人類(lèi)智能的一個(gè)條件是具有自我意識(shí),即能對(duì)自身存在的感知,以及對(duì)自己行為和驅(qū)動(dòng)行為原因的感知,而這種意識(shí)不可以人造(只有誕生人工生命之后,也許才談得上人工意識(shí))。人工智能體沒(méi)有自我意識(shí),這是它和人的根本性區(qū)別,因而它理解不了周?chē)氖挛?。第?人工智能技術(shù)或者系統(tǒng),是對(duì)人腦智能的模擬,是人類(lèi)智能的體外延伸,但其智能水準(zhǔn)和人類(lèi)的思考能力相距遙遠(yuǎn)。雖然在特定領(lǐng)域人工智能體展現(xiàn)出遠(yuǎn)超常人的數(shù)據(jù)處理能力(如圍棋等棋類(lèi)游戲),但是,就知識(shí)的綜合能力來(lái)看,人工智能體則顯得格外薄弱,如跨領(lǐng)域的知識(shí)匯總、提煉、創(chuàng)造能力,更沒(méi)有對(duì)人類(lèi)感情的理解能力。所謂類(lèi)人般的智能,至今仍是遙不可及。由此可見(jiàn),在人工智能專(zhuān)家們的眼里,人工智能系統(tǒng)僅為對(duì)人類(lèi)智慧的模擬,本身并不具有人類(lèi)所具有的自我意識(shí),而意識(shí)是主體內(nèi)在能動(dòng)的自我認(rèn)識(shí)和自我控制的基礎(chǔ),因此,人工智能體不具有類(lèi)人般的辨認(rèn)能力和控制能力,其本質(zhì)仍屬于受人類(lèi)操控的物理世界的機(jī)器。
由于ChatGPT的誕生,因此,不少人認(rèn)為強(qiáng)人工智能時(shí)代的出現(xiàn)已經(jīng)并不遙遠(yuǎn),并以作為強(qiáng)人工智能體具有刑事責(zé)任主體地位的重要論據(jù)[15]。誠(chéng)然,ChatGPT所應(yīng)用的大語(yǔ)言模型在模擬人類(lèi)思維方面已經(jīng)取得巨大的進(jìn)步。但是,這種模擬也是在人類(lèi)現(xiàn)有語(yǔ)料填充下的訓(xùn)練結(jié)果。從整合資料到富有創(chuàng)造性的獨(dú)立思考之間究竟還有多遠(yuǎn)的距離,沒(méi)有人能夠給一個(gè)時(shí)間表。至于這一天能否會(huì)到來(lái),實(shí)際上也是個(gè)未知之?dāng)?shù)。因此,有學(xué)者指出,“強(qiáng)人工智能不過(guò)是一種虛構(gòu)的擔(dān)憂(yōu)”[16]。更何況,即使強(qiáng)人工智能體真的出現(xiàn),那時(shí)也可能發(fā)生不可想象的變化?,F(xiàn)行刑法理論體系是否仍然能夠適用,也成為問(wèn)題。更何況,在強(qiáng)人工智能體具有人類(lèi)的思維能力的情況下,其是否還會(huì)與人類(lèi)和平共存,也大有疑問(wèn)。從國(guó)際關(guān)系的發(fā)展經(jīng)驗(yàn)來(lái)看,同為人類(lèi),但不同國(guó)家和民族之間的沖突都此起彼伏。人類(lèi)與強(qiáng)人工智能體的沖突似乎難以避免。從這個(gè)角度來(lái)看,是否應(yīng)當(dāng)讓脫離人類(lèi)控制的強(qiáng)人工智能體出現(xiàn),更為緊迫。因此,在強(qiáng)人工智能體真正出現(xiàn)之前,就去討論其刑事責(zé)任主體問(wèn)題,實(shí)在有點(diǎn)不著邊際。
由以上可見(jiàn),從技術(shù)角度,人工智能專(zhuān)家們基于技術(shù)實(shí)現(xiàn)的原理以及自我意識(shí)實(shí)現(xiàn)的精細(xì)化與復(fù)雜性,否認(rèn)了人工智能體的存在,而部分法學(xué)專(zhuān)家則從邏輯推理中論證并肯定了人工智能體的存在。從技術(shù)原理視角看,上述肯定論者的觀(guān)點(diǎn)當(dāng)前缺乏事實(shí)及技術(shù)實(shí)現(xiàn)的依據(jù),脫離人工智能的本質(zhì),屬于假設(shè)性理論構(gòu)想。換言之,肯定論者對(duì)“智能機(jī)器人具有辨認(rèn)能力和控制能力”這一論斷,缺乏事實(shí)層面的追問(wèn)——智能機(jī)器人具有辨認(rèn)能力和控制能力的事實(shí)根據(jù)是什么?目前及以后的技術(shù)實(shí)現(xiàn)是否具有可行性?應(yīng)該如何實(shí)現(xiàn)?當(dāng)然,盡管法學(xué)研究應(yīng)具有適度的超前性(預(yù)見(jiàn)性),但這種超前性仍應(yīng)有現(xiàn)實(shí)基礎(chǔ),否則易滑入“幻想”境地。在技術(shù)原理上,人工智能專(zhuān)家認(rèn)為人工智能只是人類(lèi)智能的模擬,沒(méi)有自我意識(shí),屬于物理機(jī)器范疇——自我意識(shí)不可以人造(只有誕生人工生命之后,也許才談得上人工意識(shí))。因此,可以認(rèn)為肯定論者這種假設(shè)性理論構(gòu)想,當(dāng)前缺乏技術(shù)原理上的現(xiàn)實(shí)基礎(chǔ)。
(強(qiáng))人工智能體具備了自我意識(shí),能就其外部環(huán)境主動(dòng)性地進(jìn)行自我辨認(rèn)并控制自己的行為,可以達(dá)到人類(lèi)的刑事責(zé)任能力程度的智能水平,因而人工智能體能夠具備法律主體資格,如成為刑事責(zé)任主體。但是,這個(gè)邏輯顯然難以成立。刑事責(zé)任能力作為責(zé)任要素,不僅僅具有事實(shí)性,還具有規(guī)范性。關(guān)于刑事責(zé)任能力的意義,在學(xué)界曾有爭(zhēng)議。根據(jù)新派的社會(huì)防衛(wèi)論,對(duì)行為人適用刑罰只需要考慮特殊預(yù)防的必要性,而不用考慮行為人是否具有責(zé)任能力。但是,這種觀(guān)點(diǎn)被認(rèn)為是對(duì)人權(quán)和自由的踐踏,不為我國(guó)刑法所采納。也就是說(shuō),以責(zé)任能力作為犯罪要素,是出于保障人權(quán)的一個(gè)規(guī)范性判斷。假如刑法的目的只是特殊預(yù)防,就沒(méi)有必要再去討論責(zé)任能力的問(wèn)題。因此,所謂“強(qiáng)人工智能體具有責(zé)任能力”的命題,其實(shí)是跳躍了一個(gè)重要的判斷前提,即是否需要保障人工智能體的人權(quán)。如果認(rèn)為,承擔(dān)刑事責(zé)任的關(guān)鍵在于行為主體能夠意識(shí)到自身行為的社會(huì)屬性并在自我意志控制下實(shí)施行為,那么,在技術(shù)實(shí)現(xiàn)不可行的情況下,由于人工智能體沒(méi)有自我意識(shí),則談不上意識(shí)到自身行為的社會(huì)屬性并在自我意志控制下實(shí)施行為的這種能力。這種缺乏刑法評(píng)價(jià)意義上的行為認(rèn)識(shí)與控制要素的自主性(刑事可答責(zé)的基礎(chǔ)),不能認(rèn)定為具有刑事責(zé)任的適格主體。不過(guò),認(rèn)為刑事責(zé)任主體的適格要求并不是主體的認(rèn)識(shí)能力和控制能力,即并不需要其有自我認(rèn)識(shí)意識(shí)這一前提要素,如刑罰可施于動(dòng)植物,這一觀(guān)點(diǎn)已不被現(xiàn)代刑法及其理論所認(rèn)可。當(dāng)然,有個(gè)別學(xué)者認(rèn)為,討論智能機(jī)器人具有辨認(rèn)能力和控制能力,其走入了一個(gè)誤區(qū),而應(yīng)立于社會(huì)防衛(wèi)論,創(chuàng)立以人工智能等科技風(fēng)險(xiǎn)為對(duì)象的“科技社會(huì)防衛(wèi)論”與“技術(shù)責(zé)任論”,將人工智能作為獨(dú)立的刑事責(zé)任主體,對(duì)具有實(shí)施了危害社會(huì)行為的人工智能施以技術(shù)危險(xiǎn)消除措施[17]。筆者認(rèn)為,這一觀(guān)點(diǎn)只是借刑法之名,行技術(shù)措施之實(shí)。若將技術(shù)危險(xiǎn)消除措施納入刑罰圈,無(wú)疑極大地泛化了刑法,可能會(huì)導(dǎo)致刑法名存實(shí)亡。當(dāng)前技術(shù)危險(xiǎn)消除措施,可謂俯拾皆是;換而言之,基于“科技社會(huì)防衛(wèi)論”與“技術(shù)責(zé)任論”,將技術(shù)危險(xiǎn)消除措施納入刑罰圈,從而將人工智能體作為獨(dú)立的刑事責(zé)任主體,事實(shí)上混淆了刑法和其他技術(shù)危險(xiǎn)消除措施規(guī)范的界限。
支持人工智能體可以具備刑事責(zé)任主體資格的學(xué)者,就其對(duì)應(yīng)的刑罰措施也進(jìn)行了深入構(gòu)建。如劉憲權(quán)教授認(rèn)為,智能機(jī)器人不享有財(cái)產(chǎn)權(quán),不享有參與政治生活的權(quán)利,不存在“人身權(quán)”,不具有生命,我國(guó)刑法規(guī)定的主刑(管制、拘役、有期徒刑、無(wú)期徒刑、死刑)和附加刑(罰金、剝奪政治權(quán)利、沒(méi)收財(cái)產(chǎn)),不能滿(mǎn)足人工智能時(shí)代對(duì)智能機(jī)器人的特殊處罰需求,適用于智能機(jī)器人的刑罰可以有三種,即刪除數(shù)據(jù)、修改程序、永久銷(xiāo)毀[4]。又如,盧勤忠教授認(rèn)為,“強(qiáng)人工智能時(shí)代應(yīng)采取新型社會(huì)責(zé)任論,強(qiáng)人工智能機(jī)器人承擔(dān)刑事責(zé)任的基礎(chǔ)是其對(duì)人類(lèi)社會(huì)造成的威脅。在強(qiáng)人工智能時(shí)代,應(yīng)通過(guò)刪除數(shù)據(jù)、修改程序和永久銷(xiāo)毀等契合強(qiáng)人工智能機(jī)器人特征的刑罰處罰方式來(lái)實(shí)現(xiàn)刑罰報(bào)應(yīng)和預(yù)防的雙重目的”[5]。再如,有學(xué)者認(rèn)為,若賦予人工智能產(chǎn)品刑事責(zé)任的主體地位,則可以考慮報(bào)廢、回收改造、罰金等特殊的刑罰措施,報(bào)廢是對(duì)人工智能產(chǎn)品最嚴(yán)厲的處罰措施,回收改造人工智能產(chǎn)品可以考慮回收、中斷智能程序?qū)ζ溥M(jìn)行改造,罰金是對(duì)實(shí)施情節(jié)輕微犯罪的人工智能產(chǎn)品的不錯(cuò)選擇[3]。與此類(lèi)似,哈佛大學(xué)法學(xué)院萊西希教授認(rèn)為,規(guī)制智能機(jī)器人時(shí),結(jié)構(gòu)程序規(guī)制極具針對(duì)性,對(duì)機(jī)器人進(jìn)行編碼是我們調(diào)節(jié)它們的大門(mén),結(jié)構(gòu)程序規(guī)制可謂是對(duì)癥下藥的特別處罰措施[18](以下行文,刑罰措施均指上述論者提倡的針對(duì)智能主體的處罰措施)。筆者曾經(jīng)也認(rèn)為,以強(qiáng)人工智能產(chǎn)品為對(duì)象,在設(shè)計(jì)具體的刑罰措施與體系時(shí),刪除數(shù)據(jù)、修改程序、永久銷(xiāo)毀是一種具有可行性的選擇[19]。對(duì)此,如今在技術(shù)和法學(xué)共視下,不免存在這樣的疑問(wèn)。一方面,“刪除數(shù)據(jù)”之類(lèi)的措施,是否真的為刑罰方式?刑罰的本質(zhì)在于報(bào)應(yīng),目的在于預(yù)防。所謂報(bào)應(yīng),對(duì)于犯罪行為,需要施以嚴(yán)厲程度對(duì)等的刑罰措施,從而使受到破壞的法秩序得以恢復(fù)。就此而言,“刪除數(shù)據(jù)”等措施不可能限于與人工智能體因故障所造成的損害范圍,也就不能貫徹報(bào)應(yīng)的要求。另外,“刪除數(shù)據(jù)”等措施也不可能實(shí)現(xiàn)一般預(yù)防的目的。所謂一般預(yù)防,是指通過(guò)刑事立法以及刑罰的適用,防止一般人以及潛在的犯罪人實(shí)施犯罪行為。如果“刪除數(shù)據(jù)”等措施要有一般預(yù)防功能,就需要讓一般人工智能體由于這些措施的實(shí)施而感到“恐懼”或者產(chǎn)生“對(duì)法忠誠(chéng)”的積極情感。這無(wú)論如何都有點(diǎn)不可思議。那么,刪除數(shù)據(jù)等措施就剩下特殊預(yù)防功能。也就是說(shuō),通過(guò)刪除數(shù)據(jù)等措施,防止人工智能體再次出現(xiàn)故障或者失靈并由此造成損害。這就與對(duì)精神病人實(shí)施的保安處分措施無(wú)異。因此,所謂刪除數(shù)據(jù)等措施不符合刑罰的基本特征。另一方面,刑罰是懲罰,對(duì)犯罪人會(huì)帶來(lái)痛苦,那智能機(jī)器人能否感受“刪除數(shù)據(jù)”等措施的“痛苦”?痛苦是主體的神經(jīng)系統(tǒng)對(duì)外在環(huán)境不利因素的應(yīng)激反應(yīng)。刑罰中的痛苦有三重意義:一是讓犯罪人感受痛苦,使其記住刑罰的教訓(xùn),不再重蹈覆轍;二是讓一般人和潛在的犯罪人預(yù)測(cè)犯罪行為帶來(lái)的痛苦,從而遏制其實(shí)施犯罪的意識(shí);三是激發(fā)有關(guān)痛苦的通感,從而將刑罰控制在人道合理的范圍。顯然,人工智能體沒(méi)有生命,也就無(wú)法發(fā)展出可以感知痛苦的神經(jīng)系統(tǒng)。那么,刪除數(shù)據(jù)等措施對(duì)于人工智能體而言就不可能成為一種令其痛苦的手段,也就不能納入刑罰的范疇。
既然“刪除數(shù)據(jù)”等措施不能納入刑罰范疇,那么,在強(qiáng)人工智能還未明朗的背景下討論這些刑罰措施是否屬于科幻式探討?“刪除數(shù)據(jù)”等是部分學(xué)者在當(dāng)前弱人工智能時(shí)代所想象的刑罰措施。但是,這些措施的適用對(duì)象是強(qiáng)人工智能體。那么,當(dāng)前的想象恐怕沒(méi)有實(shí)際效用。如果真的如部分學(xué)者所言,強(qiáng)人工智能具有辨認(rèn)與控制能力,那么,人工智能體的自我學(xué)習(xí)已經(jīng)是正常運(yùn)行的程序,智能體對(duì)于何時(shí)可以干預(yù)程序,能否啟動(dòng)程序修改等簡(jiǎn)單的編程代碼已經(jīng)具有了智能化的識(shí)別并可以通過(guò)強(qiáng)智能化手段進(jìn)行判斷和干預(yù),所謂的刪除數(shù)據(jù)、修改程序、永久銷(xiāo)毀等刑罰措施還能存在嗎?尤其是強(qiáng)人工智能體被界定為不受人類(lèi)束縛的主體,以其強(qiáng)大的數(shù)據(jù)處理能力,對(duì)于人類(lèi)的生存而言已是極大的威脅。如果強(qiáng)人工智能體已經(jīng)擁有不受控制的智能,就很難想象其會(huì)服從人類(lèi)律法。到了那時(shí)候,究竟是強(qiáng)人工智能體制裁人類(lèi)還是人類(lèi)制裁強(qiáng)人工智能體,尚屬未知之?dāng)?shù)。因此,所謂“刪除數(shù)據(jù)”等刑罰措施基本上是有限想象力下的一廂情愿。
現(xiàn)代刑法理論認(rèn)為,刑罰具有針對(duì)性和懲罰性;如現(xiàn)行刑法中的刑罰種類(lèi),都是針對(duì)人類(lèi)具有的某種權(quán)益進(jìn)行剝奪,使其遭受痛苦。暫且不論懲罰性,刪除數(shù)據(jù)、修改程序、永久銷(xiāo)毀此類(lèi)措施,對(duì)智能機(jī)器人是否具有針對(duì)性(特定性)。若回答是否定的,在技術(shù)層面上,將這些措施理解為機(jī)器維修更為妥當(dāng)。
一方面,刪除數(shù)據(jù)、修改程序、永久銷(xiāo)毀等措施,根本不具有對(duì)智能主體的針對(duì)性。今天大眾使用的計(jì)算機(jī)、各種軟件和電子設(shè)備等,對(duì)其進(jìn)行數(shù)據(jù)刪除、程序修改、銷(xiāo)毀回收等,這再稀松平常不過(guò)。事實(shí)上,自人類(lèi)社會(huì)進(jìn)入電子工具時(shí)代,工具中各種電子部件的維修,無(wú)不包含增刪數(shù)據(jù)、修改程序、永久銷(xiāo)毀(更換新硬件);若再向前推,對(duì)農(nóng)耕馬車(chē)、蒸汽機(jī)車(chē)之處理,也包含永久銷(xiāo)毀。因此,刪除數(shù)據(jù)、修改程序、永久銷(xiāo)毀等措施,在智能時(shí)代仍應(yīng)視為是一種機(jī)器維修手段,是人類(lèi)維護(hù)所使用工具行為的自然延續(xù)。另一方面,刪除數(shù)據(jù)、修改程序、永久銷(xiāo)毀等措施,盡管可能是法定措施,但其仍然應(yīng)該理解為是一種基于產(chǎn)品監(jiān)管而采取的技術(shù)處置措施。例如,汽車(chē)產(chǎn)品召回制度,規(guī)定了法定的要求和程序,由缺陷汽車(chē)產(chǎn)品制造商承擔(dān)消除其產(chǎn)品缺陷的義務(wù);這里的“消除”就包括對(duì)汽車(chē)部件的刪除數(shù)據(jù)、修改程序、永久銷(xiāo)毀等措施。至于制造商采取何種維修汽車(chē)的方式,則取決于實(shí)際所需,根本不需要什么法律上的正當(dāng)化根據(jù),更無(wú)需依司法程序予以實(shí)施。因此,即使針對(duì)智能主體的刪除數(shù)據(jù)、修改程序、永久銷(xiāo)毀等措施具有法定性,也只是一種行政管理手段,而非懲罰性措施。就此,正如冀洋博士所言,肯定人工智能體刑事責(zé)任主體地位的學(xué)說(shuō),將簡(jiǎn)單問(wèn)題復(fù)雜化之后,自我織造出“‘刑罰——非刑罰’的悖論:以設(shè)計(jì)新刑罰為目標(biāo),而最終提出的‘刑種’只是人們?cè)谠O(shè)備養(yǎng)護(hù)上的三項(xiàng)常規(guī)操作而已,不具有絲毫的刑罰實(shí)質(zhì);以刑法為出發(fā)點(diǎn),最終將刑法變?yōu)榧夹g(shù)管理法甚至‘機(jī)器維修手冊(cè)’(能修就修,不能修就報(bào)廢)”[20]。也正如皮勇教授所言,探討智能主體的刑罰制度,需保持刑法體系的協(xié)調(diào),否則,“不僅會(huì)破壞刑法體系的系統(tǒng)性,處罰人工智能系統(tǒng)的規(guī)定在本質(zhì)上不是刑法,而是人工智能系統(tǒng)處置法”[21]。
因此,所謂對(duì)強(qiáng)人工智能體適用的刑罰措施只不過(guò)徒有刑罰之名,在本質(zhì)上來(lái)講只不過(guò)是行政管理或技術(shù)管理的措施而已。將這些措施冠以刑罰之名,反而會(huì)造成諸多問(wèn)題。首先,會(huì)嚴(yán)重浪費(fèi)司法資源。刑罰作為最為嚴(yán)厲的懲罰措施,有著最為嚴(yán)格的適用程序。按照刑事訴訟規(guī)則追究強(qiáng)人工智能體的刑事責(zé)任,就需要賦予其與自然人對(duì)等的辯護(hù)權(quán)利,甚至要適用非法證據(jù)排除規(guī)則。實(shí)際上,就連強(qiáng)人工智能責(zé)任主體論者也不會(huì)認(rèn)同這一做法。其次,如果承認(rèn)強(qiáng)人工智能體的刑事責(zé)任主體地位,就相當(dāng)于將其視為犯罪人。犯罪人也是人,應(yīng)當(dāng)有人權(quán)。“刑法不僅是善良人的大憲章,還是犯罪人的大憲章?!币虼?出于保障人權(quán)的刑法基本原則,不能對(duì)強(qiáng)人工智能體適用違反人道主義的刑罰。那么,刪除數(shù)據(jù)、修改程序和永久銷(xiāo)毀等措施是否屬于特別殘忍、侵犯強(qiáng)人工智能體的人權(quán),就存在疑問(wèn)。但對(duì)此問(wèn)題,強(qiáng)人工智能責(zé)任主體論者似乎并不關(guān)心。再者,刪除數(shù)據(jù)、修改程序、永久銷(xiāo)毀等措施在當(dāng)前這個(gè)非強(qiáng)人工智能時(shí)代司空見(jiàn)慣,但強(qiáng)人工智能時(shí)代的機(jī)器人是何等模樣,其技術(shù)處置有哪些,目前基本靠“猜”。然而,今天非強(qiáng)人工智能時(shí)代的措施能否適用于將來(lái)強(qiáng)人工智能時(shí)代,或者將今天的措施套接在未知的智能時(shí)代,會(huì)不會(huì)是一種良好愿望下的“時(shí)空錯(cuò)位”?如,奴隸時(shí)代的炮烙套接今天的死刑顯然不妥,罰金刑也未曾出現(xiàn)在奴隸時(shí)代刑罰的體系中。
若認(rèn)可刪除數(shù)據(jù)、修改程序、永久銷(xiāo)毀等措施,可以作為智能主體的刑罰方式,但是否有必要進(jìn)一步推敲:這些措施對(duì)智能主體可行嗎?例如,智能主體憑什么“束手就擒”甘愿被刪除數(shù)據(jù)?刪除的數(shù)據(jù)難道智能主體不能自我恢復(fù)嗎?同理,修改程序、永久銷(xiāo)毀為什么可行?
肯定智能主體的學(xué)說(shuō)認(rèn)為,智能主體具有刑法意義上的認(rèn)識(shí)和控制能力,確認(rèn)其刑法主體,有利于刑法的一般預(yù)防。如劉憲權(quán)教授認(rèn)為,“人工智能時(shí)代的到來(lái)使得我們不得不警惕人類(lèi)設(shè)計(jì)和編制的程序無(wú)法完全控制住‘頭腦’越來(lái)越發(fā)達(dá)的智能機(jī)器人的行為,智能機(jī)器人完全可能按照自主意識(shí)和意志實(shí)施嚴(yán)重危害社會(huì)的犯罪行為”,在這種情況下,“智能機(jī)器人完全具有獨(dú)立的辨認(rèn)能力與控制能力,可以成為刑事責(zé)任主體并需要承擔(dān)刑事責(zé)任”[22]。又如學(xué)者王耀彬認(rèn)為:“首先,類(lèi)人型人工智能實(shí)體相較于動(dòng)物、單位與自然人的相似程度更高,包含了法律設(shè)定主體的本質(zhì)要素——理性,并具備了侵犯法益的可能性,從而增強(qiáng)了賦予其刑事責(zé)任主體地位的必要性;其次,從刑法內(nèi)部構(gòu)成的教義學(xué)層面分析,類(lèi)人型人工智能實(shí)體具備刑法上的認(rèn)知控制能力及受刑能力,能夠成為刑事責(zé)任主體,以預(yù)防智能犯罪,遵從刑事責(zé)任主體基本內(nèi)涵的統(tǒng)一性與罪責(zé)自負(fù)原則?!盵23]
基于上述肯定論,可以推斷:強(qiáng)智能主體,無(wú)論在其心智智力(算力),還是物理體力上(機(jī)械力),均遠(yuǎn)超人類(lèi),和人類(lèi)完全不在一個(gè)數(shù)量級(jí);人類(lèi)所能設(shè)想到的所有可能的懲罰性措施,均應(yīng)在智能主體的掌控之中。若是如此,智能主體既然懂得趨利避害,自然有所防備。當(dāng)前構(gòu)想的刪除數(shù)據(jù)、修改程序、永久銷(xiāo)毀等措施,實(shí)施中可能都會(huì)成為泡影。例如針對(duì)刪除數(shù)據(jù),智能主體會(huì)自我備份;即使刪除某一智能主體的特定數(shù)據(jù)(包括備份),它仍然可以向其同類(lèi)復(fù)制相關(guān)數(shù)據(jù);再者,在萬(wàn)物互聯(lián)的智能時(shí)代,智能主體的數(shù)據(jù)以什么形式、保存何處,共享到什么程度,都只屬于今天人類(lèi)的科幻構(gòu)想。當(dāng)然,肯定論者可以認(rèn)為,人類(lèi)可以通過(guò)物理強(qiáng)力控制單一智能主體,強(qiáng)行切斷其聯(lián)網(wǎng)功能,進(jìn)而清洗式刪除其數(shù)據(jù)。然而,按論者的觀(guān)點(diǎn),智能時(shí)代的物理力可能早已被智能主體所操控,我們又怎么能指望利用甲智能主體去控制乙智能主體呢?畢竟甲乙是同類(lèi),和人類(lèi)是異類(lèi)。再如,銷(xiāo)毀措施也同樣不可行,一方面智能主體可以通過(guò)流水線(xiàn)生產(chǎn),銷(xiāo)毀某一個(gè)還有千千萬(wàn)萬(wàn);另一方面智能主體完全可以自我克隆,形成真身千千萬(wàn)萬(wàn)?!凹词故顷P(guān)閉甚至刪除人工智能系統(tǒng),也不同于自然人的死亡,因其能以完全獨(dú)立的信息運(yùn)行狀態(tài)‘復(fù)活’。”[21]
若上述推斷合理,那么刪除數(shù)據(jù)、修改程序、永久銷(xiāo)毀等措施,可以理解為,是肯定論者站在今天這個(gè)非強(qiáng)人工智能時(shí)代下的“時(shí)空錯(cuò)位”的構(gòu)想。另外,在肯定論者認(rèn)為的類(lèi)人型人工智能體具備刑法上的認(rèn)知控制能力及受刑能力之時(shí),在筆者看來(lái),這也是人類(lèi)臣服于機(jī)器人之時(shí);易言之,此時(shí)的智能主體已成為一個(gè)新的超強(qiáng)物種,因其超強(qiáng)的智力水準(zhǔn)和物理體力,可以秒殺一切人。此時(shí),人類(lèi)已喪失創(chuàng)設(shè)針對(duì)智能主體之刑罰的資格,如何委屈保全不被團(tuán)滅才是上策。
筆者并不否認(rèn)未來(lái)會(huì)出現(xiàn)強(qiáng)人工智能時(shí)代,但無(wú)論這一智能時(shí)代下的智能主體是為人類(lèi)所用之缺乏認(rèn)知控制能力的機(jī)器,還是利用人類(lèi)的具有認(rèn)知控制能力的新物種,在技術(shù)層面上,它都不享有當(dāng)下人類(lèi)社會(huì)刑法意義上的刑事責(zé)任主體的資格——前者可以歸入機(jī)器,后者可以視為新物種??隙ㄕ撎岢膭h除數(shù)據(jù)、修改程序、永久銷(xiāo)毀等措施,恰恰是智能主體不具有刑事責(zé)任主體資格的前提,才具有可行性;否則,人類(lèi)的一切措施,都是自我約束的保全之策。
總之,所謂對(duì)強(qiáng)人工智能體的刑罰措施既無(wú)現(xiàn)實(shí)意義,也面臨刑罰正當(dāng)性的困境,實(shí)不可取。
如上所述,“刪除數(shù)據(jù)”之類(lèi)的“刑罰”措施,是基于當(dāng)下機(jī)器維修之舉,來(lái)構(gòu)建未來(lái)智能時(shí)代的刑罰措施,本身就具有時(shí)空錯(cuò)亂的盲目性,和對(duì)智能機(jī)器刑事主體資格的反噬、否定性,近乎于科幻構(gòu)思。然而,法學(xué)不是法預(yù)測(cè)學(xué),更不是法命理學(xué)。法學(xué)研究應(yīng)該建立在事實(shí)和規(guī)范之上,應(yīng)該具有邏輯自洽性;天生犯罪人說(shuō)也是以頭骨為依據(jù)。就此,筆者贊同劉艷紅教授的如下論述:“如果說(shuō)‘我們即將迎來(lái)人工智能時(shí)代’、自主思考的強(qiáng)人工智能就在‘明天’,那么我們離這個(gè)‘明天’究竟有多近?連科學(xué)家都不知道這個(gè)‘奇點(diǎn)’何時(shí)來(lái)臨,法學(xué)家又具有何種特異功能參透AI的未來(lái)禪機(jī)?對(duì)人工智能相關(guān)事務(wù)的法律規(guī)制尚需要我們積累更多的生活樣本,創(chuàng)建一些只適用于遙遠(yuǎn)未來(lái)的理論、制定一些只沉睡在法典里的條文將比當(dāng)前的‘象征性立法’更加浪費(fèi)資源,因?yàn)檫@種‘立而不用’是名副其實(shí)的‘空談’?!盵24]當(dāng)然,我并不反對(duì)法律的前瞻性,但對(duì)未來(lái)的前瞻應(yīng)當(dāng)以當(dāng)下的社會(huì)現(xiàn)實(shí)為基底。在弱人工智能的技術(shù)規(guī)則都尚不明確的情況下,就去構(gòu)建強(qiáng)人工智能時(shí)代的刑事責(zé)任體系,無(wú)論如何都有點(diǎn)不切實(shí)際。用一個(gè)不恰當(dāng)?shù)谋扔?強(qiáng)人工智能時(shí)代到來(lái)在概率上并不比外星人降臨地球高出多少?;孟雽?duì)強(qiáng)人工智能體適用刑罰,還不如考慮一下如何規(guī)制外星人竊取地球資源。
另外,刑法上行為人的主體資格強(qiáng)調(diào)行為人的刑事責(zé)任能力,即行為人對(duì)自己行為所具備的,是否認(rèn)識(shí)到自己的行為違法或有害社會(huì),甚至是否認(rèn)識(shí)到行為在刑法上的性質(zhì)、意義、作用和后果,并基于這種認(rèn)識(shí)決定自己是否以行為觸犯刑法的能力[25]??梢哉J(rèn)為,在各部門(mén)法中就自然人而言,整體上刑法對(duì)行為主體資格的認(rèn)定最為嚴(yán)格。因此,退一步看,在其他部門(mén)法尚且不認(rèn)可智能機(jī)器的“主體”資格的情形,刑法更無(wú)必要自告奮勇地承認(rèn)其“主體”資格。同時(shí),刑法學(xué)研究重心應(yīng)當(dāng)是解釋、回應(yīng)以及致力于解決當(dāng)下最關(guān)切、最迫切需要解決的社會(huì)問(wèn)題,對(duì)那些實(shí)實(shí)在在已經(jīng)發(fā)生、正在發(fā)生、馬上要發(fā)生,而又沒(méi)有得到解決、解決得不好的社會(huì)問(wèn)題,拿出真功夫深入研究,創(chuàng)造具有本土特色的刑法教義學(xué)知識(shí)。以自動(dòng)駕駛為例,當(dāng)前已經(jīng)發(fā)生了多次事故。這些事故能否在刑法上進(jìn)行歸責(zé),至今仍有諸多疑問(wèn)。又如,在一次國(guó)際象棋比賽中,人工智能棋手因小孩犯規(guī)而夾住其手指致其受傷(12)參見(jiàn)《國(guó)際象棋機(jī)器人夾斷7歲男孩手指,對(duì)人工智能技術(shù)敲響警鐘!》,https://baijiahao.baidu.com/s?id=1740037779439460321&wfr=spider&for=pc,2022年11月11日訪(fǎng)問(wèn)。,那么,責(zé)任如何分擔(dān),也是個(gè)問(wèn)題。對(duì)這些問(wèn)題進(jìn)行深入研究,比起構(gòu)建全自動(dòng)汽車(chē)的刑事責(zé)任模型明顯更有價(jià)值。
在技術(shù)上,智能的實(shí)現(xiàn)可以脫離自我意識(shí),無(wú)需生命載體,即其可以物化。對(duì)此,李德毅院士指出,“意識(shí)和智能是可以分離的。在計(jì)算機(jī)上表現(xiàn)出的計(jì)算智能就是一個(gè)極好的例子,計(jì)算機(jī)沒(méi)有意識(shí)。人類(lèi)智能的發(fā)展史就是動(dòng)力工具的發(fā)明史,動(dòng)力工具是人的體力的體外延伸,如發(fā)明發(fā)動(dòng)機(jī)、輪子、汽車(chē)、飛機(jī)可延伸人的出行范圍。而人工智能是人類(lèi)智能的體外延伸,如發(fā)明油燈、電燈、望遠(yuǎn)鏡可提升人的視力,發(fā)明算盤(pán)、計(jì)算尺、計(jì)算機(jī)可延伸人的計(jì)算力,發(fā)明駕駛腦可代替駕駛員的駕駛認(rèn)知。人工智能的發(fā)展史表明人工智能可以脫離意識(shí)而存在”[10]。這種具有物化智能的機(jī)器人極大地?cái)U(kuò)展了人類(lèi)的能力,大幅提升社會(huì)生產(chǎn)力和效率,在其不具有刑事責(zé)任主體資格的前提下,如何促進(jìn)安全可信可控的人工智能技術(shù)研發(fā)與應(yīng)用場(chǎng)景,確保人工智能始終朝著以人為本、科技向善的方向健康發(fā)展,這是刑法所面臨的新問(wèn)題。
2022年11月10日,世界互聯(lián)網(wǎng)大會(huì)烏鎮(zhèn)峰會(huì)的人工智能與數(shù)字倫理論壇上,與會(huì)中外嘉賓圍繞“人工智能的產(chǎn)業(yè)方向與倫理取向”展開(kāi)討論。中國(guó)科學(xué)院院士張鈸指出,“無(wú)論是有意的濫用、還是無(wú)意的濫用,都要重視,我們必須對(duì)人工智能的研究、開(kāi)發(fā)、使用進(jìn)行嚴(yán)格評(píng)估和科學(xué)監(jiān)管”。之江實(shí)驗(yàn)室主任、中國(guó)人工智能產(chǎn)業(yè)聯(lián)盟副理事長(zhǎng)朱世強(qiáng)指出,“人工智能是人類(lèi)智能在機(jī)器領(lǐng)域的延伸,真正的主動(dòng)權(quán)仍然掌握在人的身上,技術(shù)沒(méi)有原罪,如何應(yīng)用好技術(shù)才至關(guān)重要”。面對(duì)人工智能帶來(lái)的各類(lèi)安全風(fēng)險(xiǎn)和倫理挑戰(zhàn),全國(guó)人大憲法和法律委員會(huì)副主任委員江必新認(rèn)為,要構(gòu)建一個(gè)合理規(guī)范的數(shù)字倫理規(guī)則,“我們不能制約技術(shù)的發(fā)展,那就通過(guò)制定一套倫理規(guī)則來(lái)進(jìn)行自我約束”(13)參見(jiàn)錢(qián)祎《要智能,更要智慧》,https://m.gmw.cn/baijia/2022-11/11/36152155.html,2022年11月11日訪(fǎng)問(wèn)。??梢?jiàn),人工智能的刑法問(wèn)題應(yīng)該歸結(jié)為:對(duì)人工智能體的開(kāi)發(fā)者和使用者進(jìn)行規(guī)制,從而保障人工智能體在各種應(yīng)用場(chǎng)景下的安全使用。
在解釋論上,人工智能體的刑法規(guī)制當(dāng)前能具體映射在哪些具體罪名上?以自動(dòng)駕駛事故的刑法歸責(zé)為例,涉及多個(gè)不同主體的參與行為。如何對(duì)這些行為進(jìn)行歸責(zé),就成為疑問(wèn)。付玉明教授認(rèn)為:“在具體的刑事歸責(zé)方面,可以類(lèi)型化為:非法利用自動(dòng)駕駛汽車(chē)為犯罪工具者的故意責(zé)任、駕駛?cè)说倪^(guò)失責(zé)任、系統(tǒng)故障導(dǎo)致的生產(chǎn)銷(xiāo)售者的產(chǎn)品責(zé)任以及駕駛?cè)伺c系統(tǒng)存在過(guò)失競(jìng)合的責(zé)任等幾種情況。對(duì)于自動(dòng)駕駛模式造成交通肇事后逃逸的行為,駕駛?cè)瞬⒎菍?shí)行行為人,不存在構(gòu)成結(jié)果加重犯的可能。為避免交通事故結(jié)果的擴(kuò)大,應(yīng)擴(kuò)張適用不報(bào)、謊報(bào)安全事故罪。對(duì)于生產(chǎn)者、銷(xiāo)售者所可能承擔(dān)的產(chǎn)品責(zé)任,以當(dāng)時(shí)科學(xué)技術(shù)水平能夠預(yù)見(jiàn)到的產(chǎn)品缺陷為限?!盵26]筆者認(rèn)為上述類(lèi)型化的處理方式十分可取。自動(dòng)駕駛事故發(fā)生的原因多種多樣,理應(yīng)根據(jù)不同情形做出不同的處斷。但需要注意的是,對(duì)于人工智能體生產(chǎn)者、銷(xiāo)售者、管理者以及使用者的刑事責(zé)任,除了歸責(zé)可能性以外,更重要的是責(zé)任分擔(dān)規(guī)則的構(gòu)建。尤其是科技發(fā)展的風(fēng)險(xiǎn)預(yù)測(cè)在人工智能體過(guò)失責(zé)任中的貫徹路徑,需要進(jìn)一步的深入研究。我初步認(rèn)為,為了鼓勵(lì)人工智能技術(shù)的發(fā)展,不宜輕易認(rèn)定自動(dòng)駕駛事故等人工智能體的過(guò)失責(zé)任。只有在存在嚴(yán)重過(guò)失的情況下,才有追究刑事責(zé)任的余地。當(dāng)然,如何判斷嚴(yán)重過(guò)失將是一個(gè)問(wèn)題。在法學(xué)和技術(shù)共視的角度下,應(yīng)當(dāng)重視科技對(duì)法學(xué)的指引性意義。應(yīng)當(dāng)以技術(shù)規(guī)則的偏離程度作為判斷參與人的過(guò)失程度的核心標(biāo)準(zhǔn)。對(duì)于嚴(yán)重違反技術(shù)規(guī)則的參與行為,可認(rèn)定為嚴(yán)重過(guò)失。例如,行為人在明知算法有漏洞的情況下生產(chǎn)、銷(xiāo)售人工智能汽車(chē),導(dǎo)致自動(dòng)駕駛過(guò)程中發(fā)生交通事故,認(rèn)定為嚴(yán)重過(guò)失是合理的。對(duì)于駕駛?cè)硕?只要在駕駛過(guò)程中遵守自動(dòng)駕駛的規(guī)則指引,就不能以其對(duì)自動(dòng)駕駛過(guò)度依賴(lài)為由追究其過(guò)失責(zé)任。另外,人工智能技術(shù)正在迅猛發(fā)展,今天未能發(fā)現(xiàn)的缺陷或者漏洞明天就可能不再是個(gè)問(wèn)題。因此,需要重視人工智能體風(fēng)險(xiǎn)的阻斷義務(wù),認(rèn)真發(fā)掘不作為犯理論,敦促作為義務(wù)人積極地履行其風(fēng)險(xiǎn)阻斷義務(wù),避免潛在的技術(shù)風(fēng)險(xiǎn)現(xiàn)實(shí)化。
在立法論上,需要討論的問(wèn)題是增設(shè)罪名的必要性以及增設(shè)罪名的具體路徑。皮勇教授認(rèn)為,我國(guó)“現(xiàn)行刑法不適應(yīng)自動(dòng)駕駛汽車(chē)應(yīng)用的特性,我國(guó)應(yīng)當(dāng)建立以生產(chǎn)者全程負(fù)責(zé)為中心的新刑事責(zé)任體系,使之在自動(dòng)駕駛汽車(chē)生產(chǎn)和應(yīng)用兩個(gè)階段承擔(dān)安全管理責(zé)任,生產(chǎn)者拒不履行自動(dòng)駕駛汽車(chē)應(yīng)用安全管理義務(wù)且情節(jié)嚴(yán)重的,應(yīng)當(dāng)承擔(dān)刑事責(zé)任”[27]。我對(duì)這個(gè)觀(guān)點(diǎn)持保留意見(jiàn)。自動(dòng)駕駛汽車(chē)刑事責(zé)任的確有其特殊性。但是,不等于說(shuō)我國(guó)當(dāng)前的刑事責(zé)任體系對(duì)其完全無(wú)能為力,更不能認(rèn)為必須為其建立一個(gè)新的刑事責(zé)任體系。首先,正如上文所說(shuō),對(duì)于自動(dòng)駕駛事故完全可以根據(jù)不同情形分別追究故意犯和過(guò)失犯的刑事責(zé)任。就具體罪名而言,以危險(xiǎn)方法危害公共安全罪、交通肇事罪及生產(chǎn)、銷(xiāo)售不符合安全標(biāo)準(zhǔn)的產(chǎn)品罪等罪名都有可能適用。只不過(guò),在認(rèn)定相關(guān)罪名的時(shí)候,需要考慮到技術(shù)發(fā)展和法益保護(hù)之間的平衡關(guān)系,在具體案件中需要謹(jǐn)慎處理。其次,重構(gòu)刑事責(zé)任體系的命題過(guò)于宏大。就目前的情況來(lái)看,人工智能產(chǎn)品的特性對(duì)于當(dāng)前刑事責(zé)任體系不構(gòu)成根本性的沖擊。人工智能產(chǎn)品對(duì)法益的侵害集中在產(chǎn)品利用型和產(chǎn)品故障型兩種基本類(lèi)型,僅限于產(chǎn)品刑事責(zé)任領(lǐng)域,對(duì)于其他類(lèi)型的犯罪不產(chǎn)生實(shí)際影響。嚴(yán)格來(lái)講,圍繞人工智能產(chǎn)品的特性,充其量只能重構(gòu)產(chǎn)品刑事責(zé)任體系,不能一概地推廣到其他犯罪類(lèi)型之中。何況,在人工智能技術(shù)規(guī)則尚不成熟的情況下,就算是產(chǎn)品刑事責(zé)任體系的重構(gòu),也沒(méi)有堅(jiān)實(shí)的基礎(chǔ)。再次,有關(guān)人工智能產(chǎn)品刑事責(zé)任的立法,應(yīng)當(dāng)以完善技術(shù)規(guī)則以及行政規(guī)范為主。當(dāng)前人工智能產(chǎn)品的風(fēng)險(xiǎn)防控難點(diǎn)不在于刑事責(zé)任的構(gòu)建,而在于技術(shù)規(guī)則不明朗以及產(chǎn)品數(shù)據(jù)不公開(kāi)。一方面,認(rèn)定事實(shí)是適用法律的基礎(chǔ)。如果對(duì)基本事實(shí)都無(wú)法分辨,就無(wú)法精準(zhǔn)適用法律?,F(xiàn)在自動(dòng)駕駛事故歸責(zé)的現(xiàn)實(shí)困境在于:包括法官在內(nèi)的法律人對(duì)于人工智能技術(shù)都是一知半解乃至一竅不通。在這種情況下,討論所謂的刑事責(zé)任體系無(wú)疑是建空中樓閣。因此,當(dāng)務(wù)之急是建立一套完善的技術(shù)指南,并以此為參考構(gòu)建行政法上的行為規(guī)范,進(jìn)而設(shè)立違反相關(guān)行政規(guī)范的新罪名。另一方面,數(shù)據(jù)公開(kāi)也是正確歸責(zé)的重要一環(huán)。例如,近年來(lái)特斯拉智能汽車(chē)發(fā)生多次事故,但特斯拉公司拒絕提供完整的行車(chē)數(shù)據(jù),導(dǎo)致無(wú)法進(jìn)行準(zhǔn)確的責(zé)任分配。那么,如何平衡人工智能公司的數(shù)據(jù)權(quán)和社會(huì)公共利益之間的關(guān)系,就是亟待解決的問(wèn)題。在我看來(lái),數(shù)據(jù)權(quán)應(yīng)當(dāng)在特定場(chǎng)合讓步于社會(huì)公共利益。如發(fā)生致人死亡、重傷的事故,應(yīng)當(dāng)強(qiáng)制人工智能企業(yè)揭露與案情密切關(guān)聯(lián)的關(guān)鍵數(shù)據(jù)。當(dāng)然,什么數(shù)據(jù)是關(guān)鍵數(shù)據(jù),也是有賴(lài)科技人員與法律人士共同研判。至少有一點(diǎn)可以肯定的是,決不能在不了解技術(shù)原理的前提下獨(dú)斷地制定人工智能法律規(guī)則。
筆者認(rèn)為,學(xué)界爭(zhēng)鳴智能主體能否為刑事責(zé)任的主體,究其根本在于:如何界定“人”;易言之,如何界定人和機(jī)器的界限。畢竟,刑法屬于人類(lèi)社會(huì)的“屬人法”,而不是針對(duì)動(dòng)植物、機(jī)器的保護(hù)法、處置管理法。如果智能主體具備了“人”的屬性,成為人類(lèi)的一份子,當(dāng)然可以取得刑法中刑事責(zé)任主體的資格,反之則否。不過(guò),筆者目前既無(wú)能力在人類(lèi)社會(huì)學(xué)上定義“人”,也無(wú)能力預(yù)測(cè)人工智能技術(shù)未來(lái)的發(fā)展進(jìn)程,僅能從現(xiàn)代刑法的通說(shuō)和當(dāng)前人工智能技術(shù)原理共視之下作上述探析。可以認(rèn)為,一個(gè)缺乏自我意識(shí),不具有價(jià)值判斷和創(chuàng)造能力的設(shè)備,不管如何稱(chēng)之為“智能”,怎么都不可能具有“人”的屬性,仍然是和算盤(pán)、門(mén)栓鎖一樣的機(jī)械工具而已。正如網(wǎng)友所言,只要人類(lèi)較真,今日人工智能立馬就叫“人工智障”。在刑法領(lǐng)域,當(dāng)前或許如德國(guó)希爾根多夫教授所言,“如何處罰這個(gè)機(jī)器人,斷電、斷油還是推到水中去?電子人的觀(guān)點(diǎn)可以運(yùn)用到民法之中,在刑法之中迄今為止可能存在一些難度”(14)參見(jiàn)汪承昊《綜述|機(jī)器人責(zé)任——對(duì)法律的新挑戰(zhàn)》,https://mp.weixin.qq.com/s/Ju7QJEzImF3FtwCumVl6Dg,2022年11月5日訪(fǎng)問(wèn)。。與其追究虛無(wú)縹緲的機(jī)器人主體責(zé)任,還不如腳踏實(shí)地地理清人工智能技術(shù)的基本規(guī)則,并以之為基礎(chǔ),發(fā)展人工智能產(chǎn)品刑事責(zé)任的解釋論,以及構(gòu)建相關(guān)行政規(guī)范,為將來(lái)的立法做好準(zhǔn)備。