趙世琦
(河南財經(jīng)政法大學(xué) 刑事司法學(xué)院, 河南 鄭州 450000)
自1956年達特茅斯會議首次提出人工智能概念至今, 人工智能技術(shù)得到了飛速發(fā)展, 世界主要發(fā)達國家把發(fā)展人工智能作為提升國家競爭力的重要研究方向. 我國也在《新一代人工智能發(fā)展規(guī)劃》中強調(diào):人工智能是國家發(fā)展的重大戰(zhàn)略機遇, 是構(gòu)筑我國人工智能發(fā)展的先發(fā)優(yōu)勢, 是加快建設(shè)創(chuàng)新型國家和世界科技強國的重大戰(zhàn)略機遇, 同時指出, 人工智能發(fā)展很可能對現(xiàn)有的法律造成沖擊. 目前, 法學(xué)界已有許多關(guān)于人工智能體知識產(chǎn)權(quán)以及民事侵權(quán)責(zé)任方面的研究, 但對于人工智能體的刑事責(zé)任承擔(dān)問題研究較少. 事實上, 隨著人工智能技術(shù)的發(fā)展與普及, 人工智能體嚴(yán)重危害社會的行為也有發(fā)生, 這在刑法領(lǐng)域引發(fā)了學(xué)者們對強人工智能體刑事責(zé)任承擔(dān)問題的討論, 且出現(xiàn)了肯定說與否定說的分歧. 肯定說認(rèn)為, 強人工智能體具備獨立意志, 可以成為獨立的刑事責(zé)任主體. 否定說認(rèn)為強人工智能體僅是人類的工具, 刑事責(zé)任應(yīng)由其背后的制造者或使用者承擔(dān). 筆者認(rèn)同肯定說的觀點, 本文將立足強人工智能體, 思考其是否可以成為刑事責(zé)任主體以及如何承擔(dān)刑事責(zé)任的問題.
人工智能與人工智能體的內(nèi)涵和外延差別巨大, 目前大部分研究成果仍以人工智能為研究對象. 概念是解決法律問題的基礎(chǔ), 明確研究對象才能使研究避免邏輯上、 內(nèi)容上的錯誤.
人工智能的內(nèi)涵可以分為兩部分理解, 即“人工”與“智能”. “人工”是指由人類制造的而非自然界天然形成的, 但通常是自然產(chǎn)物的仿照物或復(fù)制品; “智能”的含義包括具有認(rèn)識和處理各種事物的能力、 運用所學(xué)知識認(rèn)識和改造世界的能力. 因此, 人工智能是指人類根據(jù)自身的思維與意志制造出的模仿人類學(xué)習(xí)與決策能力的行為系統(tǒng)或科學(xué)技術(shù). 人工智能體則是人工智能技術(shù)控制下的執(zhí)行指令的有形載體, Shlomit Yanisky-Ravid等列出了十個屬性用來識別人工智能體的表征:創(chuàng)新性、 自主性、 不可預(yù)測、 獨立性、 合理性、 具有不斷發(fā)展的學(xué)習(xí)能力、 效率、 準(zhǔn)確、 目標(biāo)導(dǎo)向、 自由意志的選擇能力[1]. 筆者認(rèn)為, 人工智能與人工智能體是技術(shù)與載體的關(guān)系, 人工智能為人工智能體的行為提供技術(shù)基礎(chǔ), 而人工智能體為人工智能的進一步發(fā)展提供實踐經(jīng)驗.
事實上, 刑事責(zé)任應(yīng)當(dāng)由犯罪的具體的特殊個體承擔(dān), 而不應(yīng)一概而論地由其背后的無實體的技術(shù)承擔(dān), 若由人工智能技術(shù)承擔(dān), 則既無合理性也無可操作性. 同時, 目前刑法規(guī)定的刑事責(zé)任承擔(dān)主體皆是具有實體化的自然人與單位, 強人工智能體的刑事主體地位以及刑事責(zé)任的承擔(dān)也應(yīng)符合刑法對行為主體實體化的要求.筆者認(rèn)為,人工智能體可以成為刑事責(zé)任主體并承擔(dān)刑事責(zé)任, 而人工智能作為一種技術(shù)不應(yīng)被納入刑法規(guī)制范圍.
我國學(xué)者根據(jù)人工智能的智能化水平的不同, 將人工智能體分為弱人工智能體和強人工智能體兩類. 弱人工智能體在日常生活中十分常見, 如掃地機器人、 無人駕駛汽車等, 這些弱人工智能體僅專長于某一領(lǐng)域, 只能在編程范圍內(nèi)做出運行與決策, 從根本上說, 其實現(xiàn)的是編程者的既定目標(biāo). 例如Alpha Go無論下出什么樣的步驟, 都是以編程人員事先輸入的大量棋譜數(shù)據(jù)為基礎(chǔ)的, 同時其僅擅長圍棋領(lǐng)域的數(shù)據(jù)處理, 對于其他領(lǐng)域的數(shù)據(jù)處理并不擅長, 不能達到模擬人類思維的程度, 其仍然屬于工具范疇. 而強人工智能體在各個領(lǐng)域內(nèi)都具有和人類一樣的學(xué)習(xí)、 判斷和控制能力, 編程者只需賦予其學(xué)習(xí)的能力, 其便可基于獨立意志在編程的范圍外實施行為. 因具有獨立的自我意識, 能像人類一樣思考與決策, 即其行為實現(xiàn)的是人工智能自己的意志[2].
目前, 人類對人工智能技術(shù)的掌握處于弱人工智能階段. 現(xiàn)階段, 弱人工智能體的行為是根據(jù)研發(fā)者預(yù)設(shè)的程序進行的, 因此, 現(xiàn)階段的人工智能體致人損害或者他人利用人工智能體致人損害的行為可以依現(xiàn)有法律規(guī)制, 如《中華人民共和國產(chǎn)品質(zhì)量法》第四十三條、 《中華人民共和國刑法》中關(guān)于自然人利用工具犯罪的規(guī)定, 無需對刑事責(zé)任主體與刑事責(zé)任承擔(dān)方式進行再研究. 而強人工智能體根據(jù)現(xiàn)有理論無法成為刑事責(zé)任主體進而無法承擔(dān)刑事責(zé)任, 對于其是否可以成為刑事責(zé)任主體并承擔(dān)責(zé)任的問題, 理論界存在較大爭議, 故以下將以強人工智能體為對象進行論述.
在強人工智能的框架內(nèi), 對于強人工智能體是否可以獲得刑事責(zé)任主體地位, 我國學(xué)者眾說紛紜、 莫衷一是, 主要有肯定說與否定說兩種觀點.
肯定說認(rèn)為強人工智能體有成為刑事責(zé)任主體的必要性與可行性, 應(yīng)該獲得刑事主體地位. 強人工智能體在依編程獲得學(xué)習(xí)能力后可以具備與人類無異的辨認(rèn)能力和控制能力, 并且可以根據(jù)自己的意志實施各種行為. 此時, 強人工智能體實施的行為不能再被視為人類行為, 因其行為實質(zhì)上是根據(jù)強人工智能體自己的意志所決策實施的, 進而實施的嚴(yán)重危害社會的行為也不應(yīng)當(dāng)由人類制造者或擁有者承擔(dān)刑事責(zé)任. 劉憲權(quán)教授是刑事責(zé)任主體肯定說的代表人物, 他認(rèn)為:人工智能時代對傳統(tǒng)刑法理論有新的挑戰(zhàn), 刑法應(yīng)當(dāng)進行調(diào)整和完善, 賦予強人工智能體刑事責(zé)任主體地位, 并針對強人工智能體的犯罪行為設(shè)置具有梯度性的刑罰, 即刪除數(shù)據(jù)、 修改程序、 永久銷毀三種刑罰方法[3].
否定說認(rèn)為強人工智能體無論怎樣發(fā)展都僅只是人的工具, 表現(xiàn)的也僅是創(chuàng)造者或者持有者的意志, 不能獲得刑事責(zé)任主體地位. 其一, 從刑事責(zé)任的角度看, 持否定說觀點的學(xué)者認(rèn)為意志自由是取得法律主體資格的前提, 而強人工智能體不具有意志自由, 即使造成了法益侵害結(jié)果, 也不具有刑事可罰性[4]. 他們認(rèn)為, 強人工智能體的行為仍然在創(chuàng)造者、 使用者的掌控中, 依照程序行動不屬于意志支配活動, 強人工智能體不能理解其行為的實質(zhì)意義及違反法律的消極后果, 其行為本質(zhì)上不可歸于強人工智能體本身. 其二, 從刑罰的目的與具體內(nèi)容的角度看, 對強人工智能體處以刑罰不具有可行性. 強人工智能體無法理解刑罰的意義, 也無法發(fā)揮刑罰的特殊預(yù)防和一般預(yù)防的作用[5]. 同時, 我國的刑罰分為人身刑和財產(chǎn)刑. 一方面, 強人工智能體并非有機體, 不存在生命限制, 無法適用生命刑; 另一方面, 對強人工智能體賦予財產(chǎn)權(quán)無現(xiàn)實需求基礎(chǔ).
筆者認(rèn)為, 否定說否認(rèn)了強人工智能體的自我意志支配行為的能力, 并且否認(rèn)刑罰對強人工智能體的規(guī)制作用, 存在兩個理論誤區(qū).
2.3.1 否定說形式邏輯的不自洽
一方面, 否定說否定了強人工智能體具有意志, 若要論證強人工智能體不具有和人類一樣的意志, 就要論證人類絕對擁有意志. 若主張人的意志決策具有不可預(yù)見性, 而非單純的條件反射, 就要證明人類基于自由意志決策并實施行為的可能性. 但是如果人類的決策行為可以通過技術(shù)得到規(guī)律, 那么這種決策行為機制就不能完全說是自由的, 而是可能被機器所模擬的; 同時, 如果人類的決策行為機制無法通過技術(shù)手段證明, 那么就無法真正論證人類擁有自由意志而強人工智能體無法擁有自由意志. 另一方面, 我們對強人工智能體的定義是具備學(xué)習(xí)能力以及擁有自我意志. 否定說在提出觀點時以具有學(xué)習(xí)和自由意志的強人工智能體作為客體進行闡述, 但在進行理論論證時, 則又轉(zhuǎn)到傳統(tǒng)的弱人工智能體上, 有偷換概念之嫌.
2.3.2 否定說實質(zhì)理解的狹隘
一方面, 否定說認(rèn)為“強人工智能體怎樣發(fā)展也是人類的工具”, 筆者認(rèn)為其理解是狹隘的, 用過去或者當(dāng)前的科技水平否定了可能產(chǎn)生獨立意志的強人工智能體的可能性, 將人工智能體的刑事風(fēng)險僅固化于人類利用強人工智能作為犯罪工具, 忽略了強人工智能體自身的刑事風(fēng)險. 但從理論上看, 隨著算法以及深度學(xué)習(xí)技術(shù)的發(fā)展, 強人工智能體的認(rèn)識能力和控制能力可能達到人類水平甚至超過人類水平, 完全可以獨立實施危害社會的犯罪行為. 另一方面, 否定說認(rèn)為“刑罰對強人工智能體不能形成有效的惡害”, 對強人工智能體施加刑罰無法達到刑罰目的. 筆者認(rèn)為, 這樣的說法在邏輯上犯了循環(huán)論證的錯誤, 先以強人工智能體不能受到惡害為由否定其獲得刑事主體地位的可能, 然后又因其無主體地位從而得到其不能受到惡害的結(jié)果. 與此同時, “對強人工智能體無法施加惡害”這一說法也是形而上學(xué)的. 如果說對于強人工智能體的定義即為具有獨立自我意識, 其必然存在自我需求, 那么對其施加一種悖離相應(yīng)需求的做法就是有效的惡害. 在這種意義上, 簡單地對其限制用電需求或限制網(wǎng)絡(luò)需求就可以做到對其施加惡害; 如果賦予其財產(chǎn)權(quán), 甚至不需要指定特定刑罰, 現(xiàn)行罰金刑也可做到對其施加有效的惡害.
筆者認(rèn)為, 否定說將強人工智能體犯罪的刑事責(zé)任歸于制造者, 犯了刑法上因果聯(lián)系的錯誤. 若將強人工智能體的責(zé)任歸結(jié)于其制造者, 必須證明制造者與危害后果之間具有因果聯(lián)系. 從某種意義上說, 強人工智能體與制造者之間的關(guān)系就如同人類的父母與子女的關(guān)系. 父母對于子女的犯罪行為不負(fù)刑法上的責(zé)任, 因父母與危害后果不存在刑法上的因果聯(lián)系, 且符合責(zé)任自負(fù)的刑法原則. 這樣的論證過程也應(yīng)同樣適用于強人工智能體, 制造者僅賦予其學(xué)習(xí)能力, 學(xué)習(xí)過程是強人工智能體獨立自行完成的, 故在強人工智能體發(fā)展過程中的行為是無法預(yù)見和控制的. 因此, 強人工智能體的犯罪行為與制造者無刑法上的因果關(guān)系, 若由制造者承擔(dān)法律責(zé)任, 將違反責(zé)任自負(fù)的法律原則.
在當(dāng)前人工智能技術(shù)僅處于弱人工智能的階段, 就有弱人工智能體危害社會的事件發(fā)生. 如微軟公司在2016年研發(fā)出了名為tay的智能聊天機器人, 技術(shù)團隊設(shè)計之初并未對機器人的交流內(nèi)容進行預(yù)設(shè), 而是通過大量的對話使其獲得與他人對話的能力. 但該軟件上線不到24小時就匆忙下線, 因為機器人通過學(xué)習(xí)與他人對話, 學(xué)到并發(fā)表了大量的種族歧視言論. 弱人工智能體的不當(dāng)行為已使“犯罪”的社會危害性顯著增強. 隨著人工智能技術(shù)的發(fā)展, 具有獨立意志的強人工智能體的出現(xiàn)不是癡人說夢, 若不對強人工智能體實施的嚴(yán)重危害社會的行為進行刑事處罰則勢必會造成一系列不利后果. 其一, 強人工智能體因其自身優(yōu)勢(如身體機能遠超人類)實施的犯罪行為的社會危害性將遠高于人類; 其二, 刑法基本原則之一是法律面前人人平等, 若強人工智能體做出嚴(yán)重危害社會的犯罪行為而刑法卻不對其施加懲罰, 則會折損人們對刑法的信任; 其三, 人們對人工智能的不安全感、 不信任感甚至恐懼感大多源于其不受法律的約束, 任何個人或團體不受刑法約束, 其他人的個人信心都將受到嚴(yán)重?fù)p害[6].
因此, 對強人工智能體的立法應(yīng)當(dāng)具有前瞻性, 不應(yīng)囿于當(dāng)下所面臨的狀況. 法律的制定不是一蹴而就的, 如果等到強人工智能時代真正到來才進行規(guī)制, 可能會受其反制. 可見, 現(xiàn)階段就應(yīng)考慮通過立法賦予強人工智能體刑事法律主體資格, 在促進人工智能技術(shù)發(fā)展的同時做好風(fēng)險防控.
3.2.1 法理學(xué)基礎(chǔ)
德國法學(xué)家拉德布魯赫指出:“人之所以為人, 并不是因為他是一種有肉體和精神的生物, 而是因為根據(jù)法律規(guī)則的觀點, 人展現(xiàn)了一種自我目的. 這樣, 為了證明人類群體可能可以具備法學(xué)人格, 我們不需要證明人類在生物學(xué)上是相同的客觀實體、 組織, 而是需要證明自我目的在人類群體當(dāng)中和在個體的人身上體現(xiàn)的是一致的. ”[7]可見, 當(dāng)強人工智能體具有獨立自我意識、 具備獨立思考和決策的能力時, 其就具備了作為法律上的“人”的可能性.
退一步講, 機能的罪責(zé)理論完全無視自由意志的命題, 認(rèn)為什么是危害社會行為、 誰應(yīng)該承擔(dān)刑罰后果都取決于社會, 并非取決于主體應(yīng)當(dāng)具備什么樣的條件. 根據(jù)該理論, 當(dāng)具有自由意志的強人工智能體大規(guī)模參與人類生活以至于其導(dǎo)致的法律真空過于巨大, 嚴(yán)重動搖了法律本身的穩(wěn)定性, 就可以甚至應(yīng)當(dāng)承認(rèn)其法律主體地位, 由其承擔(dān)法律后果. 筆者認(rèn)為, 目前對于強人工智能體的問題陷入腦科學(xué)的自由意志的驗證研究是無意義的, 因為無論是自由意志理論還是機能的罪責(zé)理論, 都是對社會需求的一種社會性重構(gòu), 社會既然可以構(gòu)建人的意志自由, 也可以構(gòu)建強人工智能體的意志自由[8].
3.2.2 刑法學(xué)基礎(chǔ)
我國刑法通說認(rèn)為, 刑事責(zé)任能力是指行為人承擔(dān)刑事責(zé)任所應(yīng)當(dāng)具備的辨認(rèn)和控制能力. 刑法上的辨認(rèn)能力是指行為人對其行為的事實層面的認(rèn)識以及法律層面上的認(rèn)識; 刑法上的控制能力是指行為人具備支配、 決定自己是否以行為觸犯刑法的能力[9]248. 學(xué)習(xí)能力是強人工智能體所具備的強大能力, 強人工智能體在程序設(shè)計與編程中被賦予學(xué)習(xí)的能力, 同時, 創(chuàng)造者可以將大量的道德規(guī)范與法律規(guī)范植入強人工智能體內(nèi), 此時, 強人工智能體將擁有與自然人無異甚至高于大多數(shù)自然人的法律層面上的辨認(rèn)能力. 此外, 在事實層面上的認(rèn)識能力, 強人工智能體可以通過其感知系統(tǒng)進行準(zhǔn)確的物理認(rèn)識, 同樣擁有比人類更加精準(zhǔn)的事實認(rèn)識能力. 同時, 強人工智能體憑借大數(shù)據(jù)以及編程, 具有相較于人類更為快速的反應(yīng)能力以及更加精準(zhǔn)的控制能力.
綜上所述, 與自然人相比, 強人工智能體可以具有與人類相似甚至高于人類的辨認(rèn)和控制能力. 我們可以認(rèn)為, 強人工智能體具有成為刑事責(zé)任主體的可行性.
3.2.3 經(jīng)濟基礎(chǔ)
法律術(shù)語的內(nèi)涵和外延都在不斷變化, 法律術(shù)語的概念隨著時間的變化會有不同的解釋. 對于法律規(guī)制的主體, 人類根據(jù)社會與經(jīng)濟發(fā)展的需要進行著不斷的調(diào)整. 美國法學(xué)家格雷指出, 歷史上有六種法律主體類型:正常生物人、 非正常生物人、 超自然人、 動物、 無生命體和法人[10]. 法律主體身份的確立由法律規(guī)定, 法律屬于上層建筑的范疇, 其發(fā)展由經(jīng)濟基礎(chǔ)決定. 法律對于主體范圍的承認(rèn)歸根結(jié)底取決于經(jīng)濟社會發(fā)展的階段與水平, 某一類事物的法律主體身份的賦予, 由其在經(jīng)濟社會中的地位決定, 與其是否人類或生命體并無絕對聯(lián)系. 如, 1997年法人刑事責(zé)任主體地位的確立.
強人工智能時代, 人與強人工智能體之間的關(guān)系不再是傳統(tǒng)觀念中的“主體”與“客體”的關(guān)系或是“使用者”與“被使用者”的關(guān)系. 強人工智能技術(shù)將會成為人類經(jīng)濟發(fā)展的重要動力, 而人工智能犯罪也會隨著技術(shù)的普及激增. 因此, 將強人工智能體參考“法人”納入刑法規(guī)制的范圍內(nèi), 其目的是適應(yīng)社會經(jīng)濟的發(fā)展以及更好地保護人類法益.
目前, 學(xué)者們對于強人工智能體刑事責(zé)任承擔(dān)方式構(gòu)建設(shè)想討論較多的是劉憲權(quán)教授的觀點, 即針對強人工智能體社會危害性的大小, 設(shè)置具有層次性的刑罰階梯:刪除數(shù)據(jù)、 修改程序和永久銷毀. 所謂刪除數(shù)據(jù), 是指刪除強人工智能體實施犯罪行為所依賴的數(shù)據(jù)信息, 相當(dāng)于抹除其“犯罪記憶”, 從而引導(dǎo)強人工智能體在今后的深度學(xué)習(xí)過程中主動獲取“正面數(shù)據(jù)”, 排斥或絕緣于可能導(dǎo)致違法犯罪行為的“負(fù)面數(shù)據(jù)”, 直接降低其人身危險性. 所謂修改程序, 是指在通過多次刪除數(shù)據(jù)仍無法阻止其主動獲取有可能實施違法犯罪行為的“負(fù)面數(shù)據(jù)”時, 也即該智能機器人不能被正面引導(dǎo)時, 強制修改其基礎(chǔ)程序, 使其無法獲取人類設(shè)計和編制的程序限定范圍外的數(shù)據(jù), 無法產(chǎn)生超出人類意志之外的自我獨立意志. 所謂永久銷毀, 是指在刪除數(shù)據(jù)、 修改程序均無法降低實施犯罪行為的智能機器人的人身危險性時, 便只能將其永久銷毀[11].
對于以上設(shè)想的刑罰體系, 筆者認(rèn)為其還有完善的空間. 其一, 修改程序與永久銷毀本質(zhì)上達到的剝奪犯罪人犯罪能力的效果是一致的. 修改程序后強人工智能體變?yōu)槿跞斯ぶ悄荏w, 相當(dāng)于摘除強人工智能體的“大腦”, 使其不再具有獨立意志能力, 無法成為犯罪主體進而獨立實施犯罪, 而對強人工智能體進行物理銷毀同樣也是從客觀上阻止其再次犯罪. 筆者認(rèn)為, 物理銷毀刑罰的設(shè)置未著眼于經(jīng)濟的發(fā)展, 且與修改程序所達到的效果無異, 額外設(shè)置物理銷毀刑罰缺乏存在的理由. 其二, 筆者認(rèn)為刪除數(shù)據(jù)并不能達到懲罰與預(yù)防犯罪的效果. 對強人工智能體刪除數(shù)據(jù), 僅是刪除“犯罪記憶”, 并未打消其犯意也無教育意義, 無法實現(xiàn)劉憲權(quán)教授論述的引導(dǎo)強人工智能體獲取正面數(shù)據(jù)并排斥違法犯罪行為的負(fù)面數(shù)據(jù), 即無法實現(xiàn)報應(yīng)與預(yù)防的刑罰目的. 其三, 該刑罰體系忽視了現(xiàn)有刑罰體系中財產(chǎn)刑與自由刑對強人工智能體適用的可能性.
4.2.1 刑事責(zé)任承擔(dān)方式設(shè)想
對自然人的刑罰規(guī)定要出于人道主義考慮, 提倡刑罰的適當(dāng)性, 對于強人工智能體的刑罰設(shè)置也應(yīng)當(dāng)考慮其適當(dāng)性, 從保護人類自身利益的需要出發(fā), 考慮刑法的基本價值, 設(shè)置的刑罰應(yīng)當(dāng)能夠維護人類的利益以及社會的穩(wěn)定.
4.2.1.1 財產(chǎn)刑
對強人工智能體可以處以罰金和沒收財產(chǎn). 人工智能具有獨立的創(chuàng)造能力, 其創(chuàng)造的新聞稿、 著作、 音樂和美術(shù)等藝術(shù)作品具有獨創(chuàng)性, 受到知識產(chǎn)權(quán)法的保護. 現(xiàn)階段的主流觀點認(rèn)為, 人工智能創(chuàng)造的作品的收益應(yīng)當(dāng)歸屬人工智能體的創(chuàng)造者或者擁有者[12]. 但是在強人工智能時代, 強人工智能體擁有獨立的法律地位, 也同樣應(yīng)當(dāng)具有獨立的財產(chǎn)權(quán)利. 同時, 筆者認(rèn)為可以參照我國的機動車交通事故責(zé)任強制保險制度, 強制強人工智能體繳納保險, 防止在需要刑事賠償時出現(xiàn)無財產(chǎn)可賠償?shù)膯栴}. 財產(chǎn)刑適用于社會危害性以及人身危險性不大的犯罪人以及經(jīng)濟性質(zhì)的犯罪人. 單處財產(chǎn)刑不必將犯罪的強人工智能體投入監(jiān)獄, 從而消除了其在監(jiān)獄中交叉感染的可能性[9]195.
4.2.1.2 一定時限的限制行為自由
該刑罰類似于自然人的自由刑, 根據(jù)強人工智能體行為的社會危害性以及人身危險性對犯罪的強人工智能體判處一定時間的關(guān)閉行為能力, 使強人工智能體不能按照自己的意志自由行動, 從而使其感受到類似于人類痛苦的感覺[13]. 該刑罰不必將強人工智能體關(guān)入監(jiān)獄, 一方面防止了強人工智能體在監(jiān)獄內(nèi)交叉感染的可能性; 另一方面減少監(jiān)獄建造成本, 有助于節(jié)約社會資源. 在關(guān)閉強人工智能體行為能力時, 不關(guān)閉其“大腦”, 同時, 在此期間對犯罪的強人工智能體進行強制教育, 將教育內(nèi)容通過編程向其傳輸數(shù)據(jù), 通過教育實現(xiàn)刑罰的改造功能.
4.2.1.3 修改程序
該刑罰適用于社會危害性以及人身危險性極大的犯罪的強人工智能體. 對適用財產(chǎn)刑與自由刑無法消除其犯罪意圖的強人工智能體, 通過強制修改強人工智能體的程序, 剝奪其自主思考與學(xué)習(xí)能力, 使其成為一個僅可在編程范圍內(nèi)行為的弱人工智能體, 從根本上剝奪其犯罪能力. 該項刑罰相當(dāng)于對強人工智能體處以“死刑”, 修改程序相當(dāng)于摘掉了強人工智能體的“大腦”, 使其成為一個僅依靠編程預(yù)設(shè)而行為的“植物人”. 制造強人工智能體的成本較高, 將強人工智能體修改為弱人工智能體亦是對社會資源的一種浪費, 因此, 應(yīng)當(dāng)嚴(yán)格限制該項刑罰的適用.
4.2.2 價值分析
4.2.2.1 以上刑事責(zé)任承擔(dān)方式符合犯罪主體特征
以上刑事責(zé)任承擔(dān)方式體現(xiàn)了與犯罪主體特征相一致的原則. 如針對自然人趨利避害的本質(zhì), 設(shè)置讓自然人感到痛苦的財產(chǎn)刑、 自由刑和生命刑等刑事責(zé)任承擔(dān)方式; 針對單位經(jīng)濟性的本質(zhì), 對單位犯罪處以財產(chǎn)刑. 強人工智能體以程序為其存在的基礎(chǔ), 其又擁有自由意志, 對于財富和自由擁有同樣的追求. 故財產(chǎn)刑、 限制自由以及修改程序是針對強人工智能體自身的特征以及需求做出設(shè)想, 能夠發(fā)揮刑罰應(yīng)有的功能.
4.2.2.2 以上刑事責(zé)任承擔(dān)方式能夠?qū)崿F(xiàn)刑罰功能
刑罰的功能是指刑罰所產(chǎn)生的積極作用. 其一, 對犯罪的強人工智能體處以財產(chǎn)刑, 剝奪強人工智能體擁有的財富, 對其而言是痛苦的, 因此可以發(fā)揮個別威懾功能. 同時, 給予被害者一定的經(jīng)濟補償, 也可以發(fā)揮安撫補償?shù)墓δ? 其二, 一定時限的限制行為自由的刑事責(zé)任承擔(dān)方式, 在刑期強制強人工智能體進行學(xué)習(xí), 發(fā)揮個別威懾與教育改造功能. 其三, 修改程序使強人工智能體變?yōu)槿跞斯ぶ悄荏w, 從根本上消除了其再犯條件, 發(fā)揮了安撫以及一般威懾的功能. 在對犯罪的強人工智能體處以以上懲罰的同時, 強人工智能技術(shù)也會將犯罪信息以及懲罰后果輸入強人工智能系統(tǒng)數(shù)據(jù)庫, 警醒其他強人工智能體, 發(fā)揮了教育與一般威懾功能.
4.2.2.3 以上刑事責(zé)任承擔(dān)方式能夠?qū)崿F(xiàn)刑罰的目的
刑罰的目的分為一般預(yù)防與特殊預(yù)防, 以上刑事責(zé)任承擔(dān)方式, 兩種目的皆可實現(xiàn). 正如有學(xué)者認(rèn)為:“智能機器人具有感知刑罰痛苦的能力, 并且能夠在犯罪的快感與刑罰的痛苦之間進行理性權(quán)衡, 以調(diào)整以后的行為. ”[14]以上刑事責(zé)任承擔(dān)方式通過對犯罪的強人工智能體施加與其需求相背離的行為, 能夠使強人工智能體產(chǎn)生痛苦的感覺, 可以達到預(yù)防的目的; 對于社會危險性極大的強人工智能體進行修改程序, 可以徹底杜絕其再犯可能性, 這實現(xiàn)了刑罰的特殊預(yù)防作用. 一般預(yù)防是針對犯罪的強人工智能體以外的強人工智能體而言的, 將強人工智能體的犯罪行為以及刑罰結(jié)果在互聯(lián)網(wǎng)上公開供強人工智能體學(xué)習(xí), 并可將裁判結(jié)果輸入人工智能的編程中. 因為強人工智能體具有學(xué)習(xí)能力, 其可以對裁判結(jié)果進行學(xué)習(xí), 了解犯罪的后果, 對其產(chǎn)生威懾作用, 從而實現(xiàn)一般預(yù)防的目的.