国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能嵌入刑法體系的障礙與定位*
——兼論刑法教義學(xué)體系下風(fēng)險社會理論的反思

2023-04-06 23:32:39李立豐王俊松
法治研究 2023年1期
關(guān)鍵詞:法益刑法規(guī)范

李立豐 王俊松

2015 年,德國大眾汽車公司員工在調(diào)試機器人時,被機器人摔至金屬板慘遭碾壓身亡,這就是震驚當(dāng)時的“機器人殺人事件”。無獨有偶,Google 在測試其無人駕駛技術(shù)時,因?qū)Ш焦收弦l(fā)交通事故,所幸無人傷亡。類似的高度智能化應(yīng)用情形還有,Alpha Go 擊敗韓國圍棋手李世石、國際象棋棋王卡斯帕羅夫和計算機之間的“深藍”對決等。人工智能技術(shù)的飛速發(fā)展以及高度智能的場景化應(yīng)用模式的建立引發(fā)了一系列關(guān)于人工智能主體性地位的思考,涉及的學(xué)科有哲學(xué)、法學(xué)等。比如,在人工智能主體性這一問題上,刑法學(xué)界有學(xué)者主張,鑒于人工智能技術(shù)如此突飛猛進,人類勢必要進入到一個強人工智能時代,在這個時代,機器人將會產(chǎn)生獨立的思考能力、意識以及控制能力,因此學(xué)者建議將其規(guī)定為刑法上的主體。①參見劉憲權(quán)、朱彥:《人工智能時代對傳統(tǒng)刑法理論的挑戰(zhàn)》,載《上海政法學(xué)院學(xué)報(法治論叢)》2018 年第2 期。也有學(xué)者認(rèn)為,人工智能機器人就是人類社會生產(chǎn)的一種輔助工具,并不具備人的要素和屬性,因此,刑法大可不必將人工智能體視為責(zé)任主體。②參見時方:《人工智能刑事主體地位之否定》,載《法律科學(xué)(西北政法大學(xué)學(xué)報)》2018 年第6 期。上述分歧體現(xiàn)出人工智能時代的到來已經(jīng)在法律規(guī)范層面上帶來了爭議,尤其是刑法規(guī)范是否應(yīng)當(dāng)對這一現(xiàn)象做出反應(yīng)。因此,本文擬從人工智能的技術(shù)本質(zhì)入手,進而對人工智能進入刑法體系產(chǎn)生的障礙做出分析,并進一步指出這種以人工智能技術(shù)為張貼對象的風(fēng)險社會理論的虛偽性,最終以人工智能的技術(shù)本質(zhì)為刑法定位的落腳點。

一、人工智能的本質(zhì)需以科學(xué)技術(shù)為應(yīng)然理解

人工智能時代的到來符合技術(shù)發(fā)展的客觀規(guī)律,先進科學(xué)技術(shù)的進步與應(yīng)用必然會在社會層面引起廣泛的關(guān)注和探討,而且,社會層面的波動也會引發(fā)法律規(guī)范層面上的聯(lián)動反應(yīng)。不過,人工智能技術(shù)有無在刑法規(guī)范層面探討的必要性,這要取決于對人工智能本質(zhì)的探討。刑法應(yīng)從實質(zhì)上了解人工智能背后的運作原理,在事實層面明確人工智能的運行本質(zhì),而后再進入到刑法規(guī)范的話語體系中進行探討,唯有此才可以全面刺破人工智能時代的面紗。

從宏觀的人工智能技術(shù)定位來看,人工智能總體上即是以科學(xué)技術(shù)為體現(xiàn)的一門技術(shù)學(xué)科。人工智能(Artificial Intelligence,簡稱AI)是計算機學(xué)科的一個分支,其與空間技術(shù)和能源技術(shù)并稱為20 世紀(jì)70 年代以來的世界三大尖端技術(shù),從字面意思來看Artificial Intelligence 指的是智能的人工制品,而且,P.Winston 早在1978 年就對人工智能做出了如下評價:人工智能本質(zhì)上是為了幫助人們變得更加智能的一項技術(shù),其不僅是局限在使計算機模擬智能的研究上。③參見朱福喜:《人工智能(第三版)》,清華大學(xué)出版社2017 年版,第2 頁。除此之外,也有學(xué)者指出人工智能其實就是一門技術(shù)科學(xué),其主要是用來模擬、延伸以及擴展人類智能,因此,人工智能本質(zhì)上是計算機科學(xué)的一個分支,即其屬于計算機技術(shù)的前沿領(lǐng)域。④參見劉海濱:《人工智能及其演化》,科學(xué)出版社2016 年版,第1 頁。并且,人工智能作為一門跨技術(shù)領(lǐng)域眾多的學(xué)科,其研究都是結(jié)合具體領(lǐng)域,諸如問題求解、自然語言處理、人工神經(jīng)網(wǎng)絡(luò)、遺傳算法、專家系統(tǒng)、知識工程、人工生命、深度學(xué)習(xí)以及智能控制等。⑤同上注,第5-8 頁。這些領(lǐng)域綜合起來所設(shè)計出的智能系統(tǒng)便是AI 系統(tǒng)。這些系統(tǒng)都是高度智能化的系統(tǒng),當(dāng)它們組合到一起的時候,這種計算機程序就體現(xiàn)出了一定的“智能化”。這些系統(tǒng)主要包括問題求解系統(tǒng)、自然語言理解和處理系統(tǒng)等大概12 種系統(tǒng)。⑥同前注③,第7-12 頁。A.Barr 和E.Feigenbum 指出人工智能作為一門學(xué)科,它屬于計算機科學(xué)的組成部分,它的主要任務(wù)就是設(shè)計智能化的系統(tǒng),而這一系統(tǒng)要與人類的行為相似;Elain Rich 認(rèn)為人工智能就是讓計算機去模擬人類大腦活動,用它解決一些只有專家才能夠處理的問題,這些活動主要包括推理、設(shè)計以及規(guī)劃等;Michael R.Genesereth 和Nils J.Nilsson 認(rèn)為人工智能首先是一門科學(xué),而這門科學(xué)的主要任務(wù)就是建立關(guān)于自然智能實體行為的理論和指導(dǎo)創(chuàng)造具有智能行為的人工制品。⑦同前注③,第2 頁。

從微觀的人工智能技術(shù)的具體運行來看,人工智能的本質(zhì)就是借助算法、智能系統(tǒng)運行的一套完整的技術(shù)程序。人工智能的運行邏輯是建立在算法之上,算法撐起了人工智能的技術(shù)框架。⑧參見張鋌:《人工智能嵌入社會治理的邏輯、風(fēng)險與政策應(yīng)對》,載《浙江社會科學(xué)》2022 年第2 期。人工智能的本質(zhì)是在自然語言基礎(chǔ)之上、以數(shù)據(jù)為對象將算法與數(shù)據(jù)相互結(jié)合應(yīng)用,并且這一過程并不是簡單的模擬人腦。⑨參見劉穎:《論算法與法律行為的關(guān)系:制度影響與法律回應(yīng)》,載《重慶大學(xué)學(xué)報(社會科學(xué)版)》,網(wǎng)絡(luò)首發(fā)論文,https://kns.cnki.net/kcms/detail/50.1023.C.20211203.0951.002.html。人工智能之所以能夠逼真地模擬人類行為,這與它的運作系統(tǒng)密不可分,而判斷一項AI 技術(shù)成功的標(biāo)準(zhǔn),關(guān)鍵是看其能否通過“圖靈測試”⑩在圖靈測試中,一般需要兩個人對機器進行測試,一人扮演提問者,剩余一人和機器一樣作為被提問者。提問者只知道接受提問的是A 或者B,但至于哪一個為機器人,則不知曉。如果提問者不能區(qū)分對方是人還是機器,那就可以判定這臺機器達到了人類的智能水平。同前注③,第7 頁。。人工智能作為一門科學(xué),其自身的特征也是獨一無二的。以利用推理為例,AI 程序系統(tǒng)立足于模擬人類思維的一般規(guī)律進而使用知識,即這一推理實際上是模擬人類推理形式而來。再如,Alpha Go 之所以能夠戰(zhàn)勝世界圍棋選手,最大的優(yōu)勢在于其能夠進行不斷的自我學(xué)習(xí)。這種自我學(xué)習(xí)是一種系統(tǒng)上的自我學(xué)習(xí),其主要是將圍棋巨大無比的搜索空間壓縮到可控的范圍之內(nèi),Alpha Go 自身配備的系統(tǒng)非常周密,加上Google 強大的硬件支撐和云計算資源,結(jié)合CPU&GPU進而不斷增強自己的學(xué)習(xí)水平和博弈能力。?同前注③,第66 頁。這背后體現(xiàn)的是Alpha Go 自身深度學(xué)習(xí)的能力,這其中依賴于一般的博弈算法,比如極大極小搜索算法、α-β 剪枝算法等。由此可見,無論是人工智能的設(shè)計程序抑或是人工智能的運作原理,其都主要是強調(diào)模擬人類工作、學(xué)習(xí)等方面,即人工智能的最大特征在于高度擬人化、模擬人類。

人工智能技術(shù)應(yīng)用產(chǎn)生的風(fēng)險確實也引起了人們擔(dān)憂。比如,斯蒂芬·霍金曾指出忽略人工智能的危險或是“歷史上最致命的錯誤”。?參見[美]托斯(Kalman Toth):《人工智能時代》,趙俐譯,人民郵電出版社2017 年版,第65 頁。實際上,擔(dān)憂者并不在少數(shù)。比爾·蓋茨以及牛津大學(xué)的哲學(xué)教授也曾主張人工智能威脅論,然而,人工智能專家對人工智能威脅論持反對態(tài)度,倫敦大學(xué)的金史密斯學(xué)院認(rèn)知計算機系教授馬克·畢紹針對斯蒂芬·霍金的擔(dān)憂做出了評價,他認(rèn)為霍金的這種擔(dān)憂完全是錯誤的。?同前注③,第80-83 頁。在刑法學(xué)界,有學(xué)者就以Alpha Go 戰(zhàn)勝世界圍棋冠軍為例,主張人工智能時代下的機器人已經(jīng)具備了自主學(xué)習(xí)的能力,而且其擁有自主意識和意志力,進而主張人工智能機器人實施的行為可以被評價為刑法意義上的行為。?參見劉憲權(quán)、房慧穎:《涉人工智能犯罪的前瞻性刑法思考》,載《安徽大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2019 年第1 期。

綜上所述,人工智能在事實層面上無論是從宏觀視角還是微觀視角,都能夠得出人工智能本質(zhì)上是以算法、程序為核心的科學(xué)技術(shù)。從事實層面上看人工智能機器人具備獨立意識、意志力等觀點是無法成立的,技術(shù)本質(zhì)決定了這種高度智能的人工智能體只可以作為人類先進的輔助工具,以人工智能技術(shù)為程序基礎(chǔ)的相關(guān)生成品應(yīng)做產(chǎn)品之理解。

二、人工智能進入刑法體系后的障礙

文章前述章節(jié)明確了人工智能的技術(shù)本質(zhì),刑法還應(yīng)當(dāng)立足于規(guī)范自身,在刑法體系內(nèi)部檢討人工智能進入刑法理論后的障礙。本部分主要是檢討人工智能進入刑法體系中產(chǎn)生的障礙。人工智能有關(guān)問題無論是從法規(guī)范主體的可解釋性上,還是從刑法體系內(nèi)關(guān)鍵要素如罪過形態(tài)以及刑罰論的檢討上,都無法得到刑事規(guī)范肯定性的答復(fù)。

(一)人工智能不具備法律主體的可解釋性

人工智能進入到刑法領(lǐng)域內(nèi)的首要問題是,人工智能主體是否具備刑法規(guī)范主體的可解釋性。這是因為,主體行為的可解釋性是責(zé)任承擔(dān)的基本前提,而且,權(quán)利的可實踐性正是以其具備可解釋性為關(guān)鍵前提。?參見劉艷紅:《人工智能的可解釋性與AI 的法律責(zé)任問題研究》,載《法制與社會發(fā)展》2022 年第1 期。因此,人工智能擬作為法律規(guī)范上的主體必須要經(jīng)過主體理論的檢驗。畢竟,法律是由人類創(chuàng)造的社會產(chǎn)物,目的是為了調(diào)整人與人之間的社會關(guān)系。法律規(guī)范關(guān)注的首要問題便是主體問題,否則無從談及后續(xù)的法律關(guān)系以及法律責(zé)任問題。?參見孫占利:《智能機器人法律人格問題論析》,載《東方法學(xué)》2018 年第3 期。

當(dāng)下,學(xué)界對于人工智能主體在刑法規(guī)范上的定位產(chǎn)生了爭議??隙ㄈ斯ぶ悄苤黧w地位的觀點如,人工智能時代下智能機器人因為具有了辨認(rèn)能力和控制能力,因此可以作為刑事責(zé)任主體。?參見劉憲權(quán):《人工智能時代的刑事風(fēng)險與刑法應(yīng)對》,載《法商研究》2018 年第1 期。還有學(xué)者從法人的角度出發(fā),主張通過類比法人制度來賦予智能機器人權(quán)利主體資格,其認(rèn)為通過這種“法律擬制”可以為立法者提供解決智能機器人權(quán)利來源的問題。?參見張玉潔:《論人工智能時代的機器人權(quán)利及其風(fēng)險規(guī)制》,載《東方法學(xué)》2017 年第6 期。否定人工智能主體地位的觀點認(rèn)為,行為主體意指在刑法上實施犯罪行為的主體,其通常來說指的是自然人,刑法構(gòu)成要件要素中所規(guī)定的主體指的也是自然人,而且其所描述的行為主要也是指由自然人實施的行為。?參見張明楷:《刑法學(xué)》,法律出版社2021 年版,第170-171 頁。哲學(xué)層面上所指的刑法主體必須具備實踐性和社會性的本質(zhì)特征,實踐性要求主體能夠進行有意識的活動,社會性要求主體能夠與特定的社會關(guān)系進行互動。?參見王利賓:《弱人工智能的刑事責(zé)任問題研究》,載《湖南社會科學(xué)》2019 年第4 期。即便是人工智能技術(shù)在無人駕駛領(lǐng)域的應(yīng)用有著優(yōu)越的表現(xiàn),但在德國修訂的《道路交通法》中,也未予承認(rèn)人工智能的主體地位,由此可見,立法者并不認(rèn)為可以將這一主體納入到立法藍圖中,畢竟不論是自然行為論、目的行為論還是社會行為論都主張行為的發(fā)起者應(yīng)當(dāng)是自然人。21參見江溯:《人工智能作為刑事責(zé)任主體:基于刑法哲學(xué)的證立》,載《法制與社會發(fā)展》2021 年第3 期。

在本文看來,人工智能法律規(guī)范的主體地位是不成立的,理由如下:其一,刑法必須正視人作為規(guī)范主體的獨立性與專門性,人工智能主體性的觀點忽視了人作為規(guī)范的終極目的性。我國法律規(guī)范體系中,憲法及刑法都在其規(guī)定中明確指出立法宗旨是為了服務(wù)人類自身,人類是法律規(guī)范意義上獨一無二的主體。人工智能也不具備獲得道德主體地位的資格,22參見張今杰:《人工智能體的道德主體地位問題探討》,載《求索》2022 年第1 期。這當(dāng)然會影響到它的規(guī)范主體地位。當(dāng)下,就法律主體的概念而言,德國法哲學(xué)家拉德布魯赫曾做出以下定義,其主要是指能夠被特定時代實定法當(dāng)作是目的本身而予以尊重的事物。23參見駱正言:《從自由意志談人工智能的法律主體資格》,載《湖南社會科學(xué)》2020 年第2 期。換言之,法律主體在特定時代下永遠是目的而不是手段?;诖耍从^當(dāng)下肯定人工智能主體性的理論,可以發(fā)現(xiàn)這一系列觀點背后的主要目的是為了服務(wù)人類自身,即該觀點認(rèn)為將人工智能視為法律規(guī)范的主體更加便于在立法上進行管理,這就意味著人工智能主體性理論始終都被視為手段而非目的。

其二,人工智能不具備法律主體要求的辨認(rèn)能力和控制能力。無論是強人工智能還是弱人工智能,其所謂的能夠“自主學(xué)習(xí)”“獨立思考”等實際上都依賴于設(shè)計者所設(shè)計的基礎(chǔ)程序,這種“辨認(rèn)能力”和“控制能力”也不過是計算機算法運行的體現(xiàn),與人的意志體現(xiàn)并不相同。刑法規(guī)范根本無法期待人工智能機器人能夠?qū)崿F(xiàn)獨立自動的思考。24See Gabriel Hallevy.Liability for Crimes Involving Artificial Intelligence Systems.Springer International Publishing,2015:2.畢竟,從犯罪成立的基礎(chǔ)要求來看,犯罪永遠都是人的行為,與人的意志無關(guān)的事件永遠無法實現(xiàn)犯罪構(gòu)成,行為都是受制于人的思想且無關(guān)于機械或生理活動。25參見[德]費蘭茨·馮·李斯特:《德國刑法教科書》,徐久生譯,法律出版社2006 年版,第167-177 頁。即便是強人工智能高度模擬了人類行為,諸如對人類常識、直覺等特殊的感知能力的模擬,人工智能也難以實現(xiàn)自由意志。26參見葉良芳:《人工智能是適格的刑事責(zé)任主體嗎?》,載《環(huán)球法律評論》2019 年第4 期。由此可見,人工智能技術(shù)無論發(fā)展到哪一階段,其都是技術(shù)創(chuàng)新與進步的體現(xiàn),其“意志”不過是人類意志的體現(xiàn),人工智能始終無法與“自由意志”產(chǎn)生必然聯(lián)系。

其三,理論中以法人獲得主體資格的法理來類比演繹人工智能主體性的觀點是無法成立的。這一主張忽視了法人集合體人合性的本質(zhì)特征,法人與人工智能體的根本區(qū)別在于法人的行為總是通過自然人來“完成”27同前注②。。單位犯罪一般是由單位的決策機構(gòu)按照單位規(guī)定的決策程序做出決定,然后交由直接責(zé)任人實施。并且,單位這一主體在刑法的前置法如民法、經(jīng)濟行政法都得到了確認(rèn),相比之下人工智能的主體性則未予確認(rèn)。28參見劉仁文、曹波:《人工智能體的刑事風(fēng)險及其歸責(zé)》,載《江西社會科學(xué)》2021 年第8 期。單位犯罪具體行為的實施還是要依靠自然人來完成,單位脫離了自然人也就不復(fù)存在,單位的意志也是全體成員意志的集合。29同前注?,第176-177 頁。此外,對于法人本身能否成為刑事責(zé)任主體當(dāng)下也并未形成統(tǒng)一意見,在德國刑法中就不承認(rèn)法人和經(jīng)濟企業(yè)的刑事責(zé)任。30參見[德]烏爾斯·金德霍伊澤爾:《刑法總論教科書》,蔡桂生譯,北京大學(xué)出版社2015 年版,第9 頁。

(二)人工智能不具備刑法要求的罪過形態(tài)

罪過形態(tài)作為完整的犯罪體系中不可缺少的因素,也是人工智能進入刑法理論體系繞不開的話題。有學(xué)者主張在強人工智能時代下,機器人已經(jīng)具備了認(rèn)知能力。31參見劉憲權(quán):《人工智能時代的“內(nèi)憂”“外患”與刑事責(zé)任》,載《東方法學(xué)》2018 年第1 期。并且,學(xué)者還主張智能機器人與自然人有很多共同之處,由自然人實施的絕大多數(shù)犯罪行為智能機器人也可以實施,例如詐騙罪等。32參見劉憲權(quán):《人工智能時代機器人行為道德倫理與刑法規(guī)制》,載《比較法研究》2018 年第4 期。需要注意的是,刑法規(guī)范注重對行為人故意或者過失這種罪過形態(tài)的判斷,故意和過失的認(rèn)定在刑法體系中的位置不言自明。而且,刑法強調(diào)對故意和過失的判斷,不能僅停留在對事實的認(rèn)定上,還包括對法律規(guī)范的認(rèn)識和感知。33參見皮勇:《人工智能刑事法治的基本問題》,載《比較法研究》2018 年第5 期。換言之,刑法不能只要求行為主體對記述的構(gòu)成要件要素具備認(rèn)識,還應(yīng)具備規(guī)范意義上的認(rèn)識,并且,這種認(rèn)識應(yīng)當(dāng)是對行為性質(zhì)、后果以及作用的認(rèn)識。

在本文看來,人工智能并不具備刑法意義上的罪過形態(tài),原因如下:其一,人工智能體不具備故意或者過失這一罪過形態(tài)。無論是從事實層面還是規(guī)范層面,人工智能始終無法產(chǎn)生故意或者過失的罪過形態(tài),無法通過其自身能力理解法律法規(guī)所規(guī)定的意義。也無法期待人工智能與刑法分則中規(guī)定的目的犯產(chǎn)生碰撞,比如詐騙罪要求“以非法占有為目的”等,因為特定目的產(chǎn)生的前提是主體必須具有自由意志,而且主體能夠認(rèn)識到其行為的社會評價以及規(guī)范評價,而人工智能顯然不具備這一點。此外,立足于自主性的發(fā)展邏輯來看,人工智能難以生成較強的自由意志,更不用說能具備實質(zhì)的自我意識。34參見程承坪:《論人工智能的自主性》,載《上海交通大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2022 年第1 期。其二,故意或者過失罪過形態(tài)的證明也成為人工智能作為刑事規(guī)范主體的障礙。刑法將人工智能機器人作為法律主體的觀點在證據(jù)法上也存在障礙,即在罪責(zé)層面上對故意和過失的證明成為一大難點。刑法無法期待僅通過人工智能體的行為證明其具備犯罪意圖,這也難以達到排除合理懷疑的程度,即刑法無法判斷這是否是因為人工智能體內(nèi)部程序運行出錯導(dǎo)致。故意、過失這種心素的記載對評價行為具有重要的意義,如果缺乏這種心素的描述行為就失去了表達的含義,失去了主觀要素的支撐,僅靠單純的“裸”行為要素似乎難以起到“篩選”犯罪的作用。35參見楊春然:《論故意在三階層犯罪論體系中的位置》,載《中外法學(xué)》2011 年第4 期。反觀智能機器人所實施的行為,正是不具備心素內(nèi)容的“裸”行為,這種無意識的行為并不具備被刑法評價的資格。

(三)人工智能不具備進入刑罰體系的資格

人工智能除了前述理論上的障礙以外,其在刑罰論中也不具備進入到當(dāng)下刑罰體系的資格,這主要體現(xiàn)在人工智能受刑能力的缺失以及針對人工智能增設(shè)新罪名以及新配套措施上的障礙。

1.人工智能不具備受刑能力

人工智能進入到刑罰體系中,無法期待對人工智能的處罰能產(chǎn)生刑罰上的意義。刑罰作為聯(lián)結(jié)行為與行為人的橋梁,其有著將行為產(chǎn)生的責(zé)任過渡到具體行為人身上的功能。刑罰是國家針對侵犯法益的犯罪行為而予以懲罰的一項嚴(yán)厲措施,其一般建立在剝奪性、限制性等痛苦基礎(chǔ)之上。本文認(rèn)為,人工智能不具備受刑資格,主要體現(xiàn)在以下幾點:

第一,人工智能不具備受刑能力。受刑能力的關(guān)鍵是受刑者能夠感知到其行為帶來的規(guī)范意義上的否定性評價,并由此承擔(dān)精神或者身體上的痛苦。通過受刑對象對刑罰感知的回應(yīng),以此可以證明規(guī)范實施的有效性。受刑者只有借助這種由刑罰實施產(chǎn)生的羞恥感或者痛苦,才能體現(xiàn)刑罰的功能和作用,受刑者或潛在的犯罪人才會理性掌控自己的行為,國家和社會才得以正常運轉(zhuǎn)。人工智能實則并不存在情感,也不具有道德判斷和認(rèn)知,且欠缺感知刑罰痛苦的能力,故導(dǎo)致刑罰必要性的缺失。36同前注26。持相同觀點的還有張鐳:《人工智能體可罰性辯疑》,載《南京社會科學(xué)》2018 年第11 期。因此,人工智能體不具備感知痛苦的能力決定了對其實施刑罰的無意義和不切實際性。37同前注24。畢竟,無法期待一臺冰冷的機器能夠感受到痛苦或者羞恥,即便是其未來會產(chǎn)生痛覺或者羞恥感,這也是建立在人類為其編寫的程序基礎(chǔ)上。實際上,人類創(chuàng)造的機器人應(yīng)由人類自身為機器人的“不法”行為買單。38See Jacob Turner,Robot Rule:Regulating Artificial Intelligence.UK:Palgrave Macmillan,2019:119.當(dāng)然,法人組織也不具備感知受刑能力,但我國刑法對法人犯罪規(guī)定了相應(yīng)的處罰措施。這是因為,法人具備人合性的組織特征,法人組織感知受刑的能力都可以內(nèi)化到內(nèi)部成員。

第二,人工智能體具備受刑能力的觀點在當(dāng)下規(guī)范邏輯上出現(xiàn)了障礙。按照部分學(xué)者主張應(yīng)承認(rèn)人工智能具有受刑能力的邏輯,進而也應(yīng)當(dāng)承認(rèn)賦予智能機器人基本的權(quán)利。有學(xué)者從權(quán)利歷史演進的角度主張應(yīng)遵循動物獲得權(quán)利的軌跡,認(rèn)為智能機器人也應(yīng)當(dāng)被賦予權(quán)利,同時,指出權(quán)利主體不應(yīng)是一成不變的。39同前注?。但在本文看來,法律規(guī)范賦予人工智能體權(quán)利這一做法并不現(xiàn)實,理由如下:其一,人工智能體無論是從技術(shù)還是從道德上來看,其在賦權(quán)過程中都存在障礙。40參見甘紹平:《機器人怎么可能擁有權(quán)利》,載《倫理學(xué)研究》2017 年第3 期。人工智能體最初是以工具身份亮相,這就決定了其最終也只得以工具來定位。法律規(guī)范無法期待人類與人工智能體或者人工智能體自身之間能夠達成社會契約,因為這種社會生活的游戲規(guī)則只有人與人之間才具備制定與遵守的資格和能力。其二,刑法規(guī)范若賦予人工智能體權(quán)利,則這一權(quán)利的根據(jù)來源不明確。我國憲法強調(diào)保護人權(quán),若在刑法中承認(rèn)機器人享有權(quán)利,但憲法條文中并未就此做出明確指示,這就造成了刑法與憲法相沖突的尷尬困境。其三,法律規(guī)范若賦予人工智能體權(quán)利,則這一權(quán)利的行使面臨一定的困難。例如,法律規(guī)范倘若賦予人工智能體生育權(quán)、財產(chǎn)權(quán)等基本權(quán)利,接下來所要考慮的是如何保障這一權(quán)利的行使。此外,人工智能體是否在滿足基本條件之后享有選舉權(quán)與被選舉權(quán)等,這都會為法律和社會帶來不小的挑戰(zhàn)。其四,理論界主張類比動物獲得權(quán)利的軌跡來啟示對人工智能體賦權(quán)的工作并不可行。現(xiàn)有的法律條文對野生動物只是做出了保護性的指示,并未明確提及要賦予野生動物權(quán)利。倘若賦予動物最基本的諸如生命權(quán)等權(quán)利,那么,人類傷害或屠宰家禽剝奪生命的行為便屬于侵權(quán)行為抑或是犯罪行為,因此,動物作為權(quán)利主體并不可行,人工智能體同理亦是如此。

第三,刑法懲罰人工智能不符合刑罰的功能和目的。刑罰作為對犯罪人權(quán)利和利益的一種剝奪和限制手段,在滿足了刑法規(guī)范目的的同時,對國家和社會來說都具有相當(dāng)大的副作用。41同前注?,第667-669 頁。刑法之所以主張對自然人科處刑罰,是因為對于自然人犯罪刑罰能夠發(fā)揮一般預(yù)防和特殊預(yù)防的功能,最終達到減少犯罪的效果。從一般預(yù)防功能考察,針對人工智能實施刑罰處罰是否能夠起到威懾潛在犯罪的效果,答案顯然是否定的。刑法根本無法期待潛在的人工智能會因此產(chǎn)生敬畏法律的意識。從這一點來看,人工智能的一般預(yù)防效果無法與規(guī)范的有效性產(chǎn)生聯(lián)動。同理,從特殊預(yù)防的角度來看,對人工智能科處刑罰也不具備規(guī)范上的意義。而且,對人工智能實施刑罰措施悖離了社會大眾對常識常理常情的認(rèn)知,實在無法想象機器會“在意”對自己的“不法行為”實施的“刑罰”。因此,刑法對智能機器人實施刑罰并不具備任何意義。42參見劉艷紅:《人工智能法學(xué)研究的反智化批判》,載《東方法學(xué)》2019 年第5 期。

2.增設(shè)罪名及配套刑罰措施的障礙

目前,刑法學(xué)界有觀點認(rèn)為,強人工智能時代刑法應(yīng)增設(shè)人工智能相關(guān)犯罪以及配套的刑罰措施,以實現(xiàn)刑法對人工智能犯罪的規(guī)制。例如,有學(xué)者主張應(yīng)當(dāng)圍繞著人工智能構(gòu)建新的刑罰體系。43參見劉憲權(quán):《涉人工智能犯罪刑法規(guī)制的路徑》,載《現(xiàn)代法學(xué)》2019 年第1 期。還有學(xué)者主張增設(shè)濫用人工智能罪和人工智能事故罪,該學(xué)者主張在配套的刑罰措施上增設(shè)刪除數(shù)據(jù)、修改程序。44參見王燕玲:《人工智能時代的刑法問題與應(yīng)對思路》,載《政治與法律》2019 年第1 期。另外,還有學(xué)者主張將人工智能有關(guān)犯罪擴充至刑法分則體系中,即在分則第六章專章增設(shè)“妨害人工智能發(fā)展罪”以及增設(shè)有關(guān)“擾亂人工智能活動罪”“非法提供人工智能技術(shù)罪”以及“非法利用人工智能罪”等。45參見李振林:《人工智能時代的刑事立法藍圖》,載《人民法院報》2021 年2 月11 日,第6 版。不難看出,上述主張增設(shè)人工智能相關(guān)犯罪觀點背后體現(xiàn)的正是以人類利益為中心的人類利益優(yōu)先論,即上述罪名從表述來看都是將人工智能作為一種工具或者是技術(shù)資源等,人工智能在上述擬增設(shè)的罪名中并非是主體。不過應(yīng)當(dāng)注意的是,即便刑法主張人類利益優(yōu)先,也大可不必以擴充刑法體系的方式維護人類利益,而且這一做法并不見得是最佳手段,因為刑罰圈的擴張意味著人類自由空間的壓縮,這樣看來反而會削減人類的利益,并且還會阻礙科學(xué)技術(shù)的進步。本文對增設(shè)有關(guān)罪名及配套刑罰措施的主張持否定態(tài)度,理由如下:

其一,新罪名的增設(shè)與當(dāng)下既有的刑法規(guī)范相沖突。濫用人工智能罪、非法利用人工智能罪等罪名的增設(shè)不過是把人工智能當(dāng)作是輔助人類的一種工具罷了。之所以要增設(shè)新罪,是因為這種觀點認(rèn)為濫用、非法利用人工智能的社會危害性要高于傳統(tǒng)的犯罪行為,而后動輒就以新增罪名予以規(guī)制。然而,這一做法未免過于激進,對其把控不當(dāng)?shù)脑挊O有可能阻礙科學(xué)技術(shù)的進步。以核事故、生化武器為例,人類濫用核能以及生化武器等所造成的社會危害性并不低于濫用、非法利用人工智能的行為,然而刑法并未對濫用核能等行為單獨進行規(guī)定。事實上,上述增設(shè)相關(guān)罪名的目的無非是強調(diào)對公共安全的保護,因為這種觀點認(rèn)為人工智能潛在的社會危害性較大,而且其危害的對象也不特定,既有的刑法規(guī)范無法對其進行規(guī)制,因此刑法應(yīng)當(dāng)將這一主體單獨進行立法。然而,這一現(xiàn)象在既有的刑法體系內(nèi),通過現(xiàn)有的刑法解釋方法完全可以“以危險方法危害公共安全罪”來消解上述問題。同理,反觀增設(shè)人工智能事故罪背后的法理,不過是為了提醒研發(fā)者和使用者應(yīng)當(dāng)盡到注意義務(wù),而現(xiàn)有的刑法體系早已對注意義務(wù)作出了規(guī)定,比如:重大責(zé)任事故罪等。因此,刑法沒有必要超出現(xiàn)有的體系增設(shè)新的罪名或者是擴充刑罰體系。

其二,新增的“刑罰措施”并不屬于刑法意義上的措施。既有的刑罰措施在當(dāng)下都是建立在以人為主體的前提下,刑法中的處罰措施都是根據(jù)人的主體性特征所構(gòu)建,這也符合刑罰處罰措施的應(yīng)然狀態(tài),因此,刑法無法期待針對人工智能再構(gòu)建一套新的刑罰體系。再者,刑罰措施應(yīng)當(dāng)是刑法所獨有的,并且由國家壟斷其實施的權(quán)利,例如監(jiān)禁刑、死刑等。反觀新增的修改程序、刪除數(shù)據(jù)等措施,并不是專屬于刑法的處罰措施,這些措施實施的權(quán)利并未由國家壟斷,一般的技術(shù)員、研發(fā)者在發(fā)現(xiàn)人工智能出現(xiàn)問題時亦可實施上述措施,這一做法似乎將執(zhí)行刑罰的權(quán)利下放到了技術(shù)人員手中,顯然不具備合理性。

除了上述爭議之外,刑法增設(shè)相關(guān)罪名以及配套措施的爭議還引起了學(xué)界劃分人工智能刑事責(zé)任能力的探討。畢竟,刑罰的執(zhí)行也受行為主體刑事責(zé)任能力的影響。對此,學(xué)界有觀點指出,刑法應(yīng)以人工智能體智能化程度的高低作為劃分刑事責(zé)任能力的根據(jù),即智能化程度較低的對應(yīng)刑法中完全無刑事責(zé)任階段,智能化程度較高的則對應(yīng)相對有刑事責(zé)任階段,智能化程度很高的則對應(yīng)的是完全有刑事責(zé)任階段,對于“間接性系統(tǒng)異常中病毒”的情形應(yīng)當(dāng)類比間接性精神病人的處理原則,進而主張這種情形下的人工智能體實施的不法行為不承擔(dān)刑事責(zé)任能力。46參見馬治國、田小楚:《論人工智能體刑法適用之可能性》,載《華中科技大學(xué)學(xué)報(社會科學(xué)版)》2018 年第2 期。這一主張形式上貌似合理,但從實質(zhì)上來看這一觀點存在明顯的漏洞,即其主張的將技術(shù)評價標(biāo)準(zhǔn)引入到刑法規(guī)范中不存在正當(dāng)性的依據(jù),畢竟技術(shù)規(guī)范與刑事責(zé)任認(rèn)定標(biāo)準(zhǔn)的出身不同,也即兩者的制定主體與制定程序都有著很大的差別。比如,刑法在對未成年人刑事責(zé)任年齡的劃分上,一貫以未成年人利益最佳原則為根據(jù),考慮因素既有未成年的雙面角色,也有長遠利益發(fā)展的追求。47參見滿濤《:未成年人利益最佳與刑事責(zé)任年齡的降低——兼評〈刑法修正案(十一)〉第一條》,載《河北法學(xué)》2021年第7期。但是,反觀人工智能刑事責(zé)任年齡的劃分,其對無刑事責(zé)任年齡或者相對負(fù)刑事責(zé)任年齡階段的劃分并未提供可靠依據(jù),僅是技術(shù)標(biāo)準(zhǔn)和智能程度高低在支撐著人工智能刑事責(zé)任能力的劃分。人工智能間接性中病毒或者系統(tǒng)異常的情形類比為間接性精神病人的觀點更是站不住腳,因為人工智能所謂的“發(fā)病”原理與精神病人并不相同,而且這一主張忽視了人工智能可被及時修復(fù)的情況。上述觀點提出的方案似乎較為隨意,且破壞了刑法的嚴(yán)肅性。

綜上所述,刑法拋開對人工智能在技術(shù)層面的考量后,僅從刑法理論視角出發(fā)也能夠得出,人工智能法律規(guī)范的主體性理論無法在刑法體系內(nèi)找到合適的落腳點。因此,文章前兩部分的討論基本上終結(jié)了人工智能以獨立身份進入到刑法體系內(nèi)的計劃。

三、刑法教義學(xué)視角下風(fēng)險社會理論的反思

人工智能屬于風(fēng)險社會有關(guān)理論的典型張貼對象,因此,刑法對人工智能的探討必然要聯(lián)系到風(fēng)險社會理論。刑法驗證人工智能問題真?zhèn)涡缘念~外方案便是從作為源頭的風(fēng)險社會理論入手,從根本上檢驗風(fēng)險社會理論的問題,這也是刑法解決人工智能問題最透徹的辦法?;诖?,本部分首先明確人工智能與風(fēng)險社會的種屬關(guān)系,而后從刑法的基本原則入手對風(fēng)險社會相關(guān)理論(包括由此產(chǎn)生的風(fēng)險刑法理論,以下簡稱“風(fēng)險社會相關(guān)理論”)進行檢驗,最終得出風(fēng)險社會相關(guān)理論無法通過法益保護原則和最后手段原則檢驗的結(jié)論。

(一)風(fēng)險社會理論以人工智能為張貼對象

應(yīng)當(dāng)承認(rèn)的是人工智能時代的到來確實為社會發(fā)展帶來了諸多潛在的風(fēng)險,而這也正是風(fēng)險社會理論一貫主張的由技術(shù)發(fā)展帶來的風(fēng)險,由此意味著人類已逐漸進入風(fēng)險社會。對此,學(xué)界有觀點做出了肯定性回應(yīng),例如,吳漢東教授主張應(yīng)當(dāng)在風(fēng)險社會理論的范疇中研究人工智能相關(guān)問題。48參見吳漢東:《人工智能時代的制度安排與法律規(guī)制》,載《社會科學(xué)文摘》2017 年第12 期。而且,就風(fēng)險社會的發(fā)展來講,德國社會學(xué)家貝克曾指出,由現(xiàn)代科技造成的深刻變革致使世界正在從工業(yè)社會逐漸走向風(fēng)險社會,而風(fēng)險社會關(guān)注的重點就是技術(shù)進步所帶來的風(fēng)險,即技術(shù)進步導(dǎo)致的社會轉(zhuǎn)型并由此埋下的許多潛在風(fēng)險,但其并不僅僅局限于技術(shù)風(fēng)險。49參見勞東燕:《風(fēng)險刑法理論的反思》,載《社會科學(xué)文摘》2020 年第1 期。不過,刑法正視風(fēng)險社會的到來并不意味著必然會導(dǎo)致風(fēng)險刑法的抬頭。否則,這種由風(fēng)險社會引發(fā)的諸如對“泛人工智能化”的相關(guān)探討極易制造學(xué)術(shù)泡沫。50同前注。

事實上,風(fēng)險社會理論中的風(fēng)險在當(dāng)下出現(xiàn)了關(guān)注對象泛化的現(xiàn)象,甚至還滋生出了風(fēng)險刑法理論。風(fēng)險社會中的風(fēng)險主要是建立在技術(shù)發(fā)展的基礎(chǔ)之上,并且主要是以技術(shù)發(fā)展帶來的不確定性風(fēng)險。然而,當(dāng)下學(xué)界有學(xué)者認(rèn)為諸如政治風(fēng)險、制度風(fēng)險等也應(yīng)當(dāng)納入到風(fēng)險的口袋。51參見勞東燕:《公共政策與風(fēng)險社會的刑法》,載《中國社會科學(xué)》2007 年第3 期。但是,該主張忽視了貝克口中的風(fēng)險社會理論的誕生背景,即政治、制度風(fēng)險無法與技術(shù)風(fēng)險作出同類解釋,前后兩者之間無法產(chǎn)生必然聯(lián)系。其實,不管風(fēng)險社會理論所關(guān)注的具體對象為何,從抽象的視角來看,該理論將關(guān)注點集中在了“風(fēng)險”對象身上。同時,風(fēng)險社會理論在“風(fēng)險”對象的發(fā)酵中還演繹出了風(fēng)險刑法理論。風(fēng)險刑法理論認(rèn)為傳統(tǒng)刑法已無法高效應(yīng)對風(fēng)險社會所帶來的各種風(fēng)險,故學(xué)界有學(xué)者對傳統(tǒng)刑法保護的滯后性表現(xiàn)出了不滿。52參見陳京春:《抽象危險犯的概念詮釋與風(fēng)險防控》,載《法律科學(xué)(西北政法大學(xué)學(xué)報)》2014 年第3 期。因此,風(fēng)險刑法理論受風(fēng)險社會理論的啟發(fā)便應(yīng)運而生。于是,風(fēng)險社會理論形成了以人工智能為表征,以風(fēng)險刑法理論為規(guī)范分支的較為豐富的結(jié)構(gòu)體系。

(二)風(fēng)險社會理論在法益保護原則上的瓦解

風(fēng)險社會相關(guān)理論能否在刑法教義學(xué)體系內(nèi)站住腳,關(guān)鍵在于其能否通過刑法“入罪質(zhì)檢員”法益保護原則的檢驗。刑法應(yīng)當(dāng)以保護法益為目的,將行為對法益造成的損害作為違法性的根據(jù),缺少了法益保護原則的支撐,刑法體系就會被抽空。然而,當(dāng)下風(fēng)險社會理論在法益保護原則的檢討下出現(xiàn)了以下困難:第一,風(fēng)險社會中的風(fēng)險無法上升為刑法意欲保護的法益。風(fēng)險社會中所指的風(fēng)險是科學(xué)技術(shù)發(fā)展給社會帶來的風(fēng)險,是傳統(tǒng)的一般意義上的社會風(fēng)險,與刑法中關(guān)注的對象完全不同。53參見陳興良:《風(fēng)險刑法理論的法教義學(xué)批判》,載《中外法學(xué)》2014 年第1 期。刑法所關(guān)注的對象都是“危險”而非“風(fēng)險”,這兩者之間的對比顯然前者要比后者在程度上更為緊迫,后者實際上是中性詞,前者則是貶義詞,而刑法更關(guān)注貶義屬性的“危險”。除此之外,刑法中都是針對帶有危險性行為的犯罪,如危險駕駛罪、以危險方法危害公共安全罪等。風(fēng)險這一概念更傾向于在社會層面加以理解,比如投資風(fēng)險、股市風(fēng)險、技術(shù)風(fēng)險等。

第二,風(fēng)險社會相關(guān)理論悖離了法益損害實害化的訴求。風(fēng)險刑法相關(guān)理論呈現(xiàn)出法益保護早期化的趨勢。54參見呂英杰:《風(fēng)險刑法下的法益保護》,載《吉林大學(xué)社會科學(xué)學(xué)報》2013 年第4 期。根據(jù)這一主張,刑法不再過多的關(guān)注行為對法益的侵害是否發(fā)生了具體的結(jié)果,而是轉(zhuǎn)向了以預(yù)防為主的模式,以法益是否遭到潛在的風(fēng)險威脅為標(biāo)準(zhǔn)判斷行為是否入罪。這使得關(guān)注風(fēng)險刑法的學(xué)者逐漸走向否定法益功能的泥沼中。55參見張明楷:《“風(fēng)險社會”若干刑法理論問題反思》,載《中國檢察官》2012 年第1 期。風(fēng)險刑法理論認(rèn)為刑法還應(yīng)當(dāng)對未來可能出現(xiàn)的風(fēng)險行為進行規(guī)制。但是,法益保護原則要求刑法規(guī)制的是對法益造成損害的行為,這一普適性的刑事立法觀在當(dāng)下扮演著愈來愈重要的角色。在這個問題上,羅克辛教授一貫持否定態(tài)度,其主張刑法若是要對風(fēng)險做出評價,不得脫離法益這一概念以及有關(guān)法治國的歸責(zé)原則。56參見[德]克勞斯·羅克辛:《德國刑法學(xué)總論(第1 卷)》,王世洲譯,法律出版社2005 年版,第19 頁。刑法脫離了實在化法益的指導(dǎo),其在規(guī)制行為入罪方面將會變得十分危險,甚至是大幅度萎縮公民的行為。因此,風(fēng)險社會下刑法是否有必要過早介入,實際上是存在疑問的,否則這種做法很容易稀釋法益保護原則。57參見[日]松原芳博:《刑法總論重要問題》,王昭武譯,中國政法大學(xué)出版社2014 年版,第17 頁。

第三,風(fēng)險社會相關(guān)理論類比抽象危險犯法理的做法并不可靠。風(fēng)險刑法理論經(jīng)常借抽象危險犯為例進行論證,指出抽象危險犯并未引起法益損害的實害結(jié)果但卻被規(guī)定為犯罪。因此,風(fēng)險刑法理論主張以此為根據(jù)作為其在刑法教義學(xué)中的延伸。但是,在本文看來,刑法增設(shè)抽象危險犯的法理與風(fēng)險社會相關(guān)理論并不相同,原因有:其一,從文義解釋來看兩者關(guān)注的對象存在質(zhì)的差異。抽象危險犯關(guān)注的是刑法中的“危險”,而風(fēng)險相關(guān)理論關(guān)注的是“社會風(fēng)險”,后者無論如何也不具備被評價為法益的資格。其二,兩組概念產(chǎn)生的背景時間大相徑庭,這就決定了兩者并非是同種概念。抽象危險犯概念的提出早于風(fēng)險社會相關(guān)理念,抽象危險犯的概念最早可以追溯到19 世紀(jì)的《德國刑法典》《法國刑法典》,而風(fēng)險刑法理論是伴隨著后工業(yè)社會所興起的概念,兩者并不同根同源。其三,抽象危險犯有著實在的法益實害結(jié)果訴求,風(fēng)險社會則不具備法益保護的訴求。即便是抽象危險犯的認(rèn)定也應(yīng)當(dāng)注重對法益侵害結(jié)果的考察,即其無論如何也不可脫離與法益實害結(jié)果的關(guān)聯(lián)。58參見黎宏:《論抽象危險犯危險判斷的經(jīng)驗法則之構(gòu)建與適用——以抽象危險犯立法模式與傳統(tǒng)法益侵害說的平衡和協(xié)調(diào)為目標(biāo)》,載《政治與法律》2013 年第8 期。因此,抽象危險犯在刑法體系中一貫堅持以保護實在化的法益為原則,將法益保護最終落實到對法益實害化損害的考察中,這也就決定了其與風(fēng)險社會相關(guān)理論完全不同。

最后,風(fēng)險社會相關(guān)理論甚至試圖在法益內(nèi)涵的擴充上有所作為,即持風(fēng)險刑法論的學(xué)者主張為適應(yīng)社會發(fā)展,刑法法益的內(nèi)涵應(yīng)當(dāng)被及時更新擴充。這種觀點認(rèn)為法益的概念應(yīng)當(dāng)被擴充至以制度保護和對制度的信賴保護為基礎(chǔ)的“普遍法益”上,主要包括公共安全、經(jīng)濟制度等。59同前注。本文持否定態(tài)度,原因是,刑法之所以設(shè)置法益這一概念,是為了保護人類生活所必不可少的基本命財。60參見張明楷:《法益初論》,中國政法大學(xué)出版社2000 年版,第153-155 頁。法益這一概念的創(chuàng)設(shè)最終要服務(wù)于人本身,盡管我國刑法分則中也體現(xiàn)了對國家安全、公共安全法益的保護,但從實質(zhì)上來看,分則中的這一系列法益最終都能夠還原為個人法益。對此,學(xué)界有觀點指出諸如這種集體法益如果不能夠被還原為個人法益,刑法也就失去了保護的必要性。61參見姜濤:《社會風(fēng)險的刑法調(diào)控及其模式改造》,載《社會科學(xué)文摘》2019 年第9 期。基于此,反觀風(fēng)險社會相關(guān)理論所主張“普遍法益”,實質(zhì)上就將法益保護原則空洞化了,即其無法還原到以人為本的個人法益中。

(三)風(fēng)險社會理論在最后手段原則上的瓦解

風(fēng)險社會相關(guān)理論在最后手段原則的檢討中也出現(xiàn)了問題。刑法若要規(guī)制風(fēng)險社會下的風(fēng)險,至少還要經(jīng)受住最后手段原則的檢驗。風(fēng)險社會相關(guān)理論的主張在應(yīng)對風(fēng)險時直接越過了最后手段原則的訴求,即直接主張以刑法規(guī)制風(fēng)險社會中的風(fēng)險。例如,有學(xué)者主張為應(yīng)對人工智能技術(shù)的飛速進步,考慮到技術(shù)進步會給法益帶來的一系列可能的損害,認(rèn)為刑法應(yīng)當(dāng)進行前瞻性的立法。62同前注?。顯然,該主張并未在最后手段原則層面加以論證,即便這種由后工業(yè)社會帶來的風(fēng)險已經(jīng)達到了由法規(guī)范調(diào)整的地步,是否必然意味著刑法應(yīng)當(dāng)規(guī)制這種情形尚且存疑,畢竟刑法是保護社會的最后一道防線。

在本文看來,刑法恪守最后手段的原則結(jié)果是,風(fēng)險社會相關(guān)理論的主張不具備刑法保護的必要性。刑法立足于最后手段原則的微觀與宏觀視角來審視風(fēng)險社會相關(guān)理論,該理論不成立的表現(xiàn)如下:

從微觀角度來看,風(fēng)險社會相關(guān)理論無法通過該原則內(nèi)部子原則的檢討。最后手段原則項下包含三個子原則:適當(dāng)性原則、必要性原則和權(quán)衡性原則,適當(dāng)性原則強調(diào)的是刑法要保護的必須是值得保護的法益,并且法益保護和手段之間要具備一定的關(guān)聯(lián)性;必要性原則主張刑法手段的實施必須能夠滿足特定的立法目的;權(quán)衡性原則關(guān)注的是刑罰實施的負(fù)擔(dān)與收益要處于平衡位置。63參見楊春然:《論法教義學(xué)視角下的最后手段原則的規(guī)范構(gòu)成及適用——兼論憲法對犯罪論體系的選擇》,載《中國刑事法雜志》2017 年第5 期。風(fēng)險社會相關(guān)理論是否有必要由刑法進行規(guī)制,至少還應(yīng)當(dāng)考慮到最后手段原則內(nèi)部具體的訴求。最后手段原則項下的三項子原則對風(fēng)險社會相關(guān)理論的檢討如下:第一,風(fēng)險社會相關(guān)理論無法通過適當(dāng)性子原則的檢討。適當(dāng)性原則的要求與法益保護原則的訴求存在很大程度上的重合,并且前述已經(jīng)對風(fēng)險社會相關(guān)理論進行了法益保護原則上的檢討,故在此不再多做贅述。第二,風(fēng)險社會相關(guān)理論無法通過必要性子原則的檢討。刑法對風(fēng)險的保護并不能滿足刑法中某一特定的目的,包括最主要的保護法益目的,因此其不滿足必要性原則的訴求。第三,風(fēng)險社會相關(guān)理論無法通過權(quán)衡性子原則的檢討。該項子原則要求刑法應(yīng)當(dāng)考慮到風(fēng)險的普遍性與保護手段之間的負(fù)擔(dān)?,F(xiàn)代社會無不充斥著各種風(fēng)險,例如:核電站的建設(shè)也存在核泄漏的風(fēng)險,但刑法若僅僅因為存在風(fēng)險而去規(guī)制,這一規(guī)制手段所造成的負(fù)擔(dān)勢必會成為社會發(fā)展的羈絆。因此,風(fēng)險社會相關(guān)理論無法通過最后手段原則內(nèi)部子原則的檢驗,難以獲得正當(dāng)性的證立根據(jù)。

從宏觀角度來看,風(fēng)險社會相關(guān)理論也無法獲得最后手段原則的支持。最后手段原則注重刑法與其他部門法的互動,刑法自身應(yīng)當(dāng)考慮到其手段的嚴(yán)厲性、破壞性等,因此,某一行為能夠被其他部門法手段規(guī)制時,刑法就沒有必要作出規(guī)定。除非行為已經(jīng)達到其他部門法無法規(guī)制的地步,此時刑法手段才能夠被采取。然而,風(fēng)險社會相關(guān)理論的主張中并未發(fā)現(xiàn)“風(fēng)險行政法”“風(fēng)險民法”的提倡,而是直接上升到“風(fēng)險刑法”地步,由此可以看出,“風(fēng)險刑法”顯然是越過刑法的最后手段原則做出的提議。而且,刑法的前置法規(guī)范中也并未提及針對風(fēng)險社會的規(guī)制問題,也即風(fēng)險社會相關(guān)理論尚未進入到民法規(guī)范、行政規(guī)范的視野中。最后手段原則主張刑法的生命在于對法條的解釋,而不是一味地就可能出現(xiàn)的情況去進行立法。當(dāng)下社會公眾的刑事立法價值觀也一貫否定對人工智能進行超前立法,不僅僅是考慮到未來社會發(fā)展的趨勢和特點,還要提防超前立法所導(dǎo)致的誤判風(fēng)險。64參見姚萬勤:《對通過新增罪名應(yīng)對人工智能風(fēng)險的質(zhì)疑》,載《當(dāng)代法學(xué)》2019 年第3 期。

綜上所述,在本文看來當(dāng)下人工智能所造成的風(fēng)險仍在可控范圍之內(nèi),故刑法大可不必針對不確定的風(fēng)險進行立法。主張風(fēng)險刑法的學(xué)者大都以風(fēng)險的視角先入為主,忽視了刑法風(fēng)險語境下風(fēng)險本身的正統(tǒng)地位,將風(fēng)險刑法與刑法風(fēng)險本末倒置,其本身就是一個偽命題。因此,風(fēng)險社會相關(guān)理論無法在刑法教義學(xué)體系內(nèi)安身立命。

四、人工智能在刑法體系中定位的厘清

人工智能確實作為一種新的社會現(xiàn)象呈現(xiàn)出來并引起了學(xué)界的關(guān)注和探討,因此,這就需要立足于整個法規(guī)范體系為其尋找安身立命場所。當(dāng)然,這并非意味著該現(xiàn)象在既有的刑法體系中不存在解決方案。刑法最終落腳點應(yīng)為人工智能時代下刑法定位問題的探討,即刑法如何在既有法律規(guī)范體系內(nèi)消解當(dāng)下“人工智能熱”現(xiàn)象。事實上,刑法在厘清了人工智能的技術(shù)本質(zhì)后,人工智能在刑法上的定位已經(jīng)清晰明了。該部分在前述章節(jié)論證基礎(chǔ)之上,首先對強弱人工智能在法律規(guī)范上的分類提出質(zhì)疑,而后對人工智能的風(fēng)險來源進行分類,最終立足于既有的法規(guī)范體系從內(nèi)部以及外部風(fēng)險出發(fā)對刑法的定位做出探討。

(一)強弱人工智能分類在規(guī)范合理性上的質(zhì)疑

目前,社會層面上出現(xiàn)了強人工智能與弱人工智能的相對性分類,并且這一分類迅速蔓延到刑法規(guī)范中,引起了刑法學(xué)者們的爭議。人工智能劃分為弱人工智能和強人工智能(包括超強人工智能)雖然在技術(shù)層面具備一定合理性,畢竟,科學(xué)技術(shù)在傳統(tǒng)意義上確實存在技術(shù)落后與先進的區(qū)分,比如臺式電腦與便攜式平板電腦就是技術(shù)先進與否的典征。但是,這一分類具體到刑法規(guī)范層面上來講是否具備合理性,有待考究。目前學(xué)界越來越多的學(xué)者主張采取這一劃分方法,其考慮到的正是人工智能時刻處于進步、發(fā)展的狀態(tài),這種進步是建立在技術(shù)發(fā)展與應(yīng)用基礎(chǔ)之上,故由弱人工智能可以進步到強人工智能時代。并且,學(xué)界在此基礎(chǔ)上展開了對強人工智能具備“意識”、能夠成為法律主體等問題的論證。不過,反對的聲音也一直存在,即也有聲音對于強弱人工智能的分類方式產(chǎn)生疑問,并指出從人類自身出發(fā)應(yīng)當(dāng)否定強人工智能的存在。65參見郭研、沙濤:《人工智能刑事責(zé)任能力之否定》,載《學(xué)術(shù)交流》2022 年第1 期。比如,有學(xué)者提出,即便是人工智能技術(shù)進化到“人工智能黑客”階段,即在該階段中“人工智能黑客”已經(jīng)能夠獨立地形成一套完整的運作系統(tǒng),從算法開始到學(xué)習(xí)、思考并最終能夠自主行動,這種情形中其還是無法擺脫工具的屬性,此時的責(zé)任承擔(dān)主體依然是這一程序背后的設(shè)計者、管理者等。66參見侯東德、張可法:《“人工智能黑客”的法律規(guī)制》,載《重慶大學(xué)學(xué)報(社會科學(xué)版)》,網(wǎng)絡(luò)首發(fā)論文,http://kns.cnki.net/kcms/detail/50.1023.c.20220222.0825.002.html。

本文認(rèn)為,強弱人工智能的分類方法僅在技術(shù)層面存有意義,這一分類方法不能進入刑法規(guī)范。理由如下,刑法應(yīng)當(dāng)注意到技術(shù)進步并未改變機器的本質(zhì)屬性。這就好比手機的發(fā)展歷程一樣,由最初的座機發(fā)展到今天的智能機,高度智能手機可以實現(xiàn)自助預(yù)約做飯、進行對話等高度模擬人類行為的活動,但即便是在高度智能的情況下,這一變化也并不值得引起刑法的關(guān)注。人工智能技術(shù)發(fā)展蘊含的道理也是一樣的,難以說明其由弱到強的變化就實現(xiàn)了刑法規(guī)制從無到有的飛躍。即便是人工智能高度智能化并通過了“圖靈測試”,這也只能說明其在功能意義上與人類主體相同,絕不意味著人工智能可以作為像人類一樣的主體。67參見王汝坤:《論廣義進化論視閾下的人工智能倫理問題》,載《上海交通大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2022 年第1 期。再者,從哲學(xué)的角度看“強”“弱”的劃分本身就是根據(jù)人的價值標(biāo)準(zhǔn)來判斷的。如同對人類進行“低級”和“高級”劃分一樣,這一劃分顯然是以人類為中心做出的價值判斷。68參見李建會:《生物學(xué)中事實與價值的纏結(jié):以進化是否是進步為例》,載《科學(xué)技術(shù)哲學(xué)研究》2019 年第6 期。這一將價值判斷的觀念要素代入到刑法規(guī)范記載中的做法,違背了罪行法定原則中成文化、明確性的要求。倘若將強弱劃分應(yīng)用到規(guī)范層面,至少還應(yīng)當(dāng)說明為何人工智能由弱到強是一個“意識”從無到有的變化過程,強人工智能相較于弱人工智能成為法律主體的根據(jù)為何,而且,弱人工智能是否意味著必然不具備成為法律主體的資格等,這都存在疑問。因此,強弱人工智能的分類欲想進入刑法規(guī)范的工作十分艱難,甚至可以說這項工作永遠不會成為現(xiàn)實。

綜上來看,刑法規(guī)范不承認(rèn)強人工智能與弱人工智能的劃分方法,而且這一劃分方法并不會影響到人工智能在刑法規(guī)范上的定位。因此,刑法規(guī)范中的人工智能概念應(yīng)當(dāng)舍棄這一分類方法,即將刑法中關(guān)于強弱人工智能問題的探討統(tǒng)一到人工智能問題的探討。

(二)刑法之定位以人工智能的風(fēng)險分類為前提

人工智能是由人類制作而成的產(chǎn)品。事實上,人工智能在部分階段屬于一種智能設(shè)備。69參見劉小璇、張虎:《論人工智能的侵權(quán)責(zé)任》,載《南京社會科學(xué)》2018 年第9 期。并且,早在2016 年聯(lián)合國科教文組織就通過了《關(guān)于機器人倫理的初步草案報告》,在該份報告中明確指出人工智能將作為科技產(chǎn)品。因此,眼下處理人工智能相關(guān)法律問題的關(guān)鍵在于明確其“產(chǎn)品”或者“工具”的本質(zhì)屬性。70參見高銘暄、王紅:《互聯(lián)網(wǎng)+人工智能全新時代的刑事風(fēng)險與犯罪類型化分析》,載《暨南學(xué)報(哲學(xué)社會科學(xué)版)》2018 年第9 期。人工智能在刑法上法律定位的探討應(yīng)建立在其產(chǎn)品本質(zhì)屬性的前提下。

人工智能的產(chǎn)品屬性決定了對其風(fēng)險來源的劃分。本文認(rèn)為,人工智能造成的風(fēng)險可以分為兩類:一是人工智能產(chǎn)品本身產(chǎn)生的風(fēng)險,可稱之為內(nèi)部風(fēng)險,這體現(xiàn)了其產(chǎn)品性的特征。二是因人類主體利用人工智能產(chǎn)品所產(chǎn)生的風(fēng)險,可稱之為外部風(fēng)險,這體現(xiàn)了其工具性的特征。人工智能的內(nèi)部風(fēng)險主要來源于產(chǎn)品技術(shù)本身。此時,人工智能作為產(chǎn)品具備完全意義上的獨立性,即不受人類的控制與利用,擺脫了人工智能工具性的屬性。這一內(nèi)部風(fēng)險從產(chǎn)品生產(chǎn)設(shè)計完成時就已經(jīng)潛在化了,此時內(nèi)部風(fēng)險的演變早已脫離了人類主體的干涉,其一般情況下通過刑法的前置法規(guī)范如民法規(guī)范中的產(chǎn)品責(zé)任就能夠解決。除非這一內(nèi)部風(fēng)險的演變是人為的故意操縱,比如說故意設(shè)計錯誤程序、故意在生產(chǎn)制造過程中摻雜摻假、設(shè)計危險程序,此時這種情形就會涉及到刑事規(guī)范的適用(具體后文詳述)。人工智能的外部風(fēng)險主要是指人工智能作為工具由人類主體利用產(chǎn)生的風(fēng)險,此時人工智能更多地是作為工具出現(xiàn)在大眾視野,由此構(gòu)成了人工智能外部風(fēng)險的來源。在People v.Davis 一案中,加利福尼亞最高法院也認(rèn)為人工智能機器人只能作工具使用。71同前注38。

綜上所述,人工智能的產(chǎn)品本質(zhì)決定了其風(fēng)險的分類,這一分類基本上奠定了人工智能法律規(guī)制的前提,人工智能的刑法定位也是建立在風(fēng)險分類基礎(chǔ)之上。

(三)人工智能在刑法體系中二元定位的體現(xiàn)

前述部分明確了人工智能的風(fēng)險原理,并對人工智能的風(fēng)險進行了規(guī)范上的分類,接下來便是人工智能在刑法中具體定位的探討。前述風(fēng)險劃分的工作結(jié)束后,人工智能在刑法體系中的定位就很明朗了。刑法此時的任務(wù)應(yīng)當(dāng)是在最后手段原則的指導(dǎo)下對這種內(nèi)外的二元風(fēng)險作出最后的規(guī)制,即刑法對于“產(chǎn)品屬性”和“工具屬性”兩種風(fēng)險的二元定位。

1.內(nèi)部風(fēng)險的刑法定位

首先,民事規(guī)范在內(nèi)部風(fēng)險的規(guī)制上應(yīng)當(dāng)是首選方法。畢竟,人工智能機器人作為一種產(chǎn)品,原則上由缺陷產(chǎn)品自身產(chǎn)生的侵害當(dāng)然適用產(chǎn)品責(zé)任來規(guī)制。當(dāng)下,《民法典》中產(chǎn)品責(zé)任編對這種缺陷產(chǎn)品的損害已經(jīng)作出了規(guī)定,主體涉及到生產(chǎn)者、銷售者以及運輸者和倉儲者等第三人,可以說其規(guī)定的已經(jīng)相當(dāng)全面了。產(chǎn)品的生產(chǎn)者因產(chǎn)品缺陷造成他人損害的,對其一般適用無過錯責(zé)任,比如《民法典》第1202條之規(guī)定。而對于中間的銷售者來講,其對缺陷產(chǎn)品承擔(dān)先行賠償?shù)牧x務(wù),但是事后可以向生產(chǎn)者追回,不過銷售者應(yīng)當(dāng)證明產(chǎn)品缺陷系生產(chǎn)者造成,比如《民法典》第1203 條之規(guī)定。對于因第三人過錯使得缺陷產(chǎn)品對他人造成損害的,第三人也應(yīng)當(dāng)承擔(dān)賠償責(zé)任。而且,《民法典》產(chǎn)品責(zé)任編中,不僅是對侵權(quán)主體作出了詳細規(guī)定,對于責(zé)任承擔(dān)方式也作出了具體規(guī)定,比如,侵權(quán)主體除了要承擔(dān)一般的侵權(quán)責(zé)任外,在特定的情形下,被侵權(quán)人還有權(quán)主張適用懲罰性賠償,比如《民法典》第1207 條之規(guī)定。當(dāng)然,民法規(guī)范為了不過多的對技術(shù)進步造成束縛,在產(chǎn)品責(zé)任的免責(zé)事由中指出,生產(chǎn)者因“將產(chǎn)品投入流通時的科學(xué)技術(shù)水平尚不能發(fā)現(xiàn)缺陷的存在的”不承擔(dān)賠償責(zé)任。

其次,行政規(guī)范在內(nèi)部風(fēng)險的規(guī)制上也可以發(fā)揮作用。行政規(guī)范對于人工智能產(chǎn)品的生產(chǎn)、研發(fā),可以要求相關(guān)主體如企業(yè)制定、出臺一系列的規(guī)章制度,包括相應(yīng)的注意義務(wù)、產(chǎn)品的正確研發(fā)制度、引導(dǎo)使用規(guī)范等相關(guān)安全管理規(guī)定。企業(yè)如果未能嚴(yán)格遵守行政法規(guī)、政策而造成后果,行政規(guī)范可以采取警告或者罰款甚至是吊銷營業(yè)執(zhí)照等手段。對于銷售者來說,行政法規(guī)及政策應(yīng)當(dāng)重點規(guī)制的是人工智能產(chǎn)品市場流入制度。此外,人工智能產(chǎn)品的特殊性(高度智能)還決定了銷售者應(yīng)當(dāng)盡更多的說明、教會義務(wù),銷售者應(yīng)重點強調(diào)人工智能產(chǎn)品的注意事項、風(fēng)險告知以及使用禁忌,以保證消費者能夠做到詳細的了解和學(xué)習(xí)。此外,《治安管理處罰法》在內(nèi)部風(fēng)險的行政法規(guī)制上也應(yīng)當(dāng)被考慮有無適用的余地。

最后,刑法手段在規(guī)制內(nèi)部風(fēng)險中的應(yīng)用。刑法手段規(guī)制風(fēng)險的第一種情形為,當(dāng)侵害結(jié)果的發(fā)生是因為生產(chǎn)者等在研發(fā)、生產(chǎn)環(huán)節(jié)故意造成時刑法才有適用的空間。生產(chǎn)者、研發(fā)者在研發(fā)、生產(chǎn)人工智能等產(chǎn)品時,對產(chǎn)品的零部件或者編程故意摻雜造假或者故意設(shè)計非法程序、下達非法指令,造成“缺陷產(chǎn)品”的生產(chǎn)并流入市場由此引發(fā)產(chǎn)品事故的,該種情形應(yīng)當(dāng)追究生產(chǎn)者生產(chǎn)、銷售偽劣產(chǎn)品罪或者以危險方法危害公共安全罪的刑事責(zé)任,原因是:第一,人工智能機器人等屬于產(chǎn)品的范疇,生產(chǎn)者、研發(fā)者在生產(chǎn)過程中出現(xiàn)了以次充好、以假充真的情形,行為造成了嚴(yán)重的社會危害性,當(dāng)然應(yīng)當(dāng)根據(jù)生產(chǎn)銷售偽劣產(chǎn)品罪予以規(guī)制。第二,研發(fā)者或生產(chǎn)者故意造成系統(tǒng)缺陷進而投放到市場使用,該行為無異于向社會投放危險物質(zhì)。人工智能畢竟屬于高科技產(chǎn)品,程序出錯的人工智能產(chǎn)品在危害性上無異于危險物品,比如,前述“機器人殺人事件”,無人駕駛汽車以及人工智能作戰(zhàn)武器等的危險程度甚至高于一般的危險物質(zhì)。

刑法手段規(guī)制風(fēng)險的第二種情形為,若研發(fā)者或者生產(chǎn)者在設(shè)計、生產(chǎn)人工智能機器人時,未盡到相應(yīng)的管理注意義務(wù),疏忽大意使不合格的人工智能產(chǎn)品流入市場,造成嚴(yán)重后果的,刑法規(guī)范才具備發(fā)揮作用的空間。這種情形可以過失以危險方法危害公共安全罪、重大責(zé)任事故罪或者重大安全事故罪追究相關(guān)主體的刑事責(zé)任。比如,行為人在生產(chǎn)作業(yè)中違規(guī)操作引發(fā)重大責(zé)任事故,則應(yīng)追究主要責(zé)任人或者行為人的重大責(zé)任事故罪。該種情形下行為人不遵守操作說明以及安全管理規(guī)定或者對違規(guī)操作持過失心態(tài),導(dǎo)致人工智能產(chǎn)品產(chǎn)生危害后果,滿足了重大責(zé)任事故罪的構(gòu)成要件。在第二種情形所涉及罪名的適用中,一方面要注重考察危害結(jié)果的發(fā)生與否,這是因為要考慮到技術(shù)的不穩(wěn)定性等復(fù)雜情形,防止因為刑罰措施過于嚴(yán)格阻礙科技進步。另一方面要注重考察研發(fā)者和生產(chǎn)者是否遵守相關(guān)注意義務(wù),防止研發(fā)者和生產(chǎn)者在生產(chǎn)、作業(yè)中疏于管理或者違反有關(guān)安全管理規(guī)定而導(dǎo)致危害結(jié)果的發(fā)生。當(dāng)然,若該技術(shù)缺陷就算盡到注意義務(wù)也難以避免,則屬于意外事件。

2.外部風(fēng)險的刑法定位

人工智能的外部風(fēng)險主要是指人為使用所造成的危害結(jié)果,具體又可分為正常使用和非法利用兩種情形,對于這兩種情形的規(guī)制路徑也有所不同。

第一種情形,若是在正常使用中因產(chǎn)品自身原因?qū)е虑趾Y(jié)果產(chǎn)生,則應(yīng)當(dāng)按照產(chǎn)品責(zé)任的規(guī)定處理,實際上該種情況風(fēng)險來源于人工智能內(nèi)部,這種情形不受刑法的關(guān)注。

第二種情形,對于非法利用人工智能的情形應(yīng)當(dāng)納入刑法規(guī)制的范疇。該種情形下行為人主要是將人工智能作為工具使用,比如,行為人利用人工智能機器人實施的殺人行為、搶劫行為等,人工智能此時充當(dāng)?shù)氖禽o助工具的角色,應(yīng)當(dāng)根據(jù)具體情形分別按照故意殺人罪、搶劫罪等追究行為人(人工智能使用者)的刑事責(zé)任。此外,前述提到的人工智能黑客現(xiàn)象,明顯就是人工智能工具屬性的體現(xiàn),即黑客程序設(shè)計者作為背后的責(zé)任主體,利用人工智能黑客侵入計算機的行為當(dāng)然也就構(gòu)成計算機類相關(guān)犯罪,如《刑法》第285 條以及第286 條規(guī)定的相關(guān)罪名。

除上述情形之外,本部分?jǐn)M以當(dāng)下熱度較高的無人駕駛技術(shù)為例,對其在刑法規(guī)制上做簡要分析。無人駕駛技術(shù)是將強人工智能應(yīng)用于汽車駕駛領(lǐng)域,此時,無人駕駛技術(shù)的刑法規(guī)制結(jié)合其風(fēng)險來源,可以具體分為以下情形,生產(chǎn)者、設(shè)計者通過設(shè)計非法程序利用無人駕駛技術(shù)在人員密集的道路交通上橫沖直撞的,該種情形下應(yīng)當(dāng)視具體情形追究生產(chǎn)者、設(shè)計者故意殺人罪或者以危險方法危害公共安全罪。若駕駛者在使用無人駕駛技術(shù)時造成交通事故,此時,如果交通事故是由駕駛者過失操作不當(dāng)所致,駕駛者可根據(jù)情形被追究交通肇事罪的刑事責(zé)任;如果駕駛者故意操作導(dǎo)致駕駛故障,或者對產(chǎn)生故障后的情形持放任態(tài)度能去阻止而不阻止,任由無人駕駛汽車行駛而不去接管,此時駕駛者應(yīng)當(dāng)視情形被追究故意殺人罪等刑事責(zé)任??傊谭ㄔ诿鞔_了人工智能產(chǎn)品屬性和工具屬性的前提下,結(jié)合具體情形加以分析后得出的結(jié)論往往不會超出人們對法規(guī)范中常識常理常情的認(rèn)知。

五、結(jié)語

人工智能時代終將到來,人類也會因此進入風(fēng)險社會,刑法如果盲目追求標(biāo)新勢必會引起刑法規(guī)制與科技進步的矛盾。刑法應(yīng)當(dāng)克制住其在當(dāng)下焦躁冒進的態(tài)度,遵循緩和的積極主義刑事立法觀。72參見王俊松:《網(wǎng)絡(luò)智能時代的刑事立法觀:理念回應(yīng)與路徑優(yōu)化》,載《重慶郵電大學(xué)學(xué)報(社會科學(xué)版)》2022 年第4 期。人工智能引發(fā)的法律問題并未觸及到刑法深層次的理論探討,抑或者刑法教義學(xué)體系完全能夠消化風(fēng)險社會理論涉及的有關(guān)現(xiàn)象。按照本文的主張,文章開篇所提的“機器人殺人事件”也只不過是普通的自動化器械故障而已,即便是機器人對話中出現(xiàn)的反人類情形亦是如此。人工智能威脅的產(chǎn)生并不來源于它本身,而是我們?nèi)祟悓λ膽B(tài)度??傊斯ぶ悄苤皇侨祟惏l(fā)展史上具有進步意義的輔助工具,傳統(tǒng)的法律體系完全可以將其所衍生的風(fēng)險內(nèi)化,而所謂的強人工智能和弱人工智能的劃分,不過是電鋸和斧頭的區(qū)別罷了。

猜你喜歡
法益刑法規(guī)范
來稿規(guī)范
來稿規(guī)范
PDCA法在除顫儀規(guī)范操作中的應(yīng)用
來稿規(guī)范
過度刑法化的傾向及其糾正
法律方法(2021年4期)2021-03-16 05:35:02
侵犯公民個人信息罪之法益研究
刑法論叢(2018年3期)2018-10-10 03:35:52
刑法立法向法益保護原則的體系性回歸
刑法論叢(2018年2期)2018-10-10 03:32:26
法益中心主義的目的解釋觀之省思
法律方法(2018年3期)2018-10-10 03:21:00
論侵犯公民個人信息罪的法益
刑法論叢(2018年1期)2018-02-16 08:07:06
刑法適用與刑法教義學(xué)的向度
刑法論叢(2016年3期)2016-06-01 12:15:17
来宾市| 于都县| 汉阴县| 廊坊市| 达州市| 遂昌县| 江北区| 澜沧| 新化县| 健康| 枞阳县| 伊吾县| 惠安县| 内黄县| 贺兰县| 永定县| 西平县| 太白县| 宁夏| 嘉善县| 临湘市| 丰都县| 海南省| 武陟县| 富川| 禹城市| 基隆市| 蒙城县| 合作市| 望谟县| 淳安县| 石棉县| 东丰县| 莆田市| 泌阳县| 福泉市| 维西| 邯郸市| 科技| 凤冈县| 江西省|