国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

論強人工智能體刑事責(zé)任主體之否定

2021-12-04 13:28:13
關(guān)鍵詞:主體資格刑罰主觀

陳 帥

(湖南師范大學(xué) 法學(xué)院,長沙 410081)

一、風(fēng)險社會:人工智能之發(fā)展現(xiàn)狀

科技發(fā)展是人類發(fā)展的一小步,卻是指引人類邁向更大發(fā)展的一大步。21世紀(jì)以來,科學(xué)不斷發(fā)展,涌現(xiàn)出生物醫(yī)藥、能源汽車、工業(yè)互聯(lián)網(wǎng)平臺等一系列人工智能化的新興產(chǎn)業(yè)鏈。人工智能正逐漸成為人們廣泛討論的焦點,被稱之為人類的第四次技術(shù)革命。

2017年3月,人工智能首次被寫入政府工作報告,指出“要培育人工智能新興產(chǎn)業(yè)”。2017年7月,國務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃》,將人工智能發(fā)展作為建設(shè)創(chuàng)新型國家和世界科技強國的重要國家戰(zhàn)略。2017年10月,黨的十九大報告提出“推動互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能和實體經(jīng)濟深度融合”的發(fā)展方針。2018年11月,工業(yè)和信息化部出臺《新一代人工智能產(chǎn)業(yè)創(chuàng)新重點任務(wù)揭榜工作方案》,征集遴選掌握人工智能核心技術(shù)、創(chuàng)新能力強的企業(yè)“揭榜”攻關(guān),力求突破。2019年政府工作報告再次將“人工智能”升級為“智能+”,促進數(shù)字化經(jīng)濟和工業(yè)互聯(lián)網(wǎng)平臺的不斷完善。隨著人工智能被納入國家戰(zhàn)略的重要地位,有關(guān)人工智能的研發(fā)和部署也會高效展開。然而現(xiàn)代社會是一個風(fēng)險社會,人工智能作為人為創(chuàng)造的技術(shù),其快速發(fā)展造福人類的同時必然也會帶來一定的技術(shù)風(fēng)險和制度風(fēng)險[1],為了使人工智能產(chǎn)業(yè)更好地適應(yīng)現(xiàn)代社會,必然需要通過規(guī)范和法律對該社會風(fēng)險加以調(diào)節(jié)。對此,不僅需要通過民法和行政法加強第一性的規(guī)制保護,還要通過刑事法制進行第二性的保護。在刑事法領(lǐng)域,人工智能體是否具有刑事責(zé)任主體是當(dāng)下研究的焦點。

需要厘清的是,人工智能與人工智能體不是等同概念,前者強調(diào)智能的程序性,是可以脫離實體而存在的編碼,后者強調(diào)“體”這一特征,即人工智能所存在的宿體。人工智能作為虛擬編碼,是非實體性的虛擬存在,只具有行為的意識,而不具有行為的能力。相反,人工智能體卻可以在程序內(nèi)或者依據(jù)程序推導(dǎo)做出行為指令,并通過客觀上的宿體將行為的內(nèi)在邏輯外在表達(dá)。因此討論有關(guān)人工智能等方面刑事責(zé)任主體的問題只能是對人工智能體的刑事責(zé)任問題的研究,而不是人工智能的責(zé)任問題研究。

根據(jù)人工智能的發(fā)展階段,可以將人工智能體分為弱人工智能體和強人工智能體。在弱人工智能階段,弱人工智能體作為人類根據(jù)程序和編碼設(shè)計出適用于某一領(lǐng)域的產(chǎn)品,其不是也不可能是行為主體,此階段的弱人工智能體只是服務(wù)于人類發(fā)展的工具,比如掃地機器人、智能管家等,不具有作為犯罪行為乃至法律行為的主體。學(xué)界對于弱人工智能階段人工智能體的工具本質(zhì)已達(dá)成共識。而在強人工智能階段,此時強人工智能體已然超出原有編碼程序的控制,可以實施設(shè)計者生產(chǎn)者編碼外的行為,因此需要獨立對行為負(fù)責(zé)。學(xué)界對于強弱人工智能體刑事責(zé)任的有無形成了肯定說和否定說。

本文立足于研究強人工智能階段強人工智能體的刑事責(zé)任主體問題,采取人本主義的思想基礎(chǔ),貫徹科學(xué)發(fā)展的思維模式,對肯定論者的觀點進行反思,提倡否定強人工智能時代人工智能體的刑事責(zé)任主體資格,將人工智能體視為人類發(fā)展的工具。下文將分別作闡述。

二、功利主義:強人工智能體刑事責(zé)任主體資格的批駁與反思

肯定強人工智能體具有刑事責(zé)任主體資格的論者認(rèn)為,人工智能體具有獨立的意思,可以從事獨立的社會活動,當(dāng)其活動具有嚴(yán)重的社會危害時,出于罪責(zé)自負(fù),讓人工智能體承擔(dān)刑事責(zé)任無可厚非[2]。其邏輯可以歸納為三點,一是具有獨立的意志能力和行為能力,二是罪責(zé)自負(fù)原則,三是刑罰實施之可能。筆者認(rèn)為,從功利主義上看,賦予強人工智能體刑事責(zé)任主體的資格既無法滿足人類對人工智能體的認(rèn)識和約束,還徒增立法和司法適用成本,浪費司法資源,不利于現(xiàn)代刑事法體系的構(gòu)建。故本文從以下幾個方面否定強人工智能體刑事責(zé)任主體資格。

(一)強人工智能體缺乏自由意志

人工智能程序是人為設(shè)置的程序,程序本身不具有辨認(rèn)能力和控制能力[3]。智能系統(tǒng)是計算機的內(nèi)在編碼程序,程序由生產(chǎn)者以及使用者設(shè)置,因此人工智能體的意志就是生產(chǎn)者和使用者的意志,即使后續(xù)機器人在活動中對周邊環(huán)境進行感應(yīng),選擇實施某些行為,但這些選擇都是經(jīng)過大數(shù)據(jù)的處理,經(jīng)過電腦計算做出的,也在生產(chǎn)者和使用者的意志范圍之內(nèi),而非人工智能體自己的獨立意志。根據(jù)杜拉三元交互決定論模型中的個人認(rèn)知和社會環(huán)境之間的關(guān)系,人類在日常交往中環(huán)境、行為和認(rèn)知三者交互決定。人工智能體不存在對行為外界規(guī)范違反之認(rèn)知,不具有規(guī)范評價意義上的“目的性”。因此,人工智能體做出的無目的行為無法被刑法制裁[4]。此外,自然人之所以能成為刑事主體的另一大因素是因為人具有理性,自然人的理性受到行動控制,行動的做出代表著理性的選擇[5]。自然人可以根據(jù)社會的屬性、人類的倫理、一般的公序良俗做出合乎理性的行為。而人工智能體的行為完全是人為設(shè)置的參數(shù),不具有理性的辨認(rèn)能力和控制能力。

(二)強人工智能體缺失主觀要素

現(xiàn)代刑法歸責(zé)理論認(rèn)為主觀罪過是犯罪客觀行為的內(nèi)在表現(xiàn)形式,自然人之所以是主客體二分世界的主導(dǎo),是因為人的主觀理性可以由理性控制自己的行為。而強人工智能體作為非生命體,其行為實施時的主觀認(rèn)識并無法得知,使得其主觀上的罪過難以查明,在對故意、過失、目的和動機的判斷上只能依據(jù)法官的主觀判斷,從而陷入主觀入罪的困境。同時在共犯、犯罪未完成形態(tài)的認(rèn)定上,主觀心態(tài)的缺失也會導(dǎo)致共犯的成立、從屬性的適用以及未遂和中止的區(qū)分在實踐中難以有效界定。如果無法對人工智能體主觀要素進行厘清,則對其刑法規(guī)范違反和行為危害程度的認(rèn)識更多來源于程序編碼做出的應(yīng)激決定,缺乏辨認(rèn)和控制上的價值判斷,使得實踐中對其主觀惡性的查明變得極為被動。可以說人工智能體所有的行為都是經(jīng)過程序的疊加做出的數(shù)據(jù)化處理,其主觀上不存在規(guī)范認(rèn)識和意思認(rèn)識,不具有獨立的主觀方面罪過。人腦上的故意和過失在人工智能體此類非生命的個體幾乎無法存在。一旦人工智能體實施了社會危害行為,與其去探究機器人本身是否存在主觀罪過,不如從根本上否定人工智能體的主觀方面,從而降低科技帶來的刑事風(fēng)險,以更加合理地規(guī)制人工智能技術(shù)。

(三)人工智能體不具有答責(zé)能力

在責(zé)任的認(rèn)識上,存在道德責(zé)任論、心理責(zé)任論、人格責(zé)任論和規(guī)范責(zé)任論等。我們認(rèn)為,刑事責(zé)任的本質(zhì),在于行為人忽視法律規(guī)范的適法期待而實施違法犯罪行為。即使強人工智能體在程序設(shè)計時錄入了現(xiàn)有的法條規(guī)范,但是法條錄入不等于規(guī)范習(xí)得,即使熟知法條,也無法在特殊情形下基于一般自然人的認(rèn)知而采取合乎人性的選擇。應(yīng)當(dāng)說,理性推導(dǎo)不同于感性認(rèn)知。人的社會性使得人理解和適用法律都存在一定困難,何況是機械性的錄入學(xué)習(xí)。對由于法條機械錄入而導(dǎo)致采取違法行為的人工智能體,其本身不具有違法性之認(rèn)識可能,缺乏法規(guī)范遵從期待之可能[6]。即使客觀上造成了法益侵害后果,也不具備刑法上的可歸責(zé)性。

(四)刑罰目的難以實現(xiàn)

自然人之所以可以被苛責(zé),在于自然人的感知能力,對其施加刑罰具有法規(guī)范強化的預(yù)防效果。而強人工智能體作為智能機器的延續(xù),對其施加現(xiàn)有的刑罰不具有報應(yīng)和預(yù)防的目的。從報應(yīng)上看,由于強人工智能體依賴于程序而做出相應(yīng)的行為,并不具有財產(chǎn)和自然壽命的損耗,對其無論是施加自由刑、生命刑抑或是財產(chǎn)刑都不能達(dá)到報應(yīng)的目的[7]。從預(yù)防上看,對機器人施加拘役、有期徒刑等自由刑并不能達(dá)到悔罪改造的社會效應(yīng),在其釋放后,內(nèi)在程序并沒有得到更改,其依然會實施相應(yīng)的危害行為,達(dá)不到特殊預(yù)防之目的。立法論上有學(xué)者認(rèn)為可以增加刪除數(shù)據(jù)、修改程序、永久銷毀[8]三大替代刑罰措施,然而在分則中增設(shè)新的刑罰會沖擊我國傳統(tǒng)的刑罰體系,甚至?xí)鹫麄€刑法結(jié)構(gòu)的坍塌。事實上,人工智能體內(nèi)的程序編碼十分復(fù)雜,各種引起犯罪行為的程序都是經(jīng)過前期不斷的數(shù)據(jù)輸入和輸出反復(fù)的結(jié)果,單單應(yīng)用刪除數(shù)據(jù)、修改程序兩種替代措施并不能消除人工智能體再次通過先行的數(shù)據(jù)計算從而反復(fù)生成引起犯罪行為的程序可能性,即此兩種新型刑罰措施無法從根本上消除再犯可能性,不具有特殊預(yù)防的功能[9]。只有通過銷毀無人駕駛汽車,方可從根本上解決再犯可能性以及降低刑事風(fēng)險,但是對所有發(fā)生重大交通事故的無人駕駛汽車均予以銷毀顯然是不經(jīng)濟的做法,增加人工智能技術(shù)研發(fā)成本,不利于人工智能技術(shù)的發(fā)展。

(五)缺乏相應(yīng)配套設(shè)施

一旦承認(rèn)人工智能體刑事責(zé)任主體資格,對其配備設(shè)施,尤其是刑事訴訟中的配套程序?qū)⒆兊脴O為復(fù)雜。刑事訴訟中貫徹的辯護全覆蓋是否包含強人工智能體,對強人工智能體是否可以采取刑事強制措施和采取什么樣的強制措施,實踐審判時如何保障強人工智能體的答責(zé)權(quán)利等都會成為實踐上難以銜接刑法的司法困境。同時對機器人審判無疑增加了法院的案件負(fù)荷,既無法達(dá)成對人工智能體的有效規(guī)制和約束,還徒增了司法審判成本。

可以說,賦予人工智能體刑事責(zé)任主體資格具有功利的目的,卻采取了不功利的手段??隙ㄕ撜邚娬{(diào)賦予強人工智能體刑事責(zé)任主體資格是為了使強人工智能體成為刑法規(guī)制的對象,本質(zhì)上是通過讓其承受一定義務(wù)從而對其設(shè)置限制,從而更好地保護人類。然而,賦予強人工智能體刑事責(zé)任主體資格,不利于刑法的高效實施。將人工智能體作為刑事責(zé)任主體時,不僅在主觀罪過的查明和違法性認(rèn)識的辨別上會陷入認(rèn)識困境,而且現(xiàn)行刑罰措施對人工智能體并不適用,在入罪后的刑罰配置上將陷入適用困境。增加新的刑罰手段只會徒增刑法成本,無法達(dá)到經(jīng)濟刑法的功效,浪費司法資源。

三、人本主義:人工智能體的工具定位

在刑事責(zé)任主體判斷邏輯上,應(yīng)當(dāng)存在行為能力(犯罪能力)和刑罰能力的判斷標(biāo)準(zhǔn),即刑事責(zé)任主體應(yīng)當(dāng)是人的下位概念,想要賦予非人一定刑事責(zé)任主體資格,只能像單位一樣進行擬制,然而人工智能體同單位不具有等質(zhì)性。首先,單位的獨立意思來源于其內(nèi)部組成人員的意思,反映的是單位整體意志,具有外在的辨控能力。而人工智能體反映的是設(shè)計者和制造者的意思,其不具有獨立的對外自由意志,對其擬制缺乏基礎(chǔ)和前提。其次,單位有財產(chǎn)權(quán)利,對其可以施加現(xiàn)有的刑罰,而人工智能體則不具備此類可被剝奪的民事權(quán)利。再次,單位有實踐基礎(chǔ)。我國有關(guān)單位擬制的實踐從改革開放時已然顯現(xiàn)矛頭,經(jīng)過幾十年的實踐洗禮最終才在1997年修訂的《中華人民共和國刑法》中確定,是先實踐再立法的模式。而強人工智能體恰恰相反,現(xiàn)階段強人工智能體尚未在實踐中得以應(yīng)用,對其擬制缺乏必要的社會基礎(chǔ)。最后,從社會效益上看,賦予單位獨立人格具有社會效益,可以合理規(guī)制經(jīng)濟社會中產(chǎn)生的各種形式犯罪,更好地保護市場經(jīng)濟。而對人工智能體進行擬制不僅將面臨科技風(fēng)險帶來的刑事風(fēng)險,不利于實踐中對人工智能體犯罪進行規(guī)制,還會增加司法成本,增加司法人員的負(fù)擔(dān)。因此,對于人工智能體刑事責(zé)任主體的判斷,無法進行主體擬制,對于非生命體的強人工智能體,本文贊成將其作為工具進行對待。

其一,人與強人工智能體最大的區(qū)別在于人的智慧不同于機器人的智能,前者包含理性和感性,且情感分析和判斷等非綜合判斷能力為主導(dǎo)。而智能理性推導(dǎo)更像是程序設(shè)定。人工智能體深度學(xué)習(xí)的是智能而非智慧,其通過算法和程序習(xí)得的只是機械性的在特定場景采取特定的行為這一模式,在出現(xiàn)程序未設(shè)置的場景,強人工智能體無法進行快速反應(yīng),其采取的行為難免與人類理性認(rèn)識具有偏差。因此強人工智能體的行為離不開人類的干預(yù)和程序設(shè)置,只能作為人類演變社會的學(xué)習(xí)和推導(dǎo)工具,而不具有獨立的人格。

其二,強人工智能體最大的特點在于程序和模仿。與人的行為的不確定性截然相反的是人工智能體的程序由生產(chǎn)者和制造者設(shè)定,即使具有衍生的行為和意思,也是一般程序的繼續(xù)推導(dǎo),具有可預(yù)測性。在程序的推導(dǎo)過程中,人工智能體依據(jù)先行設(shè)定的學(xué)習(xí)程序,可以對其他行為人的行為進行模仿以適應(yīng)社會活動,并對周邊環(huán)境做出應(yīng)激性行為。此時強人工智能體的社會危害行為是程序的過度推導(dǎo),理應(yīng)由可預(yù)測的生產(chǎn)者和制造者對其監(jiān)督過失進行擔(dān)責(zé),遵循民事行政優(yōu)先解決產(chǎn)品責(zé)任,后置追究制造者刑事責(zé)任的邏輯,從而實現(xiàn)刑法的效益價值。

其三,刑法規(guī)范需要建立在人性的科學(xué)基礎(chǔ)上[10]。人工智能體不具有刑法評價意義上行為認(rèn)識及控制要素的自主性,不具有人理性支配的可答責(zé)基礎(chǔ)[11],對其不存在對應(yīng)可適用的刑罰措施。如果承認(rèn)人工智能體的主體地位,則意味著人和人工智能體都可作為刑事主體擔(dān)責(zé),這是對人類發(fā)展的極大干預(yù)。甚至未來可能出現(xiàn)與人工智能體之間發(fā)生大規(guī)模的沖突。將人工智能體定性為行為人的工具,既可以解決現(xiàn)有無人駕駛車輛發(fā)生交通事故時的法律規(guī)制問題,又可以緩解人工智能背景下對刑法的沖擊。

四、結(jié)語

科技是人推動的產(chǎn)物,人類的最高目標(biāo)不僅僅是發(fā)展應(yīng)用技術(shù),而是人類的全面發(fā)展,技術(shù)只是為這個目標(biāo)服務(wù)的工具。全面貫徹科學(xué)發(fā)展以人為本的人工智能技術(shù)規(guī)范,加強人工智能產(chǎn)業(yè)鏈上游和下游雙重規(guī)制,這是時代的必然選擇。人工智能的最終發(fā)展必然是為人類服務(wù),是不可超越人類智慧的存在,賦予人工智能體刑事責(zé)任主體會導(dǎo)致刑法理念的顛覆,不利于社會刑事法制的穩(wěn)定。相反,否定人工智能體刑事責(zé)任主體資格,將其納為主體的工具在解決具體的刑事案件上反而會更為高效。

猜你喜歡
主體資格刑罰主觀
“美好生活”從主觀愿望到執(zhí)政理念的歷史性提升
加一點兒主觀感受的調(diào)料
刑罰威懾力的刑法學(xué)分析
活力(2019年22期)2019-03-16 12:49:24
代運為名行詐騙 構(gòu)成犯罪獲刑罰
刑法主觀解釋論的提倡
法律方法(2018年2期)2018-07-13 03:22:06
斷鹽也是一種刑罰
環(huán)境污染侵權(quán)案件實務(wù)中的問題研究
公司設(shè)立中發(fā)起人的主體資格該如何認(rèn)定?
人間(2016年30期)2016-12-03 20:28:29
死者權(quán)益維護與法律適用
環(huán)境公益訴訟主體存在問題及對策
邹平县| 萨嘎县| 高青县| 建阳市| 九台市| 巴彦淖尔市| 土默特右旗| 天峻县| 武川县| 上林县| 慈溪市| 噶尔县| 霍城县| 通州市| 林州市| 贵阳市| 合作市| 南宫市| 将乐县| 土默特左旗| 定南县| 冷水江市| 松滋市| 客服| 东兰县| 青冈县| 清新县| 山西省| 台湾省| 合江县| 灯塔市| 班戈县| 巴林右旗| 且末县| 濮阳县| 临泽县| 万载县| 龙州县| 阳谷县| 封丘县| 山东省|