国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

偽命題:人工智能帶來的刑事風險

2019-01-18 23:46:58郎正午
天水行政學院學報 2019年3期
關鍵詞:之虞行為人義務

郎正午

(河北經(jīng)貿(mào)大學法學院,河北 石家莊050061)

一、刺破人工智能的人格面紗,對人工智能獨立主體地位的否定

(一)人工智能獨立人格否定的法哲學基礎

當人工智能能為自己代言時,即可以為自己發(fā)聲時,人工智能的獨立人格才具有現(xiàn)實意義。人工智能或許是人類最后的發(fā)明,它可能是人類最好的發(fā)明,也許是人類最壞的發(fā)明。人工智能之于人類,正如人類之于造物主。人類是造物主最后的發(fā)明,但當人類誕生之后,造物主便失去了其威懾,換而言之,從上帝的束縛下解放出來的人類,才真正產(chǎn)生出了理性;人類可以從各種自然共同體和人為共同體的依附中獨立出來,成為自主和個性化的人,人工智能是否可以從“各種自然共同體和人為共同體的依附中獨立出來,成為自主和個性化的”人工智能,是否可以擁有獨立的人格,這取決于人工智能是否可以從各種自然共同體(如能源)和人為共同體(如工程師)的依附中獨立出來,成為自主和個性化的“人”。

人工智能的發(fā)展階段分為三個階段:弱人工智能時期、強人工智能時期、超人工智能時期。目前人工智能處于弱人工智能時期。弱人工智能階段的首要目的是構(gòu)建云計算、大數(shù)據(jù)、深度學習算法、人腦芯片四者框架的磨合,換而言之是基礎架構(gòu)的鋪設。由人工智能的初級階段實現(xiàn)到強人工智能的飛躍,這一過程正如同人類由單細胞生物進化之地一次人類直立行走,是一個漫長的時期。法律具有時代性,法律應以社會為基礎,正如秦始皇時期,不可能制定知識產(chǎn)權保護法。但是作為新時代的人工智能所帶來之風險的應對,立法要具有適度的超前性,但這適度的超前性并不能成為賦予弱人工智能法律人格的淵源。

(二)超人工智能人格減損與非難可能性

人工智能同人類的關系,又不完全同于人類和上帝的關系。經(jīng)過三次科技革命,人類已經(jīng)從上帝的束縛中解放了出來,擁有了理性,這是人類獨立人格的基礎。而人工智能而不同,人工智能無論在什么階段都將成為人類的工具,“人類既然有能力發(fā)明人工智能,那么也應當具有控制人工智能的能力?!盵1]即使是人類也并未人人都具有完整意義上的獨立人格,因此才產(chǎn)生“限制行為能力”和“無行為能力”的概念,進而實現(xiàn)了“非難可能性”這一理論的產(chǎn)生。

從這一角度來說,人工智能不管位于哪個階段,都將成為人類的工具,也即哪怕是在超人工智能的階段,它也不足以取得完全意義上的人格,換而言之,即使未來立法賦予超人工智能獨立的人格,這樣的人格也是減損的。

現(xiàn)在人工智能正在處于且長期處于弱人工智能階段,不論是談論弱人工智能的獨立人格,還是認為人工智能“不是具有生命的自然人,也區(qū)別于具有自己獨立意志并作為自然人集合體的法人,將其作為擬制之人以享有法律主體資格”[2],均是認為社會是以法律作為基礎的體現(xiàn),而這是人工智能法律人一廂情愿幻想。

(三)刺破人工智能面紗,人工智能人格否定

伴隨著人工智能技術的飛速發(fā)展,人工智能擁有日益強大的智能,人工智能與人類的差別有可能逐漸縮小?!禗octor Who》中所描述的“賽博人”基于人類所改造,將人類的血肉之軀轉(zhuǎn)變?yōu)楹辖穑渖窠?jīng)元數(shù)量已經(jīng)遠遠超越了人腦。在21 世紀中葉,非生物智能將會10 億倍于今天所有人的智慧[3]。英美法系、大陸法系主流國家的哲學家、科學家、倫理學家甚至法學家對此存在較大爭議。

歐盟委員會法律事務委員會向歐盟委員會提交動議,要求將最先進的自動化機器人的身份定位為“電子人”(electronic persons),除賦予其“特定的權利和義務”外,還建議為智能自動化機器人進行登記,以便為其進行納稅、繳費、領取養(yǎng)老金的資金賬號[4]。無獨有偶,沙特阿拉伯賦予人工智能Sophia 以國籍[5],也是賦予人工智能獨立人格的體現(xiàn)。

歐盟和沙特在事實上承認了人工智能的獨立人格,這屬于社會事實,從現(xiàn)存的社會事實并不能當然地推導出社會價值。electronic persons 也好,Sophia也罷,均屬于尚未從各種自然共同體和人為共同體的依附中獨立出來,成為自主和個性化的個體。如果說Sophia 的獨立人格,是沙特阿拉伯土豪缺乏法律意識的任性,那歐盟的烏龍則是屬于哲學家、科學家、倫理學家以及法學家的幻想。

主體,是一個“人”才承擔義務行使權力的資格,是法律行為的核心。由于人工智能沒有自身的目的,其工作目的為人類設計者所設計,以致其沒有任何不良企圖。也即,在本質(zhì)上人工智能就是一個工具。賦予一個工具獨立的人格,等于讓一把匕首去承擔故意殺人罪的實行犯的責任,而殺人者則成為了間接正犯,實乃滑天下之大稽。

二、常見的人工智能犯罪與現(xiàn)有應對機制

(一)人工智障,共同過失正犯

現(xiàn)階段的人工智能尚不足以取得獨立、完全的法律人格,倘若人工是能在自己運行中,出現(xiàn)過失,往往要追究人工智能研發(fā)者和使用者的過失責任。阿莎芬堡案是最為典型的案例:2012 年春天,一輛配備有功能強大的車道保持輔助系統(tǒng)的汽車駛?cè)氚⑸撤冶な懈浇陌柌哞Т濉T隈側(cè)肟谔?,車?0歲的司機突然中風并失去了意識。他向右扭轉(zhuǎn)方向盤,在正常情況下汽車會停在駛?cè)肟谇暗墓嗄緟仓?。然而,車道保持輔助系統(tǒng)又將汽車駛回到馬路上。車輛高速駛?cè)氚柌哞Т澹⒆菜懒艘晃荒贻p女子和她的孩子。孩子的父親跳開躲閃,只是腿部受了傷。

在客觀不法的層面來看,司機和“功能強大的車道保持輔助系統(tǒng)的汽車”構(gòu)成了共同犯罪這一事實狀態(tài),屬于刑法所規(guī)制行為,造成了兩死一傷的后果,行為與結(jié)果之間存在刑法上的因果關系。

從主觀有責的階層來看,司機由于“突然中風并失去了意識”系屬意外事件,因此司機并不承擔刑事責任。而“功能強大的車道保持輔助系統(tǒng)的汽車”是沒有獨立的人格的,因此該人工智能并不能承擔刑事責任。然而司機“向右扭轉(zhuǎn)方向盤,在正常情況下汽車會停在駛?cè)肟谇暗墓嗄緟仓?。然而,車道保持輔助系統(tǒng)又將汽車駛回到馬路上”這一細節(jié)足以說明人工智能變成了人工智障,本來應該停在駛?cè)肟谇暗墓嗄緟仓械钠噮s又沖回了馬路。由于人工智能缺失獨立的人格屬于“主體闕如”的狀態(tài),不滿足主觀有責的階層,也根本談不上非難可能性這一主觀責任的排除是由。德國司法裁判者認為,造成該事故的元兇在于人工智能的制造者們存在多個違反義務的行為,而制造者絕對不會對這一結(jié)果持故意心態(tài),因此是過失心態(tài)。在德國的刑法體系下,是不存在單位犯罪的,因此便追究了制造者們一個共同的過失犯罪——過失致人死亡罪的共同過失正犯。若是我國大可以追究一個單位犯罪。

除此之外還可以論證這一理論的案例則為:德國鮑納塔爾的工廠發(fā)生了一起意外事故,工人B 出于失誤過早地開啟了機器。導致工人A 在工作時被一個未放置在安全籠中的機器人手臂抓起,并向一塊金屬板擠壓,最終導致死亡。此時的人工智能機器人雖然是跟工人B 在客觀不法層面上構(gòu)成了共同犯罪,但是由于人工智能的主體闕如和工人B 的過失心態(tài)使得工廠的負責人和工人B 構(gòu)成過失的共同正犯。

(二)利用人工智能去犯罪,對教唆犯與間接正犯的相繼否定

雖然說科技的發(fā)展在造福人類社會的同時也為不法分子帶來可乘之機,“因而不法分子很有可能利用人工智能技術實施犯罪”[6],但這實際上是一個偽命題。如具有犯罪意圖的研發(fā)者可以在設計和編制程序的時候植入自己的犯罪計劃,使得以智能機器人為代表的人工智能產(chǎn)品幫助自己實現(xiàn)犯罪目的[7]。例如隨著機器越來越接近于掌握人類的語言能力,它們也在吸收隱藏于語言中的根深蒂固的偏見[8]。也例如今日頭條這一APP 基于流氓算法,竊取用戶聊天記錄,然后根據(jù)聊天記錄推送廣告。

人工智能在本質(zhì)上就是工具,人類在制造人工智能時“往往有一個簡單的奴隸預設,即機器人本質(zhì)上是類似于奴隸的行為體”[9],行為人利用人工智能去犯罪,首先要排除教唆犯的構(gòu)成。

教唆犯,是指使沒有犯意的人產(chǎn)生了犯意,并實行了犯罪行為。不論教唆正處于弱人工智能階段的現(xiàn)在,還是未來的強人工智能和超人工智能階段的未來,都無異于教唆一個猴子或者一條狗。換而言之,根本構(gòu)不成教唆。人工智能在其算法上應該是客觀中立的,若認定人工智能是被賦予邪惡算法的工具,則違背無罪推定的精神,因此即使賦予了人工智能的獨立人格,那人工智能也應當是沒有不良企圖的,也不會由于他人的唆使而產(chǎn)生犯意。倘若認為行為人通過黑客手段篡改人工智能算法產(chǎn)生的后果是使犯罪行為實現(xiàn)是黑客的意圖[10],從而認定行為人是教唆或者間接正犯,那則一方面忽略了人工智能誕生之初就是為了實現(xiàn)人類的需求這一目的的根本前提,另一方面又忽視了間接正犯的基礎概念。

間接正犯,行為人把他人當做自己實行犯罪的工具。間接正犯除了侵害間接正犯者本身所侵犯的法益外,還構(gòu)成對被當做工具者的侮辱。從這個角度上講,間接正犯屬于選擇性法益。但是人工智能本身就是工具,若把工具當做工具,構(gòu)成對工具的侮辱,屬于重復評價,也屬于利益闕如。

因此,行為人利用人工智能去故意犯罪,則構(gòu)成直接實行犯,不存在間接正犯或者教唆犯的情形。

(三)風險社會——增設人工智能犯罪獨立條款之否定

對人工智能犯罪增設獨立條款的否定并不意味著對人工智能所帶來風險的忽視,而是指現(xiàn)有體系內(nèi)足以應對人工智能所帶來的對刑法的沖擊。風險刑法在應對未知風險時顯示了其獨特的價值,彌補了傳統(tǒng)刑法所無法調(diào)整的法益類型;改變了傳統(tǒng)刑法對某些罪行處罰過于滯后的做法;解決了傳統(tǒng)刑法的一些歸責難題[11],“是指通過規(guī)制行為人違反規(guī)范的行為所導致的風險,以處罰危險犯的方式更加早期地、周延地保護法益,進而為實現(xiàn)刑罰的積極的一般預防目的而形成的一種新的刑法體系”[]。

刑法并非是冰冷的,在風險面前刑法也不會麻木不仁。社會大眾所感知的風險并不是源于事件的直接實際后果,而是源于心理、社會、文化、體制、媒體宣傳等諸多因素[12][。人工智能所帶來的風險社會的一個突出特點就是“高度不確定性”。風險社會所面對的風險不同于工業(yè)社會的風險,后者的風險大體可以通過科學理性加以確定和控制,而人工智能的風險是一種人為制造的風險,科學理性在這種風險面前已變得無能為力[13]。

企圖通過源頭防范確立嚴格責任,增設人工智能事故罪;增設濫用人工智能罪;或者認為在必要的時候,刑法可以賦予人工智能刑事責任主體的地位,并增設能夠適用于智能機器人犯罪的刑罰處罰方式[14],其實是一種嘩眾取寵的無稽之談。增設兩種獨立罪名會使得刑罰的一般預防目的和特殊預防目的相對立,形成刑法對人工智能的歧視,這是萬萬不可的。而賦予人工智能主體地位,并增設刑罰處罰方式,則更是違背了刑法面前人人平等的原則。一旦賦予人工智能主體地位,人工智能則將成為人,即使是電子人,他也將直接適用于總論中關于自然人之有關規(guī)定,對電子人的特殊立法是對獨立人工智能的歧視,與法理相悖。

綜上所述人工智能所帶來的對刑法的沖擊并不是質(zhì)變,現(xiàn)有體系足以應對人工智能所帶來的未知風險,法律的目的是維持秩序而不是創(chuàng)造秩序,創(chuàng)設獨立罪名的行為是顛倒法與社會關系的法律人的幻想。

三、人工智障,結(jié)果避免之虞與不作為過失犯罪

整體而言,人工智能所觸及的犯罪大多是過失犯罪。德國的判例則形象地闡述了結(jié)果避免之虞的理論。在過失犯罪的認定中,結(jié)果避免之虞與結(jié)果預見之虞并不是對等的概念,過失犯的成立以存在結(jié)果避免之虞為前提,結(jié)果可避免性是過失犯罪結(jié)果歸責的必要條件。刑法給行為人不加作為義務是有意義和目的的。如果履行了該作為義務,那么危害結(jié)果便不會發(fā)生,也即具有結(jié)果避免發(fā)生的可能性。如果履行了該作為義務,危害結(jié)果仍然會發(fā)生,則履行該作為義務便沒有意義,則失去了行為人的非難性。這一其按提條件被稱為結(jié)果避免之虞。換而言之過失犯罪和不作為犯罪是結(jié)果避免之虞的一體兩面

在行為人和被害人同時有過錯的情況下,義務違反關聯(lián)的判斷應當假設被害人的行為是符合義務的,那行為人的違反義務行為是否還會導致結(jié)果的產(chǎn)生。在阿莎芬堡案中,司機實際上也是受害者,對該系統(tǒng)的制造商給予一個違反注意義務的非難是值得肯定的,發(fā)生在阿爾策瑙村的交通事故是可預見的,是具有結(jié)果避免之虞的。生產(chǎn)商若放棄“安裝車道保持輔助系統(tǒng)”,就可避免母親和她孩子的死亡。由于該系統(tǒng)使用者數(shù)量巨大,在統(tǒng)計學上幾乎可以肯定,該系統(tǒng)將會造成人身傷害或死亡。所有的這一切都贊成認可一個生產(chǎn)者對注意義務的違反。生產(chǎn)者未盡到對注意義務的作為義務,因此屬于不作為犯罪。不作為的模型是:應為→能為→而不為→具有等價性。生產(chǎn)者應該盡到注意義務,且生產(chǎn)者完全有能夠履行該義務的可能性,但是生產(chǎn)者卻選擇了不作為,也即沒有放棄車道保持輔助系統(tǒng)。

至于等價性的參考因素則由作為義務的性質(zhì)和行為人支配風險發(fā)展的程度高低。生產(chǎn)者的不作為與行為高位支配的危險之高不具有等價性,是生產(chǎn)者構(gòu)成不作為犯罪的原因。換而言之,有無作為義務和將作為義務履行到什么程度是兩個獨立的問題,有作為義務并不意味著要將作為義務負責到底。但二者存在一定的比例問題,也即履行程度的問題。也即,不需要生產(chǎn)者預見到每一個細節(jié),而只需預見到由于自動系統(tǒng)幾乎普及,發(fā)生在阿爾策瑙村的交通事故并不會成為個案即可。

人工智能的故障可以戲稱為人工智障,由于生產(chǎn)者或者研發(fā)者沒有盡到注意義務,而又對危害結(jié)果的發(fā)生不可能持故意心態(tài),從而導致的人工智障類犯罪可以歸結(jié)為生產(chǎn)者的不作為過失犯罪或者單純的意外事件。不作為過失犯罪和意外事件的區(qū)分就在于結(jié)果避免之虞。若生產(chǎn)者和研發(fā)者是數(shù)人,則存在多個違反義務的行為,在德國的刑法中體系中將追究生產(chǎn)者和研發(fā)者是數(shù)人過失是共同正犯的責任。而在我國的刑法體系下,共同過失不構(gòu)成共同犯罪,從而導致我國往往會追究單位或者單位主管人員的責任。按照結(jié)果避免之虞的程度高低,分為兩種情形:結(jié)果不可避免與結(jié)果可能避免[15]。結(jié)果避免之虞是否影響歸責,要根據(jù)“合義務替代行為”來確定,也即假定人工智能的生產(chǎn)者倘若盡到了注意義務,結(jié)果是否依舊會發(fā)生是區(qū)分不作為過失犯罪或者單純的意外事件的核心條件。換而言之,若人工智能的生產(chǎn)者和研發(fā)者竭盡所能,但仍無法阻止結(jié)果的發(fā)生,對其的非難便成為了苛責,“在因果關系能夠肯定,結(jié)果避免可能性難以確定的情況下,雖然行為違反注意義務,但如果沒有明顯增加法益危險,應當排除行為人的過失責任,以無罪處理”[16],這正是風險社會的核心精神的體現(xiàn),刑法不能阻礙社會科技的進步。

四、利用人工智能犯罪,動物風險對人工智能風險歸責的啟示

(一)賦予人工智能獨立人格如同獵狐人規(guī)則是一種偽善

人工智能的發(fā)展會經(jīng)歷三個階段:弱人工智能,強人工智能,超人工智能。雖然說強人工智能后人工智能將有可能超越人類,但是這并足以說明了人工智能具有人類的意識,正如大猩猩和海豚一樣,在某些領域內(nèi)這兩種動物的表現(xiàn)已經(jīng)超越了人類,但這既不是動物有著獨立法律地位的理由,更不能成為人工智能取得法律主體地位的理由。

人類不需要賦予人工智能“人”的地位,反之,這一人格便成為了造物主的恩賜。當人工智能發(fā)展的足夠充分的時候,它們會為自己代言。正如如火如荼的女權運動的核心價值在于,女性要為自己發(fā)聲。人工智能若取得獨立的人格的前提條件則是它們可以訴說自己的需求。若為不能訴說自己的訴求的“thing”代言,如同“獵狐人規(guī)則”一樣,是人類基于造物主獨有的鐘愛所產(chǎn)生的特有的優(yōu)越感的偽善。英格蘭人認為獵手與獵物均是由造物主創(chuàng)造,獵手與獵物是平等的。讓獵物先跑一段距離,是為了彌補獵物在公平競爭上的劣勢。實際上,獵手是武裝到牙齒的,且與獵物有著最大的不同則是在于獵手具有意識,這種意識絕不與超人工智能的“意識”相同,并不是基于先天的算法和基礎構(gòu)造,而是基于歷史、文化、地理等多方面的因素交雜而成;而獵物則更多的是與生俱來的本能。獵狐人規(guī)則所體現(xiàn)的是一種偽善。這“恩賜”給了毫無還手之力的、毫無希望可言的獵物以希望,再以殘酷的獵殺破滅其希望。這不是善,更多的是滿足了獵手的殺戮之心。獵手在勝利之后吃著獵物的烤肉,豪飲獵物的鮮血,還暢談獵手與獵物公平?jīng)Q斗,并認為這就是正義,這無疑是荒謬的。

同理,賦予沒有意識而言,哪怕是超越人類的超人工智能或者動物以獨立的人格屬于偽善。如果把整個法治國家比作成為獵場,人類和人工智能分別作為獵手和獵物,在一個由人類主導的刑事司法活動的對決中,賦予其人格屬于讓毫無還手之力的獵物先跑一段,然后用人類的規(guī)則將其制裁,這屬于將人類的道德強加于其他個體,是極為不正義的。

(二)基于動物風險的迷思之對人工智能精準定位

由于人工智能無論如何也不可以被賦予獨立的人格,因此同樣作為依附于人類的“thing”,將其視為動物并無不可取之處。動物風險的精髓在于行為人對動物有無支配力,簡而言之,一條狗可以在行為人的唆使下去咬人,也會因行為人的命令而停止攻擊。

若A 命令一條狗去輕傷B,B 對狗進行反擊,最后B 輕傷。A 構(gòu)成故意傷害罪,B 構(gòu)成正當防衛(wèi)。對有主動物故意攻擊的反擊視為對不法侵害人的正當防衛(wèi)。

然而若A 命令一條狗去輕傷B,B 對狗進行反擊,最后結(jié)果是使得B 重傷或者死亡。如何評價狗的“實行過限”問題就成為了動物風險的核心問題。A對B 重傷或者死亡的心態(tài),要么是故意要么是過失;當A 的心態(tài)為故意時,則不存在過限問題,也即輕傷和重傷、死亡之間是類型化的因果關系,重傷死亡就是輕傷升級,故此不在討論范圍之內(nèi)。

若A 命令一條狗去輕傷B,狗失去了控制,使得B 重傷或者死亡。A 若持過失心態(tài),也即對B 的重傷死亡的結(jié)果是不希望看到的,則構(gòu)成了未超出者對超出范圍具有過失,而這過失則很有可能構(gòu)成不作為的過失。首先A 命令一條狗去輕傷B 構(gòu)成故意傷害罪,A 由于先行行為產(chǎn)生了一個制止狗的繼續(xù)侵害的義務,然而狗卻失去了控制,A 有阻止狗繼續(xù)侵害的義務,卻沒有履行相應的義務,屬于不作為犯罪。且A 的目的是輕傷B,因此對B 的重傷死亡的結(jié)果是過失心態(tài),因此屬于過失致人死亡罪。A 有兩個行為:一個作為的行為和一個不作為的行為。導致了一個結(jié)果:B 的重傷死亡。行為人兩個行為造成了一個法益侵害的后果,因此不能對A 以故意傷害罪和過失致人重傷(死亡)罪數(shù)罪并罰,否則將對被害人進行重復評價,因此則采用重行為吸收輕行為的吸收犯的原則,對A 以過失致人重傷(死亡)論處。

倘若利用人工智能去故意犯侵犯人身安全類犯罪,可以參考上述結(jié)論。簡而言之,在行為人故意范圍內(nèi)成立故意傷害,對超出部分以過失犯罪論處,是動物風險對人工智能所帶來風險的回應。●

猜你喜歡
之虞行為人義務
什么是侵權責任中的過錯責任
自殺案件如何定罪
新傳奇(2022年23期)2022-06-18 17:55:47
幸福的人,有一項獨特的義務
海峽姐妹(2020年12期)2021-01-18 05:53:12
論過失犯中注意義務的判斷標準
法制博覽(2019年36期)2019-12-14 06:00:45
三十載義務普法情
人大建設(2018年4期)2018-06-26 08:38:26
賦能成長:尋找營銷美好的種子案例
跟蹤導練(一)(4)
論故意不法先前行為人的作為義務
刑法論叢(2016年3期)2016-06-01 12:15:17
中國短期內(nèi)無尿素進口之虞
“良知”的義務
横山县| 通城县| 克东县| 斗六市| 蒙城县| 乌拉特前旗| 湾仔区| 宣化县| 阿鲁科尔沁旗| 和林格尔县| 怀安县| 沁水县| 磴口县| 启东市| 济阳县| 昌邑市| 原阳县| 通许县| 上高县| 霍邱县| 海淀区| 筠连县| 大冶市| 青浦区| 盐山县| 尼木县| 工布江达县| 巴林右旗| 昆明市| 秦皇岛市| 崇州市| 滨州市| 叶城县| 嘉善县| 德昌县| 湟源县| 淅川县| 米泉市| 姚安县| 清徐县| 壤塘县|