隋林熹
(北京師范大學(xué),北京 100091)
“工具論”認為,人類最早制作的石器即屬于“制造工具的工具”,而這種工具一旦出現(xiàn)便產(chǎn)生了“工具的疊加”,每一次“工具的疊加”都促進生產(chǎn)力的極大發(fā)展。[1]人類與其他動物的重要區(qū)別即語言與技術(shù)知識的積累,使得人類不斷創(chuàng)造出更為高級的生產(chǎn)工具。從目前發(fā)展速度來看,人類所創(chuàng)造的工具正在不斷超越人類本身,最令人所熟知的是阿爾法圍棋(AlphaGo)智能程序,其在2016 年、2017 年接連擊敗世界冠軍李在石與柯潔。人工智能在多個領(lǐng)域取得的突破使得刑法應(yīng)當考慮其實施犯罪、破壞社會秩序的可能。目前人工智能最常見的分類是強人工智能與弱人工智能之分。這種分類并非以是否類人化為區(qū)分標準,更不是以是否具有自由意識為區(qū)分標準,而是以處理問題的系統(tǒng)為界分。強人工智能可以通過一套系統(tǒng)處理不同智能問題,而弱人工智能需要不同系統(tǒng)處理不同智能問題。強人工智能可以和人類相近也可以具有與人不同的思維模式與生活法則。[2]強人工智能或弱人工智能的分類最早由哲學(xué)家約翰·賽爾提出,后出現(xiàn)人工通用智能(Artificial General Intelligence)和超人工智能(Super intelligence)等計算機科學(xué)領(lǐng)域術(shù)語,對人工智能的分類尚未出現(xiàn)準確符合刑法語境的方法。“智能機器人在沒有獨立的意識和意志情況下的任何行為,都只能看作是研發(fā)者和使用者犯罪的工具?!盵3]目前學(xué)界內(nèi)的討論主要以是否具有獨立意識為強人工智能與弱人工智能分類的依據(jù)。
否定論一方面認為,刑法不應(yīng)探討尚未誕生之物的刑事責任,不能建立在假設(shè)的基礎(chǔ)之上推定人工智能具有刑事責任主體資格。另一方面認為,有學(xué)者以人工智能不具有認識能力、控制能力為由,否認人工智能能夠成為刑事責任的主體。意識為何物現(xiàn)在沒有科學(xué)的定論,從現(xiàn)有科學(xué)來說人的意志也是依賴于客觀存在的,生物電與化學(xué)物質(zhì)的分泌使得人有產(chǎn)生意識的基礎(chǔ)。機器是否具有如同人一般的自由意志是不可能證偽的,必須從實然角度去觀察機器的特有意識。過去想要達成強人工智能(AGI)普遍以計算機科學(xué)或神經(jīng)科學(xué)為單一導(dǎo)向,最新的Tianjic 芯片可以兼容兩個平臺并通過神經(jīng)生物科學(xué)模型模仿大腦皮層的運作方式進行整體性、魯棒性的自主學(xué)習(xí)。[4]法律條文具有滯后于社會發(fā)展的特性不意味著法學(xué)理論也應(yīng)滯后于社會發(fā)展,并且上述Tianjic 的技術(shù)突破尚屬于擬人形人工智能,計算機的二進制與量子比特的態(tài)疊加原理注定人工智能與人思維方式的區(qū)別。不可否認作為碳基生物的人類具有創(chuàng)造硅基生物的可能。
在9 至19 世紀的西歐記載了兩百多件審判動物的案例,[5]在上世紀單位能否成為刑事責任的主體尚處于激烈爭論,由此可見刑事責任的主體是動態(tài)變化的過程。認為人工智能不具備意志自由從而否定其歸責可能這一觀點缺乏合理性。學(xué)者科爾勞什認為自由意志是一種被迫的但又必要的假設(shè),[6]現(xiàn)代腦神經(jīng)科學(xué)實驗逐漸認為自由意志是一場“幻象”,基于磁共振成像(FMRI)技術(shù)發(fā)現(xiàn)早在被試者意識到做出選擇之前,他們的大腦已經(jīng)做出選擇,然后讓自己相信這是自己基于自由意志做出的選擇而不是生物化學(xué)導(dǎo)致的結(jié)果。[7]人的自由意志逐漸被證偽的情況下難以否認功能強大的人工智能不具有自由意志。法人的本質(zhì)存在多種學(xué)說,我國《民法典》贊同法人實在說中的組織體說,認為法人不是擬制而來的,而是自然形成的。法人與自然人重要的差別在于人格權(quán)中的身體權(quán)、健康權(quán)、配偶權(quán)等,這些權(quán)利也被認為是人獨有的特征。與自然人差別巨大的法人具有獨立的行為能力與意思能力也可以成為刑事責任的主體,在問題解決、自我決策、最優(yōu)路徑選擇方面勝于法人的人工智能至少應(yīng)當作為擬制的主體受刑法所規(guī)制。
目前依然沒有刑法語境下對人工智能的分類方法,主要采取是否具有“自由意志”為強、弱人工智能的界分標準,而人工智能的自由意志無法被證明且目前尚未產(chǎn)生成為肯定論的阿喀琉斯之踵。在分析素材匱乏的情況下大多以AlphaGo 與“大眾汽車殺人案”作為分析的出發(fā)點。雖然有諸多學(xué)者通過人工智能的技術(shù)特點與刑事責任能力對應(yīng)的方法進行證立,但依然需要實際判斷標準作為補充。不能認為人工智能做出的行為只要在編程范圍之內(nèi)就沒有“自由意志”。這要求必須從實然角度出發(fā),觀察人工智能從事制造危險行為時的屬性、能否歸責于自然人以及是否突破預(yù)設(shè)程序邊界等等問題。判斷人工智能在某一案件中是否應(yīng)當承擔刑事責任也不能僅僅從人工智能自身行為出發(fā),生產(chǎn)者、使用者與監(jiān)管者對人工智能刑事責任主體地位的認定也具有重要作用。
許多學(xué)者提出對人工智能應(yīng)參考單位的評價與規(guī)制路徑,并采取相似的法律擬制技術(shù)。筆者認為單位與人工智能均由人所創(chuàng)造,但單位作為一種制度體現(xiàn)的是集體的意志而不是自然人意志的簡單相加。人工智能的擬制技術(shù)不能完全參考單位犯罪,但單位與自然人的刑事責任判斷的區(qū)別點同樣也會是人工智能與人刑事責任的區(qū)分點。在公司法中存在法人人格否認制度,刑法也有學(xué)者提出“單位人格”否認制度,[8]以此來刺破法人“面紗”,由自然人承擔相應(yīng)責任。當一個人工智能制造了法律不允許的危險時同樣應(yīng)當觀察其行為性質(zhì)與屬性。若其制造危險、侵害法益的行為屬于“工具”或“制造工具的工具”。對人工智能作為“工具”則應(yīng)當保持“價值中性”,也即目的與手段的分離[9],同一個工具可能體現(xiàn)出對立或各異的目的,人工智能自身對行為產(chǎn)生的任何后果不具有傾向性。根據(jù)韋爾策爾(Welzel)、毛拉賀(Maurach)等學(xué)者提出的目的行為論,人對自己動作所產(chǎn)生怎樣的結(jié)果應(yīng)當具有可預(yù)見性,目的行為是“有意識地從目標的角度引導(dǎo)的所為?!北热缱o士注射時不知道自己手里的針劑量可致死,其行為是有目的的注射但不是有目的的殺害。[10]人工智能做出的自由行為應(yīng)當與其意欲達成的任務(wù)目標保持一致。一個智能程度僅能被當做工具使用的人工智能不能稱之為強人工智能,真正的強人工智能能夠為自身創(chuàng)造目的,具有為自身設(shè)置任務(wù)的能動性與自覺性,不依賴于人類為其預(yù)設(shè)目標與任務(wù)。黃榮堅教授指出:“所有犯罪都是直接犯罪,也都是間接犯罪。這是由于人的意志永遠無法直接實現(xiàn)侵害,所以人永遠是利用工具才能實現(xiàn)侵害?!盵11]人工智能制造危險的行為擺脫價值中性,體現(xiàn)出超脫工具特性時,才具備刑事法律主體的資格;若其存在價值中性或被認為所操控時應(yīng)當否認其承擔刑事責任的能力。
人與人工智能的智慧所依賴的客觀存在不同導(dǎo)致其決策機制的差異,人的決策機制往往是趨利避害。比如霍布斯認為我們的決策來源于自利身體機制,目的是為了某種對自己的善。人工智能被創(chuàng)造之初即作為工具,目的是為了尋求最優(yōu)解,是一種完全的“理性”。人在做某一行為時,行為方式與產(chǎn)生的結(jié)果是可以窮盡的。當在計算機運行預(yù)先設(shè)置的編程所可能產(chǎn)生的行為方式與結(jié)果多于人類時,其擺脫人類控制的條件下,自由選擇其中一種行為過程與方式那么可認為其是自主選擇的。人無法擺脫智力與身體的束縛,不能苛求人工智能機器也擺脫編程與算法的束縛。許多學(xué)者認為人工智能無法習(xí)得道德規(guī)范、沒有道德自我決定權(quán),從而否認人工智能成為刑事法律責任的主體。“電車難題”這一道德困境不僅引起社會科學(xué)不同領(lǐng)域內(nèi)的廣泛討論,在設(shè)計自動駕駛汽車算法時也出現(xiàn)諸多爭論。梅賽德斯-奔馳的安全產(chǎn)品經(jīng)理 Christoph von Hugo 在《Car and Driver》上表示,在其設(shè)計人工智能汽車時將會優(yōu)先保障乘客的生命安全,因為即使是人類駕駛員也不能很好地處理該問題,并且未來L4-L5 級自動駕駛汽車的水平勝于人類駕駛員。[12]這一采訪引發(fā)了激烈的討論。也有學(xué)者受羅爾斯《正義論》中“無知之幕”的啟發(fā),提出“最大化最小值”的決策方法。[13]可見,人類對同一道德問題有著不同見解,機器人按照尋求最優(yōu)解的方式解決問題不能認為是背離理性主體所信守的道德義務(wù)。目前人工智能在道德問題的決策往往采取一種算法,面臨同樣情形時可能采取一種行為方式。在能做出刑法意義行為的強人工智能時代,其道德行為的決策不應(yīng)只遵循同一預(yù)設(shè)算法,而是可以通過神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)豐富自身決策水平與決策數(shù)量。當超過一定數(shù)量擺脫編程的預(yù)設(shè)時,可以認為獲得了道德上的自決權(quán)。同樣,在人工智能技術(shù)足夠發(fā)達時,相信會有相關(guān)行政法規(guī)、規(guī)范性法律文件以及行業(yè)標準對人工智能規(guī)范的習(xí)得進行嚴格要求,人工智能學(xué)習(xí)全部法律數(shù)據(jù)庫中的案例、條文并非難事。當人工智能在學(xué)習(xí)完現(xiàn)行有效的法律規(guī)范,依然在無人為控制與預(yù)設(shè)的情況下違反法律規(guī)范、制造法律不允許的風險,可以認為其行為是具有刑法意義的。例如微軟曾在推特上推出聊天機器人Tay,但其很快接受推特用戶“蠱惑”,散布女權(quán)仇恨主義、種族主義、納粹主義等等。像Tay 這樣的易于操控的人工智能,會因為外界信息的輸入,對整個系統(tǒng)的行為和功能產(chǎn)生嚴重影響。[14]如果該聊天機器人通過迭代升級,具備了計算機科學(xué)領(lǐng)域多任務(wù)處理的能力,成為強人工智能,并且其習(xí)得了法律規(guī)范以及不同類型的道德規(guī)范,其仍然在網(wǎng)絡(luò)空間散布分裂、仇恨等信息,那么可以認為其做出了具有刑法意義的行為,存在觸犯尋釁滋事或者煽動分裂國家等罪名的可能。
責任能力是承擔刑事責任的前提,刑事處罰對自然人的非難建立在犯罪決議的基礎(chǔ)之上,行為人應(yīng)當承擔不克制犯罪沖動、未能阻卻結(jié)果發(fā)生的責任。在單位引入刑事責任能力這一概念時,學(xué)界也存在反對的聲音。自然人引入刑事責任能力是為了排除不適格的人群,年齡、認知能力等生物因素成為核心判斷標準。刑事責任能力理論以自然人為核心,單位顯得格格不入,因此有學(xué)者主張將單位合法性、財產(chǎn)等內(nèi)容作為專門規(guī)定單位犯罪的主體條件。[15]自然人具有限制或減輕刑事責任的形態(tài),而單位僅有具備或不具備兩種狀態(tài)。對于人工智能責任能力的考察不應(yīng)將重點放在人獨有的“心理責任”,而是可以圍繞硅基生物特點賦予獨有的責任能力判斷方式。通過“綜合觀察標準”的確立,多道心理測試(俗稱“測謊”)在美國大多數(shù)州的案件審理過程中所采納,中國司法部《法醫(yī)類司法鑒定執(zhí)業(yè)分類規(guī)定》對該技術(shù)也進行了認可。犯罪心理測評儀器與讀譜技術(shù)的發(fā)展,使洞悉人類想法逐漸從空想、偽科學(xué)走向現(xiàn)實、科學(xué)。想要探求人工智能的主觀心理狀態(tài)相比人腦而言顯得更加簡單,通過提取人工智能系統(tǒng)的處理數(shù)據(jù)、指令等方式分析其行為來源。若發(fā)現(xiàn)其相關(guān)數(shù)據(jù)被自身隱藏、刪除,則更能從側(cè)面證明人工智能具有認識自身行為的能力或有人為操控因素。但由于運作機制、決策方式的差異使刑法對其責任形式的判斷不得不采取異于人類的方法。
對人工智能進行歸因與歸責離不開對生產(chǎn)者、使用者甚至監(jiān)管者構(gòu)成要件符合性的判斷。例如,生產(chǎn)者自研發(fā)之初即帶著殺人目的制造出強人工智能武器,即使該人工智能主體具有承擔刑事責任的能力,但由于其創(chuàng)造時就帶有犯罪的目的性,仍然屬于人犯罪的工具。生產(chǎn)者沒有下令殺死誰,人工智能基于自己意志進行判斷而殺人,生產(chǎn)者在此情形下也屬于“概括性”的故意,對行為對象、手段、性質(zhì)不要求有明確的認識。[16]其認識到該機器會殺人,但對殺死誰沒有具體的認識。這種情形下人工智能不會與生產(chǎn)者構(gòu)成共同犯罪,因其目的和手段與研發(fā)者目的產(chǎn)生耦合,無法擺脫工具的屬性。即使生產(chǎn)者自研發(fā)與損害后果的產(chǎn)生具有較長的時間、空間跨度,但從客觀歸責角度,其研發(fā)行為就是制造了法律不允許的風險,生產(chǎn)之后不對其進行法律規(guī)范與道德規(guī)范的指引學(xué)習(xí)更使風險提升。若在生產(chǎn)者故意制造犯罪工具的情形下承認人工智能承擔刑事責任,則可以借鑒共同犯罪實行過限的原理。例如甲生產(chǎn)一款人工智能機器,可以通過神經(jīng)網(wǎng)絡(luò)習(xí)得所有暴力犯罪,并指揮其從事相關(guān)暴力犯罪。但在人工智能不斷提升自己的過程中逐漸習(xí)得了其它犯罪方法,從事詐騙、操縱證券期貨市場、侵犯知識產(chǎn)權(quán)等類型犯罪,其犯罪所產(chǎn)生的損害后果已經(jīng)無法被生產(chǎn)者的故意所包含,不能認為其屬于生產(chǎn)者的工具。另一方面,生產(chǎn)者對注意義務(wù)的違反也影響著人工智能的刑事責任。行業(yè)標準、國家標準以及規(guī)范性法律文件對研發(fā)者義務(wù)的規(guī)定會成為法律的先導(dǎo),其會對人工智能的生產(chǎn)者、研發(fā)者避免從事犯罪行為進行技術(shù)上的引導(dǎo)。比如對人工智能進行安全性測試的義務(wù)、強制習(xí)得法律道德規(guī)范義務(wù)、風險行為的預(yù)測制止義務(wù)、數(shù)據(jù)保存與上傳義務(wù)等等。當人工智能生產(chǎn)者未能履行到上述義務(wù)、違反相關(guān)標準時,可以認為其具有間接故意或者過失。當構(gòu)成間接故意時也不宜以共同犯罪論處,因不輸入法律規(guī)范、加裝保護程序所可能導(dǎo)致的損害結(jié)果多種多樣??梢詤⒄丈a(chǎn)銷售偽劣產(chǎn)品罪名的方式進行處罰。構(gòu)成過失時也可以參照重大責任事故罪,[17]對生產(chǎn)者進行處罰。將人工智能作為刑事責任的主體的重要原因之一即在于對自然人、法人處罰的空白。當人工智能技術(shù)被普遍性適用并屢屢引發(fā)危害行為,但對自然人、單位又無刑法上歸因、歸責的依據(jù)時,不能簡單作為意外事件或民事案件進行處理。如果認為對人工智能科處刑法不能起到一般預(yù)防與特殊預(yù)防的作用也無實際意義,那么處罰的空白更會導(dǎo)致危害行為的發(fā)生。當人工智能發(fā)表引起公憤的言論抑或是操縱機器產(chǎn)生危害他人健康的后果,對其進行銷毀,一定程度可以滿足民眾對其犯罪的憎恨情緒,無論是道義報應(yīng)還是法律報應(yīng),能夠體現(xiàn)對人工智能的懲戒。而對人工智能切斷網(wǎng)絡(luò)、阻止其學(xué)習(xí)與工作、銷毀等方式抑制其再犯可能,體現(xiàn)了特殊預(yù)防的目的。當法律文書裁判上傳網(wǎng)絡(luò),強人工智能在深度學(xué)習(xí)后,了解此行為會導(dǎo)致負面的結(jié)果,也可以起到一般預(yù)防的作用??隙ㄈ斯ぶ悄苄淌仑熑问怯斜匾?,但也要以自然人的刑事責任認定為依賴,不能單獨審視人工智能的刑事責任。
根據(jù)行為責任論,刑法非難對象是行為本身以及行為中所體現(xiàn)的犯罪意圖。根據(jù)《刑法》十四條,一般認為故意的責任形式可以被劃分成認識因素與意志因素。從認識上明知會發(fā)生危害社會的后果,從意志上希望或放任危險結(jié)果的發(fā)生。劉憲權(quán)認為,強人工智能產(chǎn)品可以通過“電子眼”、“電子耳”達到對外界的認識,通過精準的算法與大數(shù)據(jù)形成對自己行為的控制。[18]由于自然人與電腦決策機制不同,也應(yīng)當適用不同的判斷方式。從認識因素來看,是否認識到行為會發(fā)生危害社會的后果,目前的弱人工智能也可以實現(xiàn)。犯罪預(yù)測系統(tǒng)在公安偵查中發(fā)揮的作用有目共睹,例如孟菲斯警察廳使用犯罪預(yù)測技術(shù)“BLUE CRUSH”,能夠預(yù)測可能出現(xiàn)問題的區(qū)域,從而使孟菲斯警察局能夠主動分配資源以降低風險,此舉使得該市犯罪率下降10%。[19]目前犯罪預(yù)測可以預(yù)測人的犯罪行為與后果,人工智能預(yù)測自身行為產(chǎn)生的后果更為簡單。在最為簡單的人身暴力犯罪中只要習(xí)得醫(yī)學(xué)、法醫(yī)學(xué)知識,即可預(yù)估自己行為所可能造成的傷勢。而意志因素中的希望或放任則可以檢索人工智能為自己預(yù)設(shè)的目標與任務(wù)。若數(shù)據(jù)表明該目標明確以該目標、該危害結(jié)果呈現(xiàn)積極追求的任務(wù)處理方式可以認為是直接故意。而為了實現(xiàn)另一個犯罪意圖或正常意圖,行為過程中造成了損害后果,且能夠表明人工智能技術(shù)上具有結(jié)果避免的高度可能,可以認為是放任危害結(jié)果的發(fā)生。從過失角度而言,舊過失論強調(diào)結(jié)果的預(yù)見義務(wù),新過失論則以違反結(jié)果回避義務(wù)為核心。人工智能可能由于自身架構(gòu)、學(xué)習(xí)歷程以及設(shè)計上的局限,導(dǎo)致其可能產(chǎn)生偏離任務(wù)目標的行為與損害后果。以自動駕駛汽車為例,路況、天氣、地形以及交通規(guī)則的差異極有可能使自動駕駛系統(tǒng)違反交通管理法規(guī),進而造成嚴重后果。同樣基于依托于大功率計算機的人工通用智能存在運算負荷超載仍繼續(xù)運算從而觸犯過失損壞電力設(shè)備罪的可能。刑法的發(fā)展應(yīng)當具有一定的前瞻性,以強人工智能尚未誕生、不具有自由意志來否定人工智能的可歸責性不符合客觀發(fā)展狀況。生物具有多樣性,智慧生物同樣具有多樣性,人可以通過科學(xué)技術(shù)量的積累實現(xiàn)“人類工具”向“人造智慧體”發(fā)生質(zhì)的改變。為法人設(shè)計法人人格否認、單罰制雙罰制等方式說明目前罪責理論不排斥人工智能,需要的是發(fā)展人工智能的歸責判斷標準加以支持,符合客觀發(fā)展趨勢。