特邀主持人:魏 東(四川大學法學院教授、博士生導師)
主持人語:當今時代正在走向互聯(lián)網+人工智能時代。如果說互聯(lián)網+法學這一互聯(lián)網時代法學的新命題、新挑戰(zhàn)的核心是數(shù)據(jù)運用與數(shù)據(jù)安全的研究,如果說人工智能法學這一人工智能時代法學的新命題、新挑戰(zhàn)的核心是人工智能算法運用與算法安全的研究,那么可以說,互聯(lián)網+人工智能法學這一新命題、新挑戰(zhàn)的核心就是數(shù)據(jù)運用與數(shù)據(jù)安全、人工智能算法運用與算法安全相互交織為一體的研究。
為此,本刊特設“互聯(lián)網+人工智能法學”專題對相關理論問題進行研討。本期刊發(fā)的三篇文章從刑法和行政法角度研討了互聯(lián)網+人工智能時代亟需應對的前沿問題。其中,魏東的《人工智能犯罪的可歸責主體探究》主要從人工智能時代刑法觀視角論證了以下問題:人工智能犯罪在生成機理和內在邏輯上只能是人工智能“算法安全犯罪”,人工智能犯罪僅能歸責于作為保證人的“自然人-法人”,(超)強人工智能機器人無法獲得與“自然人-法人”一樣的“人心人性”,從而無法獲得權利義務主體資格。黃明儒、孫珺濤的《論刑法介入互聯(lián)網金融的限度》一文從罪刑法定、刑法謙抑角度論證了刑法介入互聯(lián)網金融領域應當保持合理限度,主張行政違法性應為確定刑事違法性的前提,應當準確界分金融創(chuàng)新與金融犯罪,確保立法擴張下的限縮適用。張亞楠的《政府數(shù)據(jù)共享:內在要義、法治壁壘及其破解之道》深刻分析了政府數(shù)據(jù)共享存在的諸如權屬障礙、版權化難題、權利義務關系緊張、“兩秘密一隱私”數(shù)據(jù)的保護等法治壁壘,主張通過對數(shù)據(jù)權利進行定性,將政府數(shù)據(jù)共享協(xié)議引入流程,秉承從權力本位到責任本位的理念轉變,實現(xiàn)政府數(shù)據(jù)共享的專業(yè)性立法。
希望這三篇文章能夠起到拋磚引玉的作用,能夠有更多學者繼續(xù)深入研討互聯(lián)網+人工智能時代的刑法、行政法、民商法等部門法問題和法理學問題。
〔摘要〕 人工智能犯罪在生成機理和內在邏輯上只能是人工智能“算法安全犯罪”。基于人工智能犯罪中人工智能算法安全的相對自主性與絕對客體性的犯罪機理,人工智能犯罪僅能歸責于作為保證人的“自然人-法人”責任論。人工智能犯罪中“人心人性”的刑法常識觀,應當確認人工智能犯罪的可歸責主體,只能是作為算法安全社會關系主體的“自然人-法人”二元主體。為妥當解決人工智能犯罪的歸責原理和實踐問題,應當在堅守人工智能犯罪“自然人-法人”二元主體模式的基礎上修改完善刑法立法。
〔關鍵詞〕 人工智能犯罪,算法安全犯罪觀,“自然人-法人”二元主體模式
〔中圖分類號〕D924 ?? 〔文獻標識碼〕A〔文章編號〕1004-4175(2019)05-0005-09
一、引言:問題真?zhèn)闻c基本立場
人工智能①犯罪的可歸責主體問題,當被作為一個“問題”來討論時,該問題意識的內在邏輯在于:認清當下,思考將來。所謂認清當下,是指認清當下弱人工智能犯罪“真相”,在那些通過弱人工智能(即弱人工智能機器人②,又稱專用人工智能機器人③)所實施的犯罪中,弱人工智能(機器人)被作為“犯罪工具”予以評價和處置,可謂“犯罪工具論”;在那些針對弱人工智能所實施的犯罪中,弱人工智能則被作為“犯罪對象”予以評價和對待,可謂“犯罪對象論”。可以說,對于當下弱人工智能犯罪,刑法學界秉持弱人工智能“犯罪工具論”和“犯罪對象論”立場,認為人工智能犯罪的可歸責主體只能是“人”(包括自然人和法人④)而不能是弱人工智能(機器人)本身,這是沒有爭議的,或者說這里不存在爭議問題、不是問題意識之所在。所謂思考將來,是指思考將來可能出現(xiàn)的(超)強人工智能(即強人工智能機器人與超強人工智能機器人,又稱通用人工智能機器人與超級人工智能機器人)犯罪“真相”,可否超越弱人工智能“犯罪工具論”和“犯罪對象論”,從而使得(超)強人工智能機器人成為犯罪主體(犯罪主體論)和可歸責主體(可歸責主體論)?這是有爭議的,或者說這里才存在爭議問題,也才是問題意識之所在。對此問題,理論界存在較大分歧:一是主張(超)強人工智能機器人“犯罪主體論”和“可歸責主體論”,可謂肯定論。如,有論者籠統(tǒng)地承認(超)強人工智能機器人的犯罪主體性 〔1 〕;有的則具體指出,當(超)強人工智能機器人在程序設計和編制范圍外實施嚴重危害社會的行為時,(超)強人工智能機器人具有辨認能力和控制能力,因而具有刑事責任能力,應當獨立承擔刑事責任 〔2 〕;還有的明確指出,“可以參考法人主體的擬制思路,逐步探索構建人工智能刑事主體資格的法律擬制模式,基于人工智能的發(fā)展逐步構建和完善人工智能主體的意思要素、行為要素,使之正式進入刑法主體范圍” 〔3 〕。二是否定(超)強人工智能機器人“犯罪主體論”和“可歸責主體論”,可謂否定論。如,有的主張絕對地否定人工智能機器人的犯罪主體地位,認為人工智能體只可能引起過失犯罪問題,并以修正的過失犯理論為依據(jù)將自主性人工智能引起后果的責任排除在“可容許的危險”范圍之外,并以此在設計者、販賣者、利用者之間分配過失犯罪的責任 〔1 〕;有的則認為技術水平、價值觀念、具體認定等方面尚存在較大困難,不可貿然將(超)強人工智能機器人納入刑法規(guī)制的行為主體范圍 〔4 〕。綜上可見,人工智能犯罪的可歸責主體的問題意識應當進一步限定并具體細化為:(超)強人工智能犯罪的犯罪主體與可歸責主體是否可以是(超)強人工智能?
值得注意的是,法學界有一種聲音認為:當前討論(超)強人工智能犯罪——作為一種是否可能真實發(fā)生而尚未可知的“將來”犯罪——及其可歸責主體是否可以是(超)強智能機器人的問題,純屬無稽之談的“偽問題”(即“偽問題論”),實無討論之必要。前述部分否定論者持有這種見解。劉艷紅教授批評說:那種認為“必然會出現(xiàn)具有自我意志的(超)強人工智能,人工智能可能會取代人類、機器算法會取代人類法律……因而主張法律甚至刑法積極應對和規(guī)制人工智能的發(fā)展”的觀點,其實“只是依靠無數(shù)假想拼湊起來的幻影”,法學界部分學者在不斷制造、跟風、放大“假問題”。〔5 〕應當說,“偽問題論”通過質疑將來而回避問題本身的論說思路可能并不可取,看不到或者忽視“將來”的思考也無益于問題的有效解決,因而“偽問題論”自身的問題意識也存在合理性疑問。事實上,同刑法學界所討論的(超)強人工智能機器人犯罪“高頻率問題”,即(超)強人工智能機器人犯罪的歸責主體是否可以是(超)強人工智能機器人這一設問相呼應,民法學界乃至國際私法學界也較多地討論了智能機器人的民事主體地位(資格)問題,例如針對2017年2月16日歐洲議會通過的《關于機器人民事法律規(guī)則的決議》建議至少應明確最精密的自主機器人擁有“電子人”地位,使之能夠承擔其引發(fā)的損害的責任,并可能把“電子人格”適用于那些機器人自主決定或其他獨立與第三方交互的案件;再如,針對同年7月8日我國國務院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》,提出“建立(人工智能應用)追溯和問責制度,明確人工智能法律主體以及相關權利、義務和責任等”,民法學者就提出應賦予人工智能系統(tǒng)“電子人”法律主體地位,或者確認其有限的法律人格,似乎認為未來賦予(超)強人工智能系統(tǒng)民事法律主體地位已是大勢所趨 〔1 〕。憲法學、行政法學和法理學界也討論了智能機器人的法律主體地位和法哲學問題,甚至認為“人工智能的諸多法理問題中,最為關鍵的是它的法律主體資格問題” 〔6 〕,有的法理學者較為絕對地強調“應當賦予人工智能獨立的法律主體地位并使其成為獨立的責任主體” 〔1 〕。如此眾多法學論題的提出業(yè)已表明,(超)強人工智能犯罪的可歸責主體問題很可能就是一個真問題,并且是一個具有重要學術價值、必須予以厘清的重大基礎理論問題,以致有學者認為“人工智能的主體難題是其刑法命題的根本所在” 〔3 〕??梢?,盡管表面上看偽問題論同否定論一樣,二者在基本立場上都是否定(超)強人工智能“犯罪主體論”和“可歸責主體論”,但是二者在論說路徑上存在差異,否定論是在否定偽問題論(即承認“真問題”論)基礎上進一步反對肯定論的理論言說,因此應當承認,在肯定論、否定論的立場之外還有偽問題論。當然還應當承認,針對真問題論的否定論,不能只是就事論事地簡單作答,還必須進一步深化問題意識,深入研討智能機器人犯罪內在機理和相關法理,科學合理地解決相關法律實踐問題。
本文主張否定論,認為人工智能犯罪包括弱人工智能犯罪、強人工智能犯罪乃至超強人工智能犯罪在內,在生成機理和內在邏輯上只能是人工智能“算法安全犯罪”(即“算法安全犯罪觀”),其犯罪主體和可歸責主體只能是作為算法社會關系主體的“自然人-法人”二元主體(即“自然人-法人二元主體論”或者簡稱“二元主體論”),在此基礎上秉持科學合理的刑法觀和方法論,才可能妥當解決人工智能犯罪的歸責原理。
二、犯罪機理:人工智能犯罪中人工智能算法安全的相對自主性與絕對客體性
人工智能犯罪概念,理論上有較為寬泛的多樣化的界定。有學者認為,人工智能犯罪(AI-Crime)指與人工智能系統(tǒng)研發(fā)、提供、應用和管理相關的犯罪;人工智能犯罪與網絡犯罪具有相似性和緊密聯(lián)系,其特點主要有智能性、直接作用于網絡社會和物態(tài)社會“兩個社會”的雙重性;根據(jù)人工智能犯罪主要侵犯的法益及其行為特征,可以將其分為侵犯人工智能系統(tǒng)安全的犯罪、利用人工智能實施的傳統(tǒng)犯罪、利用人工智能侵犯個人信息的犯罪和獨立的外圍人工智能犯罪、違反人工智能安全管理義務的犯罪 〔1 〕。有的學者沒有概念化地界定智能機器人犯罪,而是具體描述了智能機器人犯罪的類型。如王肅之指出:“人工智能犯罪可能涉及以下2種類型:第1種類型為人工智能本就應用于社會之中,由于人工智能出現(xiàn)問題或者其他原因產生危害社會的后果……第2種類型為人工智能被直接用于犯罪?!?〔3 〕再如劉憲權指出,智能機器人實施嚴重危害社會的行為可分為兩種,即在程序設計和編制范圍內實施的行為和在程序設計和編制范圍外實施的行為 〔2 〕??梢姡瑢θ斯ぶ悄芊缸锏母拍罱缍?,有犯罪學與規(guī)范刑法學的不同視角及回答。從規(guī)范刑法學視角看,目前理論界對于智能機器人犯罪的生成機理與內在邏輯的揭示尚存不足,部分研究成果從犯罪學視角討論智能機器人犯罪的現(xiàn)象、規(guī)律與未來發(fā)展,并沒有為規(guī)范刑法學合理有效地規(guī)制智能機器人犯罪提供足夠的理論智識資源,急迫需要確立服從并服務于規(guī)范刑法學和刑事法治論的研究目標,轉換研究視角,深刻揭示智能機器人犯罪的根本特質。
應當說,目前理論界給出的人工智能犯罪概念,共性地存在的突出缺陷在于:或者未能精準地揭示出人工智能犯罪的根本特質是基于人工智能算法所實施的犯罪,或者沒能更進一步看清人工智能算法的相對自主性與絕對客體性。這在一定意義上是一個犯罪觀問題。犯罪觀是關于犯罪本質、價值、功能及其發(fā)展規(guī)律等犯罪基本問題的根本看法和基本立場,可以說是人生觀和世界觀在犯罪問題上的反映。馬克思主義經典作家認為,犯罪只能是人的行為而不能是人的思想⑤,是“孤立的個人反對統(tǒng)治關系的斗爭” 〔7 〕379,是“蔑視社會秩序的最明顯、最極端的表現(xiàn)” 〔7 〕416。那么,基于馬克思主義犯罪觀應當認為,人工智能犯罪仍然是人的行為,是人基于人工智能算法所實施的危害社會的行為,“人”是犯罪主體,而人工智能(機器人)并不能成為犯罪主體。這一結論不僅符合馬克思主義犯罪觀,而且也是精準揭示和闡釋人工智能犯罪內在機理的結果。
人工智能算法自主性是智能機器人的本質屬性和關鍵功能,算法自主性越強大,則智能性越強大,以此為標準對智能機器人進行分類,智能機器人方有弱智能機器人與(超)強智能機器人之分。對此,有論者夸大強調人工智能算法的法律意義問題,認為“人工智能應用會創(chuàng)造出新的客體和新的社會活動,如人工智能創(chuàng)造物的權利主體和權利歸屬問題,以及人工智能法律系統(tǒng)運作的法律價值和合法性問題。以上新客體、新社會活動都由人工智能算法的運用產生,算法實際起著創(chuàng)造者的‘智能或者社會活動的規(guī)則作用,有必要開啟人工智能的‘黑箱子——人工智能算法,分析人工智能應用的‘大腦和‘控制手,研究人工智能算法的邏輯過程是否符合法律和倫理” 〔1 〕。還有學者指出,關于人工智能的算法自主性,倫理學意義上的擔憂在于:一是大數(shù)據(jù)和高級算法可能會使所有人喪失未來的自由選擇權,“更為恐怖的是,當基于算法的信用數(shù)據(jù)集可以預測某人未來犯罪的可能性時,公安部門可能會以‘預防犯罪為名提前干預他的自由權利”;二是大數(shù)據(jù)和高級算法可能會帶來數(shù)據(jù)歧視問題,“當司法大數(shù)據(jù)推測黑人的犯罪率較高或阿拉伯人成為恐怖分子的可能性較高,那么監(jiān)管部門可能會對他們重點監(jiān)管,甚至提前預防犯罪,而有些公司也可能會據(jù)此拒絕雇傭他們,這就是典型的種族歧視和職業(yè)歧視” 〔8 〕。這些論述較為深刻地揭示出人工智能算法的重要性和法律相關性,值得重視,更值得反思。人工智能算法到底是應該絕對地歸屬于人工智能本身,還是應歸屬于作為人工智能算法的設計者、創(chuàng)造者、使用者與管理者的“人”?對此設問,我們認為正確的答案應當是:“人”才是人工智能算法的真正主人,人工智能算法自主性僅具有相對性并且在根本上是由“人”創(chuàng)設和控制的,因而人工智能算法相對于“人”而言具有相對自主性與絕對客體性。
例如,有學者提出人工智能武器的概念,指出,能夠在沒有人類參與的情況下選擇和攻擊目標的武器或者武器系統(tǒng)都可以稱為人工智能武器?!皬膰H人道法的角度來看,人工智能武器主要帶來了兩個方面的挑戰(zhàn):一是武器系統(tǒng)選擇和攻擊目標能否尊重國際人道法規(guī)則?二是如果武器系統(tǒng)的使用明顯違反國際人道法,能否歸責于個人或國家,并追究他們的責任?” 〔9 〕依筆者的解讀,關于人工智能武器的法律問題至少包括以下兩方面:其一,人工智能武器可以歸屬于人工智能嗎?答案應當是可以肯定的,人工智能在其被用于軍事目的時,它是人工智能“軍人”,又可以稱為人工智能“武器”,其本質在于具有能夠在沒有人類參與情況下的人工智能算法自主性。以此類推,人工智能機器人還可以包括人工智能“工人”“農民”“醫(yī)生”“駕駛員”“科學家”“清潔工”等等,阿爾法狗和索菲亞當然也都是人工智能機器人。因此,人工智能機器人之“人”僅僅是一種“擬人化修辭意義上的人”,它可以是“人”、動物乃至其他萬物(如武器)的人工智能機器。其二,人工智能武器基于算法自主性所實施的軍事攻擊行為及其后果,是歸屬于人工智能本身還是歸屬于“人”(包括作為法人的單位乃至國家)?答案應是只能歸屬于“人”。人工智能算法自主性是由“人”預設和主宰的結果,因而只具有相對的算法自主性與絕對的客體性,基于人工智能算法自主性所實施的全部行為后果——無論是有利于社會還是有害于社會,均應由作為其主宰者的“人”享有和承擔。如果人工智能武器基于算法自主性而攻擊錯誤或者違反國際法,對此承擔后果的社會關系主體只能是“人”,而不可能是人工智能武器。
綜上,算法犯罪觀認為:相對于人的主體性而言,人工智能算法突出地具有客體性(算法的客體性),因而以人工智能算法自主性為內核的人工智能當然具有客體性,算法犯罪仍然以人的主體性為根本特征。如果說“算法”是智能機器人的內核,那么“算法”本身的弱智能性與強智能性乃至超強智能性,其決定因素在根本上仍然是“人”的弱智能到超強智能,而不是人工智能本身的弱智能到超強智能。“人”的智能強弱在根本上具有決定性,意味著這樣一種邏輯:“人”的智能設計越弱,則算法的智能自主性越弱;人的智能設計越強大,則算法的智能自主性越強大,超強人工智能在本質上仍然是“人”的智能設計達到了超強智能性。因此可以說,人工智能發(fā)展僅具有單向維度,即:只能是由今天的弱智能自主性“算法”走向將來的強大乃至超強大智能自主性“算法”(可謂“將來算法”)。以超級計算機的誕生為例,它實際上就是從普通計算機(弱智能自主性)走向超級計算機(超強智能自主性),其內核就是算法智能自主性及其發(fā)展方向?!八惴ㄖ悄茏灾餍浴钡男谭ㄟ壿嬍冀K是:人對“算法智能自主性”犯罪承擔刑法責任,人對“算法智能自主性”的定罪邏輯始終是“人力可控時可定罪,人力不可控時不定罪”,人工智能犯罪在當下尚處于弱人工智能“算法”階段的定罪邏輯如此,在今后發(fā)展成為(超)強人工智能“算法”階段的定罪邏輯仍然如此,根本無法例外地對(超)強人工智能機器人本身定罪。
需要指出的是,人工智能犯罪在網絡時代可能表現(xiàn)出更加巨大的破壞能量,因為人工智能算法自主性可以通過網絡工具和數(shù)據(jù)應用獲得更大發(fā)揮空間,值得特別警惕。
三、責任論:人工智能犯罪僅能歸責于作為保證人的“自然人-法人”
傳統(tǒng)刑法理論上“保證人”理論(即“保證人說”)具體包括“保證人地位”與“保證人義務”兩個概念,本來是用于闡釋不作為犯之作為義務的理論。德國學者那格拉在1938年首次提出了保證人說,認為只有負有防止結果發(fā)生的法律上的作為義務的人,即處于保證人地位的人的不作為才符合構成要件;后來又發(fā)展成“統(tǒng)一說”(或者“統(tǒng)和說”)與“區(qū)別說”兩種不同見解,但是“兩說在實際使用上并不會出現(xiàn)太大的差異” 〔10 〕196-197。而人工智能犯罪并不限于不作為犯,還包括作為犯。人工智能犯罪在不作為犯的情形下,當然可以運用保證人說來進行理論闡釋。那么,人工智能犯罪在作為犯的情形下,是否可以借助保證人說來進行理論闡釋呢?本文認為,對于人工智能犯罪的作為犯,仍然可以借助保證人說的“保證人地位”與“保證人義務”理論,賦予作為人工智能設計者、制造者、使用者和管理者的“自然人-法人”的安全保證責任,即作為保證人的“自然人-法人”必須對人工智能及其內含的算法的安全性負責,將人工智能基于算法安全性所為的行為及其結果歸屬于作為保證人的“自然人-法人”。亦即,人工智能在設計和編制的程序范圍內外所為人工智能犯罪的責任歸于作為保證人的“自然人-法人”,這種保證人論歸責論不能局限于不作為犯構成要件符合性與違法性論的理論界說,而必須作出符合傳統(tǒng)刑法教義學歸責論的理論改造。以“自然人-法人”的責任歸屬為核心的刑法教義學原理,無法將(超)強人工智能犯罪的責任歸屬于(超)強人工智能機器人,因為這樣將遮蔽作為設計者、生產者、銷售者、運營管理者的“自然人-法人”的責任歸屬這一本質。有學者指出,應當借鑒刑事近代學派所主張的社會防衛(wèi)論,創(chuàng)立以人工智能等科技風險為對象的“科技社會防衛(wèi)論”與“技術責任論”,將人工智能作為獨立的刑事責任主體,對具有實施危害社會行為的人工智能施以技術危險消除措施 〔11 〕。這種見解將“技術責任論”直接置換為“將技術作為責任主體論”,直接遮蔽了作為保證人的“自然人-法人”的責任歸屬這一本質,應當說有所欠當。
責任論的多重考察可以發(fā)現(xiàn),在從道義責任論到社會責任論再到法的規(guī)范責任論的發(fā)展演變中,即便是作為最新見解的法的規(guī)范責任論也始終無法徹底擺脫道義責任論,即必須具有自我決定的自由以及具有實施其他行為的可能性時才產生責任的非難的宿命;從結果責任論到心理責任論到規(guī)范責任論再到功能責任論的發(fā)展歷程中,不但規(guī)范責任論仍然是以心理責任論為前提建立起來的理論,而且功能責任論也仍然是以行為人對法規(guī)范的“忠誠”和“意思自由”為前提的⑥??梢哉f,意思自由性、倫理譴責性、規(guī)范責難性等要素仍然是現(xiàn)代各種責任論的實質內涵,而這些實質內涵只能是作為保證人的“自然人-法人”才可能具備,并不能將人工智能算法的相對自主性與絕對客體性直接等同于意思自由性、倫理譴責性和規(guī)范責難性。
倫理譴責性和規(guī)范責難性是現(xiàn)代刑法責任論的重要內容。倫理譴責性是犯罪的內在倫理評價屬性。規(guī)范刑法學方面有論者主張否定犯罪的倫理譴責性,客觀上存在嚴重誤解。針對賣淫、通奸、吸毒以及其他“無被害人犯罪”行為,現(xiàn)代刑法基于刑事政策考量而部分地甚至較多地出現(xiàn)非犯罪化,其并非完全否定犯罪的倫理譴責性,而是強調不得單純基于倫理譴責性進行犯罪化,還需要進行社會危害性的綜合考量來決定具體行為的犯罪化與非犯罪化。針對行政犯(或者法定犯),現(xiàn)代刑法也難以完全否定犯罪的倫理譴責性,任何行政犯——例如危險駕駛罪、非法經營罪、破壞計算機信息系統(tǒng)罪等,都難說完全否定了其倫理譴責性,而是強調了不得單純基于倫理譴責性的犯罪化。只有“自然人-法人”才能感受倫理譴責性并遵行此種感受決定行為取舍,而人工智能僅具有“算法”邏輯并決定其行為邏輯,但是不具有感受倫理譴責性的能力并決定行為邏輯,人工智能“算法”自主性及其行為邏輯只有在融入了作為保證人的“自然人-法人”的保證意思之后才具有倫理譴責性,因而只能針對同人工智能“算法”自主性相關聯(lián)的保證人(即“自然人-法人”)進行倫理譴責性評價和犯罪評價,人工智能犯罪只能歸責于作為保證人的“自然人-法人”。規(guī)范責難性是犯罪的外在規(guī)范評價屬性。規(guī)范刑法學的教義化、科學化和現(xiàn)代化的重要發(fā)展,根本標志就是規(guī)范責任論的確立,強調刑法的明確規(guī)定性、規(guī)范性和可操作性,由于此內容并非本文論題的重點,這里不作具體展開論述。
(超)強人工智能機器人沒有脫離于“自然人-法人”之外的獨立存在空間,(超)強人工智能機器人一旦脫離作為保證人的“自然人-法人”之外就無法組成社會組織,其智慧算法和行為永遠無法歸屬于其自身而只能歸屬于“自然人-法人”,即使其具有意識復制和學習進步的特異功能,其仍然無法脫離作為保證人的“自然人-法人”的意識——保證人所預設的算法自主性的意識而獨立存在,其仍然無法成為具有“人心人性”的責任主體。只有將強智能機器人犯罪歸責于作為保證人的“自然人-法人”,才能真正實現(xiàn)有效歸責(即倫理譴責和規(guī)范責難)。
民法學者對于人工智能基于算法所引致的法律上的權利和責任之討論,也有值得刑法責任論借鑒之處。如基于人工智能所引致的著作權的法律主體與權利歸屬問題,有學者提出了“法律作者”概念,指出,“小冰”人工智能機器人的出現(xiàn),挑戰(zhàn)了傳統(tǒng)著作權法的底線。面對高速發(fā)展的人工智能技術,現(xiàn)在社會人工詩集大量出現(xiàn),更多的人工作品涌現(xiàn),我們積極采用“法律擬制”技術,參照發(fā)達國家“視為作者”原則,在認定人工智能詩集的作者和著作權歸屬上,大膽認定人工智能詩集是著作權法的“作品”,人工智能的管理者是作品的“法律作者”,把機器人、設計者、管理者作為人工智能詩集的“事實作者”對待,最終法律保護人工智能詩集的“法律作者”,由“法律作者”享有人工智能詩集的著作權,而不是由機器人享有人工智能詩集的著作權 〔12 〕。人工智能詩集作為人工智能機器人的具體行為所產生的結果,其權利與責任歸屬于作為保證人的管理者(即“自然人-法人”),而不能歸屬于人工智能機器人,這一原理值得刑法上犯罪的歸責論借鑒。當然在刑法上,除了管理者之外,人工智能的設計者、制造者的歸責問題還需要進一步厘清。例如,當人工智能詩集的內容存在嚴重違背國家法律規(guī)定并被公之于眾產生嚴重社會危害后果時,如果構成犯罪,那么應該如何確定其歸責主體及其刑事責任?對此,應當首先確定作為人工智能的保證人的“自然人-法人”,包括設計者、制造者、使用者、管理者,然后再依據(jù)刑法上歸責原理具體確定保證人的刑事責任,而不應當通過對人工智能機器人歸責的方式來規(guī)避保證人的刑事責任。
劉憲權提出,在設計和編制的程序范圍外人工智能犯罪的歸責主體問題,認為:“當智能機器人在程序設計和編制范圍外實施嚴重危害社會的行為時,智能機器人具有辨認能力和控制能力,因而具有刑事責任能力,應當獨立承擔刑事責任?!?〔2 〕這種見解的邏輯問題值得分析。其一,這個問題仍然應當在人工智能算法自主性的相對性與絕對客體性之內來認識;其二,在設計和編制的程序范圍外人工智能犯罪的歸責事由,還可以根據(jù)原因自由行為論,將作為保證人的“自然人-法人”基于自由意思所為“在設計和編制的程序范圍外實施行為的智能機器人”這一行為闡釋為原因自由行為的歸責原理來闡釋,作為保證人的“自然人-法人”所實施的人工智能算法的設計、制造、使用和管理行為仍然可以作為原因自由行為進行歸責,而不是對人工智能算法本身歸責。
因此,針對學者提出的人工智能編制程序外的算法犯罪,盡管這種人工智能犯罪類型可能涉及十分復雜的技術難題,但是仍然應當承認其沒有超越保證人責任,只要其應當屬于算法安全風險可控性之內,就應當承認其成立保證人責任,并實行舉證責任倒置原則(程序法原則)。如果其不屬于算法安全風險可控性之內,則應當承認其為意外事件而不追究保證人責任,并且這種意外事件也難以“客觀歸責”于人工智能算法本身。
四、刑罰觀:人工智能犯罪僅能通過“自然人-法人”完成報應和預防功能
刑罰論的基礎和核心是刑罰正義根據(jù)論,簡稱刑罰根據(jù)論、刑罰論。刑罰根據(jù)論在概念邏輯上存在報應論(報應刑論)、功利論(預防刑論與目的刑論)、并合論(一體論)之分⑦,并且應當注意的是,在人類刑法實踐歷史上應當說并不存在單純的報應論或者單純的功利論,自古至今世界各國普遍遵行相當意義上的并合論,“拋棄片面的報應論與功利論而追求系統(tǒng)的一體論,應該是關于刑罰根據(jù)論的一種必然而合理的選擇”⑧。刑罰的正當化根據(jù)是報應的正當性與預防犯罪目的(功利主義)的合理性,基于報應所裁量的刑罰是責任刑,基于預防犯罪目的(功利主義)所裁量的刑罰是預防刑⑨。應當說,刑罰根據(jù)論的并合論命題一經發(fā)現(xiàn)和明確提出即獲得了廣泛共識,并且表面上至今沒有人提出更具創(chuàng)新性的理論洞見 〔13 〕357。以此刑罰觀及其內在法理審查(超)強人工智能犯罪的受罰主體,如果將(超)強人工智能機器人本身作為可歸責主體并對其進行刑罰處罰,就無法獲得合理性和可行性。
目前部分學者針對(超)強人工智能犯罪所提出的“刪除數(shù)據(jù)、修改程序、永久銷毀” 等刑罰種類 〔2 〕,應當說難以匹配刑罰本質并實現(xiàn)刑罰功能。因為這些特別“刑罰種類”只有作為保證人的“自然人-法人”才能感受到并起到以儆效尤的刑罰懲罰(報應)與預防功能,而(超)強人工智能機器人并不可能關心“懲罰與預防”而只在乎“算法”并且將始終不改地按照其既定“算法”行事(行動),“算法”被修改而改變行為的原因不是因為懲罰影響“人心人性”所致,而是因為“算法”所為,由此無法實現(xiàn)刑罰的一般預防和特殊預防功能。單罰制與雙罰制均無法適用于智能機器人。
因此,刑法無法規(guī)制作為被“自然人-法人”塑造的智能機器人??梢宰專ǔ娙斯ぶ悄軝C器人(有智無心)超越人,但是(超)強人工智能機器人不可以成為社會關系人。(超)強人工智能機器人可以在智力領域超越人,正因為如此,它不能成為真實存在的社會關系人。當(超)強人工智能機器人可以由“人”隨意塑造時,應受處罰的只能是作為塑造者的“人”,而不能是作為被塑造者的(超)強人工智能機器人;當(超)強人工智能機器人已經發(fā)展到唯我獨尊,而不再可以由“人”隨意塑造時,人類的刑罰就在根本上喪失了要求其應受處罰的合理性。
五、刑法常識觀:人工智能犯罪中“人心人性”的人類社會學意義
作為刑法學方法論的“三常論”,要求研究者必須針對研究對象、研究方法、研究結論等進行“三常論”判斷(即進行常識、常情、常理的判斷)⑩,排除有違“三常論”判斷的學術見解?!叭U摗迸袛嗫赡芫哂袝r空性,當下的三常論判斷,必須立足于“當下”的常識、常情、常理進行學術判斷;將來的三常論判斷,則必須立足于“將來”的常識、常情、常理進行學術判斷,也就是說既要反對以當下的三常論判斷代替將來的三常論判斷,也要反對以將來的三常論判斷代替當下的三常論判斷。當下,不少人認為“將來已來”,那么,在“將來已來”的語境下,當下刑法學應當如何預判“將來”的三常論內核?通過“將來”的三常論判斷,刑法學還應當摒棄(超)強人工智能機器人“犯罪主體論”嗎?這是本文希望回答和論證的兩個關聯(lián)性問題。
(超)強智能機器人可否成為社會關系的主體(身份)?當下的和將來的“三常論”判斷需要考察以下要素:
(一)心智齊備是人成為社會關系主體的核心要素?!叭!北緛砭褪菍θ说男闹堑母叨雀爬?,即對人心人性和人的智慧的高度概括,人是具有“三?!碧刭|的靈長類動物。人類社會是由人(自然人)自我發(fā)展、自我構建、自主建設而成的,而人之所以能夠自我發(fā)展、自我構建、自主建設成立人類社會,是因為人是有心智的“萬物之靈”,從而人可以成為社會關系主體。心智齊備是人成為社會關系主體的核心要素,這是當下的“三常論”判斷。心智齊備強調的內容,不僅是有“智”(智慧),而且是有“心”(人心人性),有心有智(或者有智有心)是人的特質,是社會關系主體的特質。人具有實質的“三?!碧刭|,法人(含國家)具有擬制的實質的“三?!碧刭|,因此可以說自然人和法人具有實質的“三?!碧刭|。為什么說法人具有擬制的實質的“三?!碧刭|?簡單說,是因為法人是具有自然人心智的組合體,“資合”僅是法人的表象,“人合”才是法人的實質,所以有人感嘆應當像選擇結婚對象一樣選擇股東和合伙人;法人決策時即使在出現(xiàn)“人不合”和公司僵局的情形下,其決策仍然能夠適時體現(xiàn)出實質的“三?!碧刭|。
那么,(超)強智能機器人是否具有心智,進而成為社會關系主體?依“三常論”判斷,(超)強智能機器人難以符合“心智齊備”的特質,其可能具有“智”甚至是超強智慧,但是其難以獲得“心”(即人心人性),因而(超)強智能機器人僅僅是“有智無心”之物,并不具備社會關系主體特質,難以成為社會關系主體(身份)。
可以說,心智是當下“三常論”對社會關系主體特質判斷的核心要素,將來“三常論”判斷也是如此,心智是社會關系主體所必須具備的基本特征。
(二)(超)強智能機器人不具備人“心”,僅具有財產性和工具性,缺乏善惡道德價值觀、社會行為規(guī)范的根本作用點。人“心”是善惡道德價值觀、社會行為規(guī)范的根本作用點?!坝行摹保ㄓ腥诵挠腥诵裕┮馕吨猩茞旱赖聝r值觀、社會倫理價值觀、有社會行為規(guī)范可能性,有智無心(無人心無人性)不能成為社會關系主體。這是“三常論”判斷的理論基礎。有學者指出:人之所以為人,本質上是智性、心性、靈性三者合成,心性是感情、情緒、感覺的發(fā)源地,不同于智性;機器人雖可仿及人的智性,但不能仿及人類心性(尚未聞人工智能有感情,未聞有機器人為情所累),人工智能不可能達到人類一般的“主體性” 〔6 〕。由于智能機器人“有智無心”的特點,因此(超)強智能機器人也可以稱謂為“強智能機器狗”“阿爾法狗”。難道,索菲亞能夠超越“強智能機器狗”“阿爾法狗”而成為真正的人?
財產性與工具性是(超)強智能機器人和法人的共性,但是法人因為具有擬制的“人心人性”而可以獲得擬制的主體性,而機器人因不具有“人心人性”而無法獲得任何擬制的主體性。即機器人與法人的相互關系是單向性的,即法人可以像人一樣擁有其他法人和機器人,而機器人不能擁有法人和(其他)機器人。機器人的特質僅僅是“技術”而不是人的心智(有智無心),法人可以融入人的某種心智(有智有心),從而法人可以成為社會關系主體。
有智有心者方為同類,“人心人性”是人類的基本要素,動物因為具備初步的或者較強的“人心人性”而成為人類伙伴,有利用有珍惜,某些“通人性”的動物還獲得了較大尊榮(如某些動物被賦予“人”一樣的待遇);但是索菲亞和阿爾法狗卻無法獲得“人心人性”而只能成為更加純粹的財產性,難以獲得人的同類身份和待遇。
(三)機器人無法融入“三?!钡男谭ǜ兄芰?。 “三?!笔切谭ǜ兄芰Φ幕疽兀ㄈ丝梢匀谌搿叭!?,法人具有感知刑罰的能力并且使得刑罰功能可以發(fā)揮報應和預防功能,因而法人可以成為犯罪主體和受罰主體。而機器人無法融入“三?!保ㄓ兄菬o心),機器人無法感知刑罰并發(fā)揮報應和預防功能;當前智能機器人不能成為犯罪主體,這是“三常論”判斷,至于將來,可能有待于“將來的三常論判斷”,但是當前的乃至將來的三常論判斷是其未來仍然不可能成為犯罪主體。
綜上可以說,以索菲亞(美女)和阿爾法(狗)的共性分析為例,可以預知將來(超)強人工智能機器人身份的三常論判斷結論是:其只能成為“人心人性”的客體,而不可能成為“人心人性”的主體。
六、刑法進化觀:人工智能犯罪中“自然人-法人”二元主體模式的堅守與完善
刑法進化觀強調刑法有一個進化發(fā)展的過程,而不能死守過去。例如,法人犯罪的立法化和司法實踐,盡管其在理論上尚存爭議,但是在相當意義上仍然可以說其是刑法進化觀的一個例證。如前所述,法人(含國家)具有擬制的、實質的“三?!碧刭|而可以成為可歸責主體,有學者就以法人犯罪中“法人”犯罪主體論和可歸責主體論為例,來論證人工智能犯罪中(超)強人工智能機器人犯罪主體論和可歸責主體論的合理性。那么,這種論證邏輯及其結論的合理性值得反思。
法人擬制犯罪的刑事政策原理不能適用于人工智能犯罪,在形式上和實質上(超)強人工智能犯罪均毫無例外地屬于“自然人-法人”犯罪的范疇。僅在(超)強智能機器人(個體與群體)作為“法人”資格時其可以成為法人擬制犯罪,但是這時其是因為作為“法人”而成為犯罪主體,而不是因為“(超)強智能機器人”而成為犯罪主體?!白匀蝗?法人”的行為社會意義可以獨立地成為自身的法律行為,但是(超)強智能機器人的行為社會意義無法獨立地成為“其自身”的法律行為,而只能成為作為居于保證人地位的“自然人-法人”的法律行為。(超)強智能機器人永遠只能成為社會意義上的“無產階級”,但是“自然人-法人”從一開始就是社會意義上的“有產階級”(指自身的權利義務),這是(超)強智能機器人不同于“自然人-法人”的根本特質。二元主體模式無法走向三元主體模式。
(超)強人工智能機器人犯罪可能包括殺人、侵財、危害國家安全與公共安全、破壞經濟秩序與社會秩序等,但是其自身難以獲得社會政治意義,這一點不同于“自然人-法人”犯罪,因為“自然人-法人”犯罪可以獲得社會政治意義。上帝不會成為刑罰對象,但法人可以,故“上帝-人”二元主體模式不可隱喻;但基于犯罪主體擬制論之下的心智可控論、獨立權利義務主體資格論和刑法治理策略論,可構建“自然人-法人”二元主體模式,但是無法構建“自然人-法人-人工智能機器人”三元主體模式。為解決法人和人工智能機器人難題,刑法上可以處罰法人,但是刑法策略上無法處罰機器人,因為針對(超)強人工智能機器人的刪、改、毀,僅可以成為針對作為(超)強人工智能機器人之保證人的“自然人-法人”的財產而施加的相應的行政法措施(具體行政行為)、民法措施(民事法律行為)乃至保安處分措施。因此,關鍵法理在于(超)強人工智能機器人無法獲得與“自然人-法人”一樣的“人心人性”,從而無法獲得權利義務主體資格,今天無法獲得,將來也無法獲得,其根本法理正在于(超)強人工智能機器人永遠無法獲得“人心人性”。
刑法進化觀盡管不能證成(超)強人工智能機器人的可歸責主體論,但是也不能以此放棄針對(超)強人工智能機器人犯罪提出的新問題進行刑法完善的思考。人工智能機器人犯罪在本質上可以抽象為“算法安全犯罪”,即人工智能機器人毫無例外地被限定為通過算法或者針對算法所實施的危害公共安全犯罪以及妨害作為算法安全管理的社會管理秩序犯罪,這些犯罪明顯地具有不同于網絡數(shù)據(jù)犯罪以及其他通過非智能算法和數(shù)據(jù)所實施的傳統(tǒng)犯罪的突出特點。據(jù)此,人工智能算法犯罪可以類型化為三種犯罪:
一是設計、制造、銷售、使用不符合算法安全標準的人工智能產品罪,其侵害的法益是作為公共安全的人工智能算法安全,可以比照《刑法》第146條的立法規(guī)定設置罪狀和法定刑。提出這一立法建議方案的理由在于:盡管《刑法》第146條規(guī)定的生產、銷售不符合安全標準的產品罪作為一般法條規(guī)定,在邏輯上可以囊括所有生產、銷售不符合安全標準的產品——其中可以包括不符合算法安全標準的人工智能產品——的犯罪行為,表面上可以將生產、銷售不符合安全標準的人工智能產品行為予以定罪處罰,但是,《刑法》第146條并沒有準確反映出人工智能產品所涉“算法安全犯罪”的特殊性,即這種算法安全犯罪在本質上是一種危害公共安全犯罪而非一般意義上的生產、銷售偽劣商品犯罪,因而應當將其單獨設罪并規(guī)定在危害公共安全罪一章之中;同時,《刑法》第146條也沒有全面規(guī)定“設計、制造、銷售、使用”等行為多樣性,較為明顯地忽略了“設計”“使用”不符合算法安全標準的人工智能產品行為的特殊危害性,因而也有必要增加規(guī)定該新罪名。
二是非法制造、持有、買賣、運輸、使用人工智能武器罪,其侵害的法益是作為重大公共安全的人工智能算法安全,可以比照《刑法》第125條的立法規(guī)定設置罪狀和法定刑。之所以提出比照《刑法》第125條規(guī)定這個新罪名,重要原因是人工智能武器所涉國際關系和國內政治上的重大公共安全性,極容易造成人道主義重大災難,而在刑法規(guī)范意義上難以將人工智能武器周全涵攝于“槍支、彈藥、爆炸物”或者“危險物質”之中,因而增加規(guī)定該新罪名具有重大政治意義和法治價值。
三是擅自改變人工智能產品算法與用途罪,其侵害的法益是作為算法安全管理的社會管理秩序,可以比照《刑法》第286條的立法規(guī)定設置罪狀和法定刑。之所以提出增加規(guī)定這個新罪名,是基于人工智能產品算法與用途一旦被擅自改變,就可能造成人工智能產品的管理失序并引發(fā)新的危害算法安全犯罪和危害管理秩序犯罪;同時,算法安全管理不同于數(shù)據(jù)安全管理,如果說《刑法》第286條是針對數(shù)據(jù)安全管理的犯罪,那么,本新罪名就是針對算法安全管理的犯罪,因此,有必要在《刑法》第286條規(guī)定的破壞計算機信息系統(tǒng)罪之外再特別規(guī)定擅自改變人工智能產品算法與用途罪。
有關人工智能算法安全犯罪方面的立法完善論有待另文展開深入討論,這里不再贅述。
注 釋:
①本文在使用“人工智能”這一語詞時可能具有多重含義,其可以作為名詞使用,含義等同于“人工智能機器人”;也可以作為修飾語使用,含義等同于“人工智能的”或者“人工智能機器人的”。
②人工智能根據(jù)智能水平的高低可以分為弱人工智能(Weak Artificial Intelligence)、強人工智能(Strong Artificial Intelligence)和超強人工智能(Super Artificial Intelligence)。參見高銘暄、王紅:《互聯(lián)網+人工智能全新時代的刑事風險與犯罪類型化分析》,載《暨南學報》(哲學社會科學版)2018年第9期。
③人工智能還可以分為專用人工智能、通用人工智能、超級人工智能三類。參見趙秉志、詹奇瑋:《現(xiàn)實挑戰(zhàn)與未來展望:關于人工智能的刑法學思考》,載《暨南學報(哲學社會科學版)》2019年第1期。
④由于我國《刑法》規(guī)定了單位犯罪,因而這里的“法人”是指可以構成單位犯罪的“法人”單位。
⑤這里馬克思指出的原文是:“凡是不以行為本身而以當事人的思想方式作為主要標準的法律,無非是對非法行為的公開認可。”參見《馬克思恩格斯全集》(第1卷),人民出版社1957年版,第16頁。
⑥參見陳家林:《外國刑法理論的思潮與流變》,中國人民公安大學出版社、群眾出版社2017年版,第371-377頁。
⑦參見張明楷:《新刑法與并合主義》,載《中國社會科學》2000年第1期;邱興?。骸蛾P于懲罰的哲學:刑罰根據(jù)論》,法律出版社2000年版,第331-333頁。
⑧邱興隆教授認為,“報應論與功利論在人類歷史上曾各領風騷,各顯輝煌,但終歸為一體論所取代”。參見邱興?。骸蛾P于懲罰的哲學:刑罰根據(jù)論》,法律出版社2000年版,第332頁。
⑨參見張明楷:《論預防刑的裁量》,載《現(xiàn)代法學》2015年第1期。
⑩參見陳忠林:《刑法散得集(Ⅱ)》,重慶大學出版社2012年版,第17-27頁。
參考文獻:
〔1〕皮 勇.人工智能刑事法治的基本問題〔J〕.比較法研究,2018(05):149-166.
〔2〕劉憲權.人工智能時代刑事責任與刑罰體系的重構〔J〕.政治與法律,2018(03):89-99.
〔3〕王肅之.人工智能犯罪的理論與立法問題初探〔J〕.大連理工大學學報(社會科學版),2018(04):53-63.
〔4〕趙秉志,詹奇瑋.現(xiàn)實挑戰(zhàn)與未來展望:關于人工智能的刑法學思考〔J〕.暨南學報(哲學社會科學版),2019(01):98-110.
〔5〕劉艷紅.人工智能法學研究中的反智化批判〔J〕.東方法學,2019(09):1-83.
〔6〕范忠信.人工智能法理困惑的保守主義思考〔J〕.探索與爭鳴,2018(09):76-83.
〔7〕馬克思恩格斯全集:第3卷〔M〕.北京:人民出版社,1960.
〔8〕何 淵.智能社會的治理與風險法學的建構與證成〔J〕.東方法學,2019(01):68-83.
〔9〕張衛(wèi)華.人工智能武器對國際人道法的新挑戰(zhàn)〔J〕.政法論壇,2019(04):144-155.
〔10〕陳家林.外國刑法理論的思潮與流變〔M〕.北京:中國人民公安大學出版社,群眾出版社,2017.
〔11〕黃云波.論人工智能時代的刑事責任主體:誤區(qū)、立場與類型〔J〕.中國應用法學,2019(02):163-175.
〔12〕李偉民.人工智能詩集的版權歸屬研究〔J〕.電子知識產權,2019(01):22-27.
〔13〕魏 東.死刑修改的刑罰論分析〔C〕//郎勝,朱孝清,梁根林.全國刑法學術年會文集(2017年度):時代變遷與刑法現(xiàn)代化(上卷).北京:中國人民公安大學出版社,群眾出版社,2017.
責任編輯 楊在平