国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

論智能機器人的法律人格及其刑事責任規(guī)范

2020-12-04 08:32:45肖姍姍
關鍵詞:意志刑法人格

肖姍姍

(湖南師范大學 法學院, 湖南 長沙 410081)

一般認為,人工智能(Artificial Intelligence)可以分為弱人工智能和強人工智能,也可稱為“一般人工智能”與“完全人工智能”[1]。對于兩者的區(qū)分,有學者提出是以人工智能體是否具有認識能力與認知能力為標準[2]。人工智能的研究始于20世紀50年代初,經(jīng)過60余年的發(fā)展,人工智能已經(jīng)實現(xiàn)了從普通機器人時代到弱人工智能時代的邁進。亞馬遜公司的個人助手 Alexa、谷歌公司的 AlphaGo、蘋果公司的智能私人助理 Siri、特斯拉公司的自動駕駛汽車等人工智能體已經(jīng)開始被運用到社會實踐中。人工智能技術朝著強人工智能時代發(fā)展。

人工智能是社會發(fā)展的產(chǎn)物,在人工智能迅猛發(fā)展給我們的生活帶來便利的同時,其所帶來的不利后果也引起了人們的擔憂。如1981年日本一家摩托車工廠的一名37歲的工人被身邊工作的人工智能機器人所殺害。機器人錯誤地認為這一名工人為工作執(zhí)行中的威脅,并用其認為最有利的方式將這一工人推向附近正在運行的機器,導致該工人死亡[3]。我國2017年發(fā)生了利用人工智能實施詐騙、利用人工智能技術侵犯公民個人信息等事件[4]。習近平總書記在2018年10月主持中共中央政治局第九次集體學習時強調(diào),人工智能具有多綜合學科、高度復雜的特性[5]。人工智能帶來的風險具有一定的特殊性,給多個領域帶來了一定的挑戰(zhàn),法律領域也不除外。作為人工智能體產(chǎn)品的代表[6],智能機器人是否具有法律人格,是否能稱為刑事犯罪主體,是否具備刑事責任能力,如何突破傳統(tǒng)的刑罰體系對智能機器人予以刑事處罰,這一系列問題需要刑法給予回答。

一、智能機器人及其法律人格

我國學者對人工智能的定義基本形成了統(tǒng)一,認為人工智能是“人為創(chuàng)造的智慧,即在計算機或其他設備上模擬人類思維的軟件系統(tǒng)”[7]。然而,學界對于人工智能時代的機器人并未形成統(tǒng)一的界定。我們首先需要解決的是這一主體的概念問題,并進一步分析其是否具備法律人格。

1.機器人的定義

“機器人”可以追溯到斯拉夫語“robota”,意為“工作”。實際上,這一術語廣為流傳主要是因為其在科幻小說、科幻電影的運用。然而,由于統(tǒng)一概念的缺失,機器人與“人工智能體”(intelligence agents)、“自動化系統(tǒng)”(autonomous systems)和“半機器人”(cyborgs)等存在交叉重疊。隨著人工智能的發(fā)展,國家標準化組織(the International Organization for Standardization)對機器人給予了定義,認為機器人是“一個可在兩個或多個軸上編程的驅動機構,具有一定程度的自主性,在其所處環(huán)境中移動,以執(zhí)行預期的任務”[8]。但由于專業(yè)性過強,這一定義并未被學界采用。然而,從這一定義可以看出機器人與傳統(tǒng)機器和遠程控制的機器的區(qū)別在于:機器人并不需要不斷的外在輸入,而是在設定的程序范圍內(nèi)自由且自主地運行。機器人不再是一種傳統(tǒng)的機器,而是一種旨在提高人類行為可能性且具有自我技能的機器。人工智能時代的機器人旨在模仿人類解決問題的方法,即“人類智慧”。因此,人工智能時代的機器人等同于“人工智能體”,而非“半機器人”,是在擁有大量數(shù)據(jù)的智能系統(tǒng)中通過數(shù)據(jù)運行,在一定程度上實現(xiàn)了自動化。

就機器人而言,最為典型的幾種類型為工業(yè)型機器人(industrial robots)、服務型機器人(service robots)、社會型機器人(social robots)及類人機器人(humanoid robots)。然而,就法學研究來看,談及智能機器人,尤其是涉及到刑事領域的,主要以社會型機器人為主,其基礎在于智能機器人的適用一定程度上將產(chǎn)生社會關系,從而成為刑法所調(diào)整的對象之一。近年來人形機器人得以較大發(fā)展,如日本本田公司生產(chǎn)的“Asimo”,已經(jīng)學會了漫步、上茶、指揮交響樂等行為,而且還可以洞察人類心思。雖然設計這一類型智能機器人的初衷在于為人類服務,但其“類人”行為也意味著有朝一日它可能擁有與人類相同的機能,從而威脅人類的生存與發(fā)展。因此,本文所要探討的人工智能時代的機器人,是以社會型機器人為對象,并結合當前的研究語境,將其定義為“智能機器人”。

2.智能機器人的法律人格

是否將智能機器人納入到法律規(guī)制的范疇、能否追究其刑事責任,不僅關乎到人工智能的進一步發(fā)展,同時也有利于約束相關人工智能事件的法律責任。從人工智能的法學研究視角來看,首先需要應對的是智能機器人的法律人格問題。

結合傳統(tǒng)的法學理論,判斷一個主體是否具有法律人格,應當考慮以下3個因素:其一,有成為法律主體的能力;其二,具備法律主體所擁有的履行義務和享有權利的能力;其三,權利的享有需要以具備意識和選擇能力為前提[9]。我國現(xiàn)行研究多從一般法理層面分析智能機器人的法律人格主要可以歸納為以下兩種立場。

(1)智能機器人法律人格肯定說

肯定說也可以稱為法律人格主體說,認為在現(xiàn)實的社會中,智能機器人的發(fā)展表明了其具備一定程度的智慧和多元功能,可以被賦予法律人格,并確認其享有法律主體地位。持這種觀點的學者多從傳統(tǒng)道德、倫理的角度予以分析,具體而言,他們從以下路徑對智能機器人賦予法律人格。

第一,代理人格說。從倫理性、經(jīng)濟性和工具性視角入手,認為人類已經(jīng)實現(xiàn)了“人可非人”到“非人可人”的歷史演變,法律主體都是從法律承認到非法律構建的建構,倫理性并非智能機器人成為法律主體的必要條件。進而,從功利主義出發(fā),“非人可人”的功利主義推動經(jīng)濟性法律人格的出現(xiàn),如公司、法人團體。但是,結合智能機器人的學習性、獨立性、交互性、技術性、可替代性來看,其區(qū)別于有生命的自然人和具有獨立于成員意志的法人團體,因此,其法律人格屬性也應當與自然人、法人的法律人格屬性不同。雖然其具有法律人格,但僅體現(xiàn)的是為人類所創(chuàng)造并為人類社會發(fā)展服務的智慧型工具,本身具有局限性。因此,應當尊重“以人為本”的價值理念,賦予智能機器人代理的法律人格[10]。智能機器人與其研發(fā)人員或使用人員的法律關系應當認定為法律中的代理關系,進而根據(jù)代理關系探討責任的分配[11]。

第二,法律人格擬制說。持這一觀點的學者認為,從人類利益保護的角度出發(fā),為適應人工智能給社會帶來的影響,解決相應的糾紛,必須采用擬制的方法,像法律賦予胎兒人格一樣,應當賦予智能機器人法律人格[12]。“人格”擬制(fictions)路徑應當仿照第二類主體(法人)或第三類主體(動物),借助使“非人可人”的人格擬制技術,通過人類的相關實證法行為賦予而快速獲得法律人格?;谥悄軝C器人的靈活性,“溝通能力”將其擬制為“人”[13]。

第三,電子人格說。這一觀點主要借鑒歐盟、美國等一些國家和地區(qū)的做法。例如:2016年歐盟委員會提交動議,建議制定《機器人法》,并賦予智能機器人以“電子人”身份;美國《統(tǒng)一電子交易法》將電子交易系統(tǒng)界定為“電子人”;沙特政府賦予對答如流且具備較強“交往溝通能力”的智能機器人“索菲婭”以“公民身份”;日本機器人“帕羅”獲得戶籍等。同時,結合法律主體的歷史演變與法律主體的本體、能力及道德要素的法理基礎,認為智能機器人已經(jīng)具備了法律主體所要求的自主性和規(guī)范性 ,從而應當賦予其“電子人”法律人格[14]。

第四,限制人格說。它也可以稱為“有限人格說”,認為智能機器人的法律人格有別于自然人和法人的法律人格,相應的法律責任和法律地位也存在差異性。其主要依據(jù)在于:基于主體的特殊性,智能機器人承擔行為能力的后果是有限的,其所適用的法律規(guī)范與責任體系也應當有別于自然人與法人,具有相當性或有限性。雖然智能機器人是特殊性質(zhì)的法律主體,其道德性應當被賦予和認可,但與自然人的關系是不平等的[15]。為調(diào)整適應智能機器人的有限法律人格,應當采用登記制度,從歸責原則、保險規(guī)則、確立以人為本的監(jiān)管機制入手,在立法上予以體系性規(guī)定,將智能機器人納入到人類可控的范疇[16],從而防止智能機器人實施危害社會、侵害他人權益的行為。

除上述的幾種主要觀點外,還有學者提出了次等法律人格說、位格加等說、人格類比說等觀點,為智能機器人的法律人格確定提供了思考[14]48。

(2)智能機器人法律人格否定說

這一學說也可稱為法律人格客體說,認為智能機器人不可能具備法律人格,但可將其作為法律權利義務關系中的客體[17]。持這一觀點的學者主要強調(diào)自然人的不可復制性、不可比擬性,認為人類在社會中的主體性地位不僅是由生理特性所構成的,更是人類文明發(fā)展、法律規(guī)范設計的結果。人類具有其他物種無可比擬的特性,即使其創(chuàng)造的智能機器人也不例外。機器人無法獲得人類主體的“人格”,即使人類從法律規(guī)范的視角賦予其一定的“人格”,這也與人類本身所擁有的法律人格在性質(zhì)上具有絕對的差異性,這種做法實現(xiàn)的僅是人類的一種擬制。持客觀說的學者又從不同的角度對智能機器人的法律人格予以否認。

第一,道德能力的缺乏。有學者認為是否將一個主體認定為法律上的主體,首要前提在于其是否具有道德能力,沒有道德認知能力的自然人或動物是不可能擁有法律主體地位的。這些學者認為智能機器人不具備法律主體的這一必備要件,從而不具有法律人格[18]。但也有學者對此提出了質(zhì)疑,認為這種觀點混淆了道德與法律的概念,法律主體不一定具有道德基礎,如公司、團體法人,并主張“道德主體必然為法律主體,而法律主體未必是道德主體”[19]。

第二,責任追究的不能。有學者認為即使賦予機器人“人格”并就其相關法律行為予以規(guī)制,但涉及責任追究時,最終仍歸于自然人,因此,這種法律人格的賦予是毫無意義的[20]。對于“權利” “義務”和“責任”的含義,只有人類才能予以掌握,智能機器人只能被設計成遵守規(guī)則,而不能理解規(guī)則。即使人類通過擬制的手段賦予智能機器人以人格,法律對其行為也無法從根本上予以規(guī)制,而只能通過相應的法律機制追究其背后研發(fā)人員、使用人員的相關責任[21]。

第三,智能機器人人格擬制路徑不可行。這主要是針對仿照擬制法人法律人格擬制智能機器人的做法提出的批判。公司、法人團體等之所以能夠通過擬制人類而成為法人,在于其為自然人的目的性集合或目的財產(chǎn)的集合,同時也是人類思維的集體反映,一定程度上是自然人行為能力的群體化。然而,智能機器人并不存在這一事實基礎[13]54。智能機器人所創(chuàng)造的“智慧”仍在人類智慧的控制范圍之內(nèi),即使是看上去能力驚人的索菲亞、AlphaGo也不過是在人類智慧的引領下所創(chuàng)造的特定智能體。因此,法律擬制智能機器人的做法不具有實踐可能性。

就智能機器人而言,是否應當對其賦予法律人格。如果是,則應當賦予何種限度的人格,應當從哪一視角予以展開;如果不是,則應當如何預防智能機器人的侵害行為,責任機制應當如何落實。筆者認為,隨著強人工智能的發(fā)展,智能機器人的法律人格的確立也將如法人的法律人格演變一樣,必然隨著歷史的發(fā)展成為現(xiàn)實。我國學者對智能機器人是否具備法律人格存在爭議的原因在于:雖然人工智能已經(jīng)涉足我國的一些高科技領域,但離人們的社會生活還有一定的距離,大眾還未切實感受到人工智能所帶來的便利與威脅。當人們在生活中能密切感受到如達芬奇手術系統(tǒng)(Da Vinci Surgical System)一般的人工智能時,人工智能如同法人一般便會被納入法律規(guī)制的范疇。

二、智能機器人的刑事法律人格思考

當然,在確定一般法律人格的情形下,留給我們進一步思考的是智能機器人是否能夠成為刑事責任主體、是否具有刑事責任能力以及應當如何對智能機器人的犯罪行為予以刑事處罰,從而構建體系性的刑事法律規(guī)制。對此,我們首要解決的問題是智能機器人是否具有刑法意義上的行為能力,進而探討其是否符合刑事責任主體的需求。

1.刑事法律人格

與其他部門法不同的是,刑法在強調(diào)一個主體是否能被納入刑事法律規(guī)制的范疇時,主要考慮該主體是否具有自由意志,在擁有自由意志的前提下,是否能實行合理選擇。

自由意志主要以“可供選擇可能性”(alternative possibilities)為原則,認為只有行為人在多個可供選擇的情形下,選擇了一定的非法行為,卻沒有選擇其他合法行為,才能對其追責[22]。然而,行為人是否能選擇實施一定的行為,與之密切相關的是自由意志問題。持非決定論的古典刑事學派認為,人只要達到一定的年齡且精神正常,就具有為善避惡的自由意志,行為人明知犯罪是惡,能實施其他善的行為,但仍實施惡的行為,所以犯罪也是出于自由意志;持決定論的實證刑事法學派認為,人不具有自由意志,其行為是由因果法則所支配,人的行為非自由意志選擇的結果,而是由素質(zhì)和環(huán)境所決定的,認為人們可以對行為作出自由選擇純屬幻想[23]。

無論是決定論還是非決定論,毋庸置疑,它們所探討的自由意志都應當是現(xiàn)實社會結構的一部分[24]。正如本文第一部分所探討的,留給我們研究的應當是具有社會交往能力、融入社會的智能機器人帶來的社會問題。因此,對于智能機器人而言,對其予以規(guī)制的前提在于分析其在社會環(huán)境、社會交往過程中是否具有自由意志。

智能機器人是否擁有自由意志?我們首先必須承認其自由意志在本質(zhì)上與自然人的自由意志存在區(qū)別。從傳統(tǒng)哲學的角度出發(fā),智能機器人不符合傳統(tǒng)意義“人”的標準,原因在于其無法意識到自己的自由意志,也無法意識到自己是擁有過去和未來的獨立存在,它們不具有理解權利和義務內(nèi)涵的能力。因此,即使發(fā)展到強人工智能時代已具備較強的學習能力和認知能力的機器人,也不具備自然人所必備的意識和反應能力[8]16。因此,我們應當思考自然人的屬性與智能機器人的屬性是否存在一致性,刑事責任是否應當以傳統(tǒng)的人格概念為基礎。

在刑事法律范疇,我們應當區(qū)分“自然人”與“行為人”的概念,刑法中的主體并非僅限于“自然人”,如德國和我國規(guī)定的單位犯罪中的“單位”,也是刑法概念中的“行為人”。之所以如此規(guī)定,是人們通過社會交往所提煉的法律人格概念不再局限于生物性質(zhì)的“自然人”,而是人們在具有一定目的的情形下提出的人為概念。這種性質(zhì)的賦予是特定的社會在特定時期的規(guī)范過程。正因為如此,法律人格概念也會隨著社會的變化而發(fā)生變化。

已有研究表明,智能機器人具有深度學習的能力,并能夠像人類一樣思考,無需人類手把手指導,可以借助其人工神經(jīng)網(wǎng)絡進行分析、決策,并完成任務[25]。由此,可認為智能機器人可通過深度學習獲得自由意志所要求的選擇性標準,即智能機器人已經(jīng)具備“意志要素”;同時,智能機器人裝有隨機性發(fā)生器,他們的行為具有不可預測性,選擇完成任務的方法或模式不完全受制于人類的外在命令,因而具備自由意志所要求的內(nèi)生性標準,即智能機器人已具備“自由要素”[26]。因此,智能機器人已具備刑事法律人格,能基于自由意志進行合理選擇。

2.刑事責任主體地位

刑法所討論的問題,不應置于本體論中思考,而應當納入社會現(xiàn)實予以分析。刑事責任主體要素的“辨認能力”和“控制能力”也不例外,它們并非指生理層面的要素,而是我們在追究刑事責任時所置于社會環(huán)境下所討論的因素。行為主體之所以具備辨認能力和控制能力,主要在于其通過社會交往形成善惡的區(qū)分能力,并形成一定的自我認同。

摒棄生物學層面的“辨認能力”和“控制能力”的做法,并非是探討智能機器人的責任主體地位時的獨有現(xiàn)象。多個國家和地區(qū)將單位犯罪納入刑事責任主體范疇的做法已經(jīng)證明了人們開始放棄傳統(tǒng)的法律人格概念,非自然人的主體已然成為了刑法所規(guī)制的對象,法律主體多樣性已成為既定事實。然而,我們必須承認刑法中的行為主體不僅僅是強調(diào)權利和義務的存在,更是強調(diào)其在社會交往中對社會所造成的危害,引發(fā)國民的恐慌,從而公共意志試圖通過立法將這一特定的主體納入到刑法范疇。是否將一定的行為主體納入刑法范疇,并非一時沖動即可為的,而是應當通過規(guī)范予以確信,我們通常所要求的行為主體所必須的“意識”和“反應能力”在本質(zhì)上也是如此。就當下的人工智能發(fā)展和現(xiàn)有的智能機器人形態(tài)和實質(zhì)來看,智能機器人本身并未構成犯罪的主體,而是研發(fā)人員或者使用人員故意設計或者過失管理而導致危害結果的發(fā)生。

當然,我們必須承認,隨著人工智能的發(fā)展,“辨認能力”“控制能力”等屬于傳統(tǒng)刑事責任主體要素的屬性在社會交往的過程中將發(fā)生一定的變化,智能機器人也將被納入到刑事責任主體的范疇。后文所要論述的智能機器人的罪責,也將是在相應概念屬性發(fā)生變化的情形下予以設想、分析和探討。

三、智能機器人的罪責屬性

談及罪責,我們首先想到的是法律層面的“責任”(liability),但是責任的層面顯然要廣于罪責,它包括了憲法責任、行政責任、民事責任和刑事責任[27]。雖然刑事領域的“罪責”(culpability)概念來源于哲學中的“道德責任”(moral responsibility)一詞,但隨著“規(guī)范罪責”“人格罪責”“機能罪責”理論的出現(xiàn),罪責與責任一詞有了明顯不同的界定。刑事法領域的罪責應當與犯罪(不法)密切相關,是犯罪實體的兩大支柱[28]。就智能機器人而言,責任涉及多個領域,從現(xiàn)有的研究來看,主要探討其侵權責任。也有刑法學者對智能機器人的刑事責任予以了肯定。如劉憲權認為,強人工智能體通過“電子眼”“電子耳”進行判斷,具有刑法上的辨認能力,通過程序設計中的倫理、道德和法律規(guī)范的輸入具有控制能力,強智能機器人比單位更接近于自然人,歐洲、美國等一些國家的做法更加體現(xiàn)了對強智能機器人刑事責任的肯定[29]。本文主要從刑法規(guī)范入手,探討強人工智能時代智能機器人的刑事責任歸屬,因此應當與其犯罪相結合,采用的“罪責”概念與“刑事責任”層面的“責任”同義。

1.智能機器人的責任本質(zhì)

從刑事法領域來看,罪責是指作為犯罪成立要件之一的有責性(blameworthy)[30]。關于責任的本質(zhì),有道義責任論、社會責任論和法的責任論3種理論學說。

其一,道義責任論以意志自由論為基礎,認為人有選擇意志的自由。當行為人能夠選擇其他合法行為而實施了符合構成要件的違法行為時,就可以對行為人進行道義上的非難。智能機器人是否具有道義?道義的前提基礎在于倫理,即智能機器人是否具有倫理的判斷力?從現(xiàn)有的智能機器人的發(fā)展來看,其暫時不具備倫理,從而也缺乏道義,如智能機器人為了救一名孩童可以以“犧牲”兩名孩童的生命為代價[8]20。此時,智能機器人對“生命價值”的倫理性缺乏判斷,從而其所謂“自由選擇”能力仍具有較大的局限性。結合前文的分析來看,智能機器人的意志自由并非等同于自然人的意志自由,而是通過編程或設計擬制的一種限定范圍內(nèi)的“自由”,因此不符合傳統(tǒng)刑法理論中道義責任所要求的自然人層面的“意志自由”的要求。當然,隨著人工智能的發(fā)展,是否通過一系列算法的運用,對智能機器人擬定“倫理、道德”價值判斷成為一種可能,也是值得期待的。

其二,社會責任論是從意思決定論立場出發(fā),認為人是由素質(zhì)和環(huán)境所決定的宿命的存在,人沒有選擇合法行為避免違法行為的自由,犯罪人之所以要承擔責任,不是從道義上對他予以譴責,而是為了社會防衛(wèi)的需要。智能機器人是否具有社會責任層面所有要求的“意志決定”?答案應當是肯定的,因為智能機器人的“意志”終將是由機器人本身的特性和其所處的環(huán)境所決定的,其難以具備傳統(tǒng)嚴格意義上的“自由意志”。正如本文旨在探討的對象——智能機器人——應當是運用于社會的機器人,之所以賦予其責任,是出于對強人工智能時代社會防衛(wèi)的需要。

其三,法的責任論,也可以稱為“法律罪責論”,其以刑法的任務法益保護為前提,認為刑法中的責任非難,是從作為社會統(tǒng)治手段的法的立場所進行的非難[23]160-161。不管人們?nèi)绾谓缍ㄐ谭ㄖ袑嵸|(zhì)意義的罪責,它都只是法律罪責,也就是它僅僅是對缺乏忠誠的責難。盡管在刑法中出現(xiàn)了社會評價,但刑法上的罪責責難不是一種道德審判,同時罪責責難也和個人所奉為權威的倫理標準的道德評價沒有關系[31]。從法的責任論層面分析,智能機器人更符合這一要求,基于保護社會法益的需要,法律必將強人工智能機器人的違反規(guī)范的行為予以非難,使智能機器人成為處罰的對象。

從責任論的本質(zhì)來看,傳統(tǒng)的道義責任論已經(jīng)退出了歷史舞臺,體現(xiàn)更多的為其與社會責任論的融合及法的責任論的發(fā)展。因此,無需論證也無需假設強人工智能時代的機器人是否具有意志自由、具有何種限度的意志自由,因為其已經(jīng)具備刑法上責任本質(zhì)的要求。智能機器人的責任本質(zhì)可以概括為:因實施危害社會法益的行為,違反法律規(guī)范,從而具備刑法層面的責難可能性。

2.智能機器人為責任非難的對象

根據(jù)非難對象的不同,學界提出了以下幾種責任理論:其一,意思責任(willensschuld),認為非難的對象是犯意;其二,行為責任(tatschuld),認為非難的對象是行為;其三,人格責任(chara-kterschuld),認為行為人的人格形成過程是犯罪的主要原因,對于此種危險之人格應予以非難[32]。那么,從這幾個理論學說入手分析,智能機器人能否成為刑事責任所非難的對象?

首先,從意思責任的角度予以分析,能否將智能機器人納入刑事非難的對象的關鍵點在于智能機器人是否具有犯罪意思(這種犯罪意思理所當然包括故意、過失)。對于智能機器人的研發(fā)設計人員、使用人員的故意或過失致使智能機器人實施損害行為的,可從間接正犯、工具理論予以分析。顯然,此處所要探討的是智能機器人這一獨立個體的犯罪意思。隨著人工智能的發(fā)展,智能機器人將超出人類的可控范圍,并在自主意識和意志的支配下做出決策并實施危害社會或他人的行為,強人工智能機器人可能具備故意或過失的主觀意思[33]。如果這種可能化為實際,從意思責任層面,智能機器人將成為刑法所責難的對象。

從行為責任論來看,其非難的對象主要為行為人實施的具有嚴重社會危害性的犯罪行為,思想和人格并非責任非難的對象,因此無需討論智能機器人的人格、意志或思想問題,而主要是從智能機器人帶來的危害行為入手。只要智能機器人實施了危害社會的行為,達到刑事法律規(guī)制范疇的標準,即可以被納入責任所非難的對象。

從人格責任來看,責任非難的對象主要是行為人自主形成的人格。對此,有學者提出了不同的見解,認為人格責任包括受素質(zhì)和環(huán)境所決定的,以及行為人有責形成的部分,后者被稱為行狀人格責任論,認為有責的人格形成責任,是由日常生活的行為狀況所導致的。提出責任的第一次應當是行為責任,必須以行為人的行為為基礎,但在行為的背后存在受環(huán)境和素質(zhì)制約,同時也需要通過行為人的主體性努力而形成的人格,可以就這種人格形成中的人格態(tài)度予以非難[23]161-162。正如前文所言,當前對智能機器人的法律人格問題的研究仍存在較大的爭議,但賦予或擬制智能機器人以法律人格及刑事法律人格是一種可能,也可以認為是一種發(fā)展趨勢。這一點與行為后的人格責任顯然具有相關性,如果智能機器人實施嚴重危害社會的犯罪行為,就應當就其背后的人格予以研究,探討其人格是否具有自身努力的部分,如超出人類設計或控制的范圍,故意或過失地實施犯罪行為。

從責任所非難的對象來看,強人工智能機器人必將成為可以責難的對象,其所潛在的危險也督促我們應當將這一主體納入到刑事法律規(guī)制的范疇。

四、智能機器人的罪責形態(tài)與刑法規(guī)制

客觀地分析智能機器人的犯罪類型,并探討對這一犯罪如何予以規(guī)制,給我國的刑事法治帶來了巨大的挑戰(zhàn)[34]。具體而言,可以分為以下3種情況。

1.智能機器人被設計或編程實施故意犯罪

科學技術的發(fā)展在給人類提供便利的同時,也為不法分子提供了可乘之機。如計算機、互聯(lián)網(wǎng)等為網(wǎng)絡信息詐騙、侵犯個人信息類型犯罪提供了契機,人工智能的發(fā)展同樣也會為不法分子實施違法犯罪提供機會。借助智能機器人實施故意犯罪的主要特點在于通過編程故意促使智能機器人實施犯罪,甚至設計“機器人殺手”(killer robot)。這種情形在我們所看到的科幻小說、科幻電影中并不罕見,但無人機、自動駕駛機器人的發(fā)展逐漸使得這種原本僅存于想象中的機器人在社會現(xiàn)實生活中出現(xiàn)。不法分子利用智能機器人故意實施犯罪行為的情形應當如何予以刑事責任的追究?本文認為,可以從現(xiàn)有的刑法理論出發(fā)解決這一問題。

在行為人是智能機器人研發(fā)人員的情況下,行為人通過編程對智能機器人予以客觀支配,對其予以實質(zhì)性的控制、故意實施犯罪行為的這種情形,應當歸屬于刑法傳統(tǒng)理論中“間接正犯”的范疇。之所以不能將研發(fā)人員作為教唆犯、智能機器人作為被教唆犯處理,主要理由在于:在此種情形下,智能機器人缺乏規(guī)范意識,在編程范圍內(nèi)實施犯罪行為,實際上歸屬于研發(fā)人員控制,其行為體現(xiàn)的是研發(fā)人員的意志[35]。在行為人作為智能機器人的使用者,而非設計研發(fā)人員的情況下,使用者利用智能機器人為自身謀取利益。此時智能機器人被設計聽從的執(zhí)行命令主要來自于使用人(此種情形下可稱為“主人”),主人可命令機器人實施違法犯罪行為,如人身攻擊、侵入住宅等,這種情形被認為“和命令自己飼養(yǎng)的動物去攻擊任何入侵者并無二致”[36]。

刑法要求刑事責任主體在實施犯罪行為時具有相對的自由意志,同時具有辨認能力和控制能力,從而在選擇行為時,無論是從功利主義還是心理強制的角度,都能通過自我判斷做出理性的選擇[6]7。研發(fā)人員通過編程對智能機器人予以設定,使用人員通過強制命令指示智能機器人實施行為,其目的旨在利用智能機器人實施犯罪行為,智能機器人按照行為人所設定的程序、限定的范圍執(zhí)行命令實施犯罪行為,其缺乏合法行為的可選擇性。此時,該犯罪行為所實現(xiàn)的是研發(fā)人員和使用人員的犯罪意圖,智能機器人在此種情形下僅作為一種“工具”并被予以利用,因而犯罪的刑事責任應當歸屬于智能機器人研發(fā)人員或使用人員,而非智能機器人。

2.智能機器人基于設計或編程錯誤實施犯罪

這是當前機器人犯罪的最為普遍的一種形式。在這種情形下,智能機器人基于研發(fā)人員或者使用者的錯誤而實施犯罪行為,應當將刑事責任歸于設計、編程的研發(fā)人員及使用人,還是歸于智能機器人?這種情形下,應當結合刑法中的風險管理理論及過失犯罪理論予以分析。

從傳統(tǒng)刑事法律規(guī)定來看,一般規(guī)定為故意犯罪,只有特定的情形才規(guī)定為過失犯罪。所謂過失犯罪,是指違反了預見義務,應當預見而沒有預見或者已經(jīng)預見而輕信能夠避免,導致危害結果發(fā)生的情形[37]。根據(jù)風險管理學派的觀點,在智能機器人的研發(fā)與使用過程中,研發(fā)人員和使用人員都應當具有風險管理及注意義務,但由于沒有切實履行該義務而導致智能機器人在工作的過程中造成法益的侵害[8]23。這種情形主要涉及的是刑法中的過失理論。隨著社會的發(fā)展,過失論不再限于學派之爭中的舊過失論、新過失論和新新過失論,也加入了被允許的風險、信賴原則和監(jiān)督過失等內(nèi)容,過失理論體系得以豐富的同時,也為過失型犯罪的研究提供了基礎[38]。根據(jù)傳統(tǒng)的過失理論,研發(fā)人員或使用人員對智能機器人所帶來的危害結果應負有預見義務。“已經(jīng)預見輕信能夠避免”通常適用于研發(fā)人員,其在研發(fā)的過程中“已經(jīng)預見”智能機器人在未來的使用過程中可能導致某種危害結果的發(fā)生,但由于認為危險發(fā)生的概率較低且輕信能夠避免從而將這一智能機器人投入市場,此種情形則屬于“過于自信的過失”;研發(fā)人員因為疏忽大意未能對智能機器人予以全面檢測、進行風險評估,從而導致危害結果發(fā)生的,屬于“疏忽大意的過失”。這兩種情形下追究研發(fā)人員的刑事責任。反之,若研發(fā)人員在研發(fā)的過程中履行了相應的風險評估及管理義務,發(fā)現(xiàn)了這種錯誤,出現(xiàn)意志以外的危害結果的發(fā)生,則應當阻卻研發(fā)人員刑事責任的追究。當然,若智能機器人使用人員未能按照智能機器人的使用說明予以操作,從而導致危險結果發(fā)生的情形,也可從“過于自信的過失”或“疏忽大意的過失”兩個層面追究使用人員的刑事責任[6]56。

除去傳統(tǒng)過失理論中的“預見義務”外,應當強調(diào)智能機器人的研發(fā)人員與使用人員風險管理義務及監(jiān)督義務,在這兩種義務缺失的情形下,應當承當相應的過失責任。就風險管理過失而言,其中的“管理過失”是指“由于管理者沒有建立相應的安全管理體制或者建立的安全管理體制不完備,或者對自己管理、支配范圍內(nèi)的危險源管理不善,而直接導致危害結果發(fā)生的情況,如管理者沒有制定健全有效的安全管理制度,沒有盡職盡責地配置、維護好各種設備,沒有做好統(tǒng)籌的人事安排,或者對自己管理支配范圍內(nèi)的事務管理不當?shù)取盵39]。在實際操作運行過程中,研發(fā)人員、使用人員對智能機器人應當負有一定的風險管理義務,如定期進行檢測、排查和維修,從而避免危險結果的發(fā)生。

我國學界對智能機器人過失實施犯罪的情形能否適用監(jiān)督過失理論仍存在一定的爭議。監(jiān)督過失是指特定的人員通過指示、指導、指揮、命令、檢查等行為履行監(jiān)督義務,對被監(jiān)督人的行為予以干涉,從而防范危害結果的發(fā)生[40]。持否定說的學者認為,在我國的刑事法律規(guī)定中,監(jiān)督過失的責任主體一般是指具有領導職責的負責人、負有特定職責的國家機關工作人員。這種責任形式是一種嚴格責任,只有相當性的證據(jù)能夠證明責任主體已經(jīng)履行相應的監(jiān)督職責,才能對其予以免責。智能機器人不屬于被監(jiān)督的主體,其研發(fā)人員和使用者也不符合關于監(jiān)督過失責任主體的規(guī)定,因此不應當追究研發(fā)人員和使用人員的刑事責任[6]58。持肯定說的學者認為,監(jiān)督過失責任不是代位責任,并不是讓監(jiān)督者承擔被監(jiān)督者的責任,而是在因監(jiān)督過失的情形下監(jiān)督者必須承當?shù)呢熑?。就自然人與智能機器人的關系來看,應當將其理解為監(jiān)督與被監(jiān)督的關系。因此,在智能機器人因監(jiān)督人的監(jiān)督過失而實施犯罪行為時,則應當追究作為被監(jiān)督人的自然人的責任[38]57。筆者認為,從我國當前的刑法規(guī)定來看,似乎否定說能夠從罪刑法定原則的角度對這種法律關系予以釋義,然而,隨著強人工智能時代的到來,必將沖破傳統(tǒng)的刑法理論,從合理合法的角度追究智能機器人研發(fā)人員和使用人員的過失責任,從而降低智能機器人給社會帶來的風險。

此外,還應當要求研發(fā)人員和使用人員的錯誤與智能機器人實施的犯罪行為之間存在因果關系。這主要討論研發(fā)人員和使用人員在研發(fā)、事后檢測、評估、調(diào)試、檢修或使用之際,應當有注意義務和預見義務(不預見或預見了輕信能夠予以避免),其不履行或未履行上述預見的作為義務與智能機器人所實施的行為之間必須具備因果關系,若積極履行了相應的義務,只是基于行為人的能力或認知水平,無法客觀預見結果發(fā)生的情形,不應當以故意或過失對相關人員予以追責。

3.智能機器人基于其人工智能產(chǎn)生犯罪沖動實施犯罪

與前兩種情形相同的是,這種情形下的智能機器人的運行與操作亦是由自然人事前予以程序設定,但差異性在于,在這種場合中的智能機器人產(chǎn)生犯意并非研發(fā)人員或使用人員的編程或過失導致,而是發(fā)展到強人工智能時代,類人機器人超出編程或設計的范疇,失去控制后自發(fā)性地實施犯罪行為。隨著科技的快速發(fā)展,智能機器人可能具有跟人類一樣的辨認能力與控制能力,能通過深度學習并超出設計或編程的范圍實施危害社會的行為。從我國現(xiàn)行的《刑法》規(guī)定來看,就智能機器人自發(fā)性地實施犯罪行為的情形并無具體的法條規(guī)定。然而,結合刑法理論,無論是從刑事責任能力還是刑事責任的本質(zhì)要求及對象要求,我們都應當從前瞻性的視角出發(fā),通過立法將智能機器人犯罪納入刑法規(guī)制的范疇。

綜上所述,我國現(xiàn)有的刑法理論與刑法體系能夠有效地應對前兩種情形,但留給我們思考的是,隨著未來強人工智能時代的到來,應當如何對智能機器人予以控制,以防止第3種犯罪情形的出現(xiàn)。這不僅僅是科學技術領域應當思考的問題,同時也是法律工作者的必然應對。因此,無論是從事理論研究的法學學者,還是從事司法實務工作的人員,都應當從前瞻性的角度出發(fā),思考人工智能時代的刑事法律體系構建,對智能機器人的行為予以規(guī)制。針對智能機器人犯罪,探索適用于這一特殊主體的刑罰處罰方法和執(zhí)行方式也已然成為重要議題。

五、結 語

從現(xiàn)有的一些現(xiàn)象來看,普通智能機器人所帶來的危害行為可以從刑法框架里予以探討。強人工智能時代并非指日可待,也并非遙不可及,這給我們的思考和應對帶來了一定的緩沖期。當前,我們需要思考強人工智能時代機器人融入社會生活后超出人類設計和控制范圍實施危害行為的可能性與責任的規(guī)制。從刑法理論來說,強人工智能時代的智能機器人符合刑法上所要求的法律人格及刑事法律所要求的責任本質(zhì)要求,同時,實施嚴重危害社會行為的智能機器人也理所應當成為刑法所責難的對象。是否納入刑法,以何種形式納入刑法規(guī)定,對智能機器人犯罪以何種刑事處罰,這一系列問題的解決都是一個較為漫長的過程,需要我們秉承積極刑法觀和風險刑法觀的態(tài)度進一步思考和反思。

猜你喜歡
意志刑法人格
動物的“自由意志”
大自然探索(2023年7期)2023-11-14 13:07:52
共產(chǎn)黨人的人格力量
過度刑法化的傾向及其糾正
法律方法(2021年4期)2021-03-16 05:35:02
遠去的平凡背影,光輝的偉大人格
學生天地(2020年15期)2020-08-25 09:21:38
《西廂記》中的理性意志與自由意志
論君子人格的養(yǎng)成
學習月刊(2016年20期)2016-07-11 02:00:14
刑法適用與刑法教義學的向度
刑法論叢(2016年3期)2016-06-01 12:15:17
釋疑刑法
浙江人大(2014年6期)2014-03-20 16:20:40
自由意志的神經(jīng)基礎
3000m跑,鍾練耐力和意志
滨州市| 阿巴嘎旗| 恩施市| 巴中市| 文成县| 白朗县| 临西县| 淮滨县| 宕昌县| 额济纳旗| 郴州市| 波密县| 新民市| 阜城县| 安乡县| 株洲县| 博爱县| 桂阳县| 峡江县| 舒兰市| 巴青县| 巩义市| 双辽市| 格尔木市| 平江县| 肥乡县| 四会市| 图们市| 广西| 武鸣县| 泽州县| 旬邑县| 鸡西市| 江陵县| 贵定县| 南投县| 嵊泗县| 洪雅县| 工布江达县| 图木舒克市| 武夷山市|