国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能時代下刑事責任認定初探

2020-08-03 01:58呂欣欣
大經貿 2020年3期
關鍵詞:自主意識刑事責任人工智能

【摘 要】 新時代人工智能技術多角度多方面推動社會的發(fā)展,因此受到許多行業(yè)的熱捧,許多企業(yè)家紛紛投資此領域。人工智能行業(yè)興盛的同時,也帶來一系列負面問題,機器人傷人、殺人案件自上個世紀就開始出現(xiàn),越來越大的死傷數據使得人們陷入恐懼,人工智能會不會犯罪?構成犯罪誰承擔責任?人工智能未來能否擺脫人類控制滅絕人類?我們需不要阻止人工智能的發(fā)展?一系列的問題讓公眾對人工智能技術有了新的更深層次的審視。目前國外許多國家已經制定出相應的機器人刑法,專門針對可能或已經發(fā)生的機器人傷人事件,我國目前并未對機器人犯罪作出相應的法律規(guī)定,以至于實踐中發(fā)生機器人傷人事件時無從下手。本文主要針對機器人的危害行為進行分析,解決人工智能與刑事責任的關系,從而進一步為上述四個問題尋求答案。

【關鍵詞】 人工智能 刑事責任 工具屬性 自主意識

一、人工智能的定義

根據智能程度,人工智能可分為弱人工智能,強人工智能和超人工智能。弱人工智能是指具有某些推理能力和解決特定問題能力的智能機器或系統(tǒng)。在弱人工智能階段,只關注完成特定任務,如語音識別、圖像識別和翻譯,是一種擅長單一方面的人工智能,類似于先進的仿生學。它們僅用于解決特定具體類的任務問題,其中大部分是統(tǒng)計數據,從中總結了模型。Google的AlphaGo和AlphaGo Zero是典型的“弱人工智能”,充其量只是一款出色的數據處理器。 雖然他們可以擊敗國際象棋領域的世界級冠軍,但AlphaGo和AlphaGo Zero只會下棋,這是一種在單一游戲中表現(xiàn)出色的人工智能。如果弱人工智能只是復雜的數據處理者,那么強人工智能可以獨立地識別、思考、推理、創(chuàng)造和解決人類等問題。強人工智能其認知能力和智商與人類相當。 對于這種人工智能水平,我們無法通過圖靈測試將其與人類區(qū)分開來,并且在認知和存在意義上它們與人類沒有區(qū)別。 超人工智能其認知能力,計算能力和智商遠遠超過人類指數水平。 它們的存在將類似于電影終結者對天網的描繪,它將成為上帝般的存在,它的能力也遠遠超過人類的認知范圍,它可以摧毀或統(tǒng)治人類。超人工智能意味著人工智能已經越過了“奇點”并打破了人腦限制。它的計算和思考能力遠遠超過人類,并且它比所有領域中的人類大腦更聰明。目前,世界正處于弱人工智能階段,隨著技術的發(fā)展,未來幾十年進入強人工智能時代是可能的結果。

二、人工智能帶來的刑法問題

隨著人工智能水平的提升,人工智能的設計者正在嘗試賦予機器人獨立思維的能力,科技發(fā)展的同時也帶來一系列法律問題。例如,1978年9月,世界上第一起機器人殺人事件發(fā)生在日本廣島,工廠的切割機器人意外地導致值班工人當場死亡。不僅日本,德國也發(fā)生過類似的殺人案件,事件的發(fā)生引發(fā)了世界的恐慌和反思。這些慘痛的事實解決了第一個問題,機器人(人工智能)會犯罪,但因機器人特殊的身份,如果觸犯刑法該如何判處,是否可以承擔刑事責任?

(一)弱人工智能與刑事責任

在弱人工智能時期,即在我們當前時期,弱人工智能的技術發(fā)展水平還沒有達到模擬人腦意識的水平。人工智能犯罪大多存在兩種情況,第一種情況是,行為人(設計者、使用者)利用人工智能實施犯罪,造成了嚴重危害社會的結果。皮勇教授認為,受人類控制的人工智能系統(tǒng)不具有獨立的主體性,不應承認其犯罪主體地位。如果犯罪分子將這些技術與互聯(lián)網平臺和大數據技術結合使用,極為容易威脅計算機信息系統(tǒng)的安全性,導致公民個人信息的泄露。在這種情況下,第三方行為人才是犯罪行為執(zhí)行的領導者,人工智能產品直接作為犯罪工具對受害者采取行動。由于人工智能具有工具屬性,在這種情況下,第三方行為者承擔刑事責任。具體依據的刑法條文根據現(xiàn)有的罪名進行處罰。第二種情況是,由于人工智能產品本身的缺陷,特別是智能系統(tǒng)的操作失敗,會對社會造成嚴重危害。國家立法和實踐調查了有缺陷產品的死亡和受傷責任,并經歷了從民事賠償到刑事制裁的過程。瑕疵產品造成的死亡和傷害的法律性質犯罪發(fā)生的最直接原因是行為的非法性和社會危害程度超出了刑法的容忍范圍。同時,雖然人工智能產品直接影響受害者,但人工智能產品不能對此結果負責,因為它們是“事物”,我們會考慮相關人的責任。因為生產者、所有者、使用者或管理者負有對產品的預見和監(jiān)督義務,所以在可預見范圍內其是危害結果的責任人。根據《刑法》第三章的有關規(guī)定,按照具體的法律依據被定罪和判刑。當然在設計和應用過程中無法預見危害結果的發(fā)生,可作為意外事件處理,不追究相關人的責任。

(二)強人工智能與刑事責任

未來,人工智能技術將不斷完善,人工智能可以似人一樣獨立識別、思考、推理、創(chuàng)造和解決各類問題,成為真正意義上人類級別的人工智能。那個時候它是一個像自然人一樣的刑事責任主體嗎?是否像自然人一樣具有刑事責任主體地位?與自然人(這里指的是達到法定年齡,具有責任能力,有生命特征)相比,智能機器人由程序設計和編制而成,不具有生命特征,并不能等同于自然人。隨著人工智能技術的不斷發(fā)展,智能機器人越來越像“人”。像自然人一樣,機器人可能具有自主意識和意志。雖然機器人是由人類設計和編制的程序組成的,但是由于人類在其“體內”設計和編譯的程序,使它具有思考和學習的能力,這使智能機器人能夠產生自主行為和意志。

在強人工智能階段,主要涉及三種犯罪行為,一種是在設計和編制程序范圍內實施行為時,智能機器人不承擔刑事責任。另一種情況是,隨著人工智能技術的發(fā)展,智能機器人未來可能無法控制,當行為在設計和編程程序的范圍之外實現(xiàn)時,智能機器人的行為實現(xiàn)了自身意志而不是他人意志,因此可以成為刑事責任的主體。一旦智能機器人符合刑事責任實體的資格,當它犯下嚴重危害社會的罪行時,它當然可以承擔刑事責任。第三種情況是,自然人與人工智能合作犯罪,或者自然人欺騙人工智能,人工智能基于錯誤認識在設計和編程程序的范圍之外實施了犯罪行為。此時,應考慮共犯問題,根據共犯規(guī)定,智能機器人和自然人根據主從關系分擔刑事責任,不僅追究智能機器人的刑事責任,還要追究智能機器人的開發(fā)者,用戶或管理者等自然人的刑事責任,杜絕逃脫一切責任。

(三)超強人工智能與刑事責任

超人工智能意味著人工智能已經越過了“奇點 ”,打破了人腦限制。它的計算和思考能力遠遠超過人類,并且它比所有領域中的人類大腦更聰明。這是一個極為恐怖的時期,人類此時與超強人工智能相比,處于弱勢地位,由統(tǒng)治者變?yōu)槿斯ぶ悄艿谋唤y(tǒng)治者,此時人類文明滅絕了,也就不存在刑事責任問題。當然機器人失去控制,是科幻大片常會出現(xiàn)的情況,現(xiàn)實中還是個未知數, 所有人無法預知結果。為了提前預防,杜絕這種被動局面。在現(xiàn)階段,刑法應當關注這個問題,在國際上達成共識,就像克隆人的禁止問題。國內規(guī)制生產、設計企業(yè),立法上進行約束,提前進行防御??茖W界沒人否認超強人工智能時代的到來,只是時間早晚問題。最終以什么方式出現(xiàn)時科學家需要探討的問題。當它出現(xiàn)并造成了我們的損害,該怎么辦?不要以人類法律制度作為出發(fā)點,要擺脫人類中心主義,擺脫人類視角。當強人工智能時代到來時,可能定規(guī)則的并不是我們人類。斷然否認是有問題的,未來法該如何設定需要發(fā)揮我們的想象力。

三、對待人工智能技術的態(tài)度

在給國家領導的公開信中,科學家們指出,自主武器被認為是繼火藥和核武器之后的第三次武器革命。目前人工智能技術的發(fā)展使得一些自動武器能夠在幾年而不是幾十年內完成,大大縮短了實現(xiàn)時間。已故的物理學家斯蒂芬﹒霍金在他的一生中多次表示人工智能可以摧毀人類。即使是硅谷的“鋼鐵俠”艾倫馬斯克也是人工智能的反對者。他在2014年表示,人類應該警惕人工智能,因為它們比核武器更危險。去年8月,他率先簽署了一份聯(lián)合公開信,敦促聯(lián)合國采取措施禁止發(fā)展殺人機器人,擔心人工智能可能引發(fā)第三次世界大戰(zhàn)。這些極具社會影響力的人士如此反對人工智能的發(fā)展是根據一定的事實作出的行為,2018年2月,韓國科學技術研究所(KAIST)開設了一個人工智能武器實驗室,用于開發(fā)配備致命武器的人工智能機器人。即所謂的“殺手機器人”。如果該“殺手機器人”研制成功,造成的后果可想而知,所以據《南華早報》報道,4月4日,來自全球28個國家和地區(qū)的50多位頂級 AI專家宣布,他們將抵制 KAIST并終止與該研究所的所有合作??棺h直到它停止開發(fā)自己的武器。在公開信發(fā)布后,KAIST面臨壓力,宣布新開放的實驗室將不參與任何自主武器系統(tǒng)和殺手機器人的開發(fā),國際AI專家的抵制活動也隨之結束。

與科學實驗中使用的人工智能不同,軍事情報武器面臨更殘酷和客觀的戰(zhàn)爭。人工智能運用到軍事中比任何領域都要危險,大規(guī)模的軍事智能武器作戰(zhàn)很有可能導致人類的滅絕。此時,人們將懷疑人工智能是否可以在未來擺脫人類的控制和消滅人類。我們需不要阻止人工智能的發(fā)展?從理智方面講,人工智能已深入人們的生活過程中,要想全面將人工智能撥出,已不可能完成,前面已說道,世界正處于弱人工智能時代,所以機器人沒有自主意識,一切按照程序進行,此時不必過于擔憂,正常使用人工智能即可,不需要消滅人工智能。人工智能正常發(fā)展,未來很有可能進入強人工智能階段,此時機器人在一定程度上同人類似,開始有自主意識,這時候就要加以限制,對智能機器人的功能和程序就要加以控制,減少潛在的危險性。至于超強人工智能時代,機器人很可能反過來統(tǒng)治人類,這是極為恐怖的,要采取一切可能的手段杜絕進入超強人工智能時代,這也告誡研發(fā)人工智能的專家們不要讓人工智能無限制發(fā)展,正常服務人類即可??茖W技術的發(fā)展日新月異,法律,特別是刑法的制定,需要很長時間。如果一個超級智能機器人出現(xiàn)并且可以在自治的情況下獨立地做出決策和實施行為,那么人類就不再具備控制智能機器人行為的能力,并且可能由強大的智能機器人控制。因此,我們有必要考慮通過立法來控制人工智能技術的快速發(fā)展,同時采取一定的風險防控措施,以防止問題發(fā)生。

四、人工智能犯罪刑罰體系的構建

在沙特阿拉伯首都利雅得舉行的“未來投資倡議”大會上,“女性”機器人索菲婭被授予沙特公民身份。她也因此成為史上首個獲得公民身份的機器人,相信繼沙特阿拉伯之后會有更多的國家加入到該行列。法律賦予機器人索菲亞公民身份,這是立法上一個重要里程碑,它擴大了公民的解釋范圍,使得非自然出生的機器人獲得公民的資格,自然也相應享有公民權利和公民義務,此處指的是民事上的責任。如果未來索菲亞實施了危害社會和個人的行為,就如同2015年美國科幻電影《機器姬》中的高級人工智能機器人艾娃,假裝愛上前來秘密研究所對其進行測驗的男人,教唆男人改編研究所安全系統(tǒng),并成功殺害創(chuàng)造她的科學家逃出研究所混入人類世界,該影片看完只留下驚恐和戰(zhàn)栗,對于索菲亞和艾娃的犯罪行為,刑法可以對其進行規(guī)制么?過去對人工智能或機器的理解是它們代替人類做一些(智力型)的工作,現(xiàn)在的人工智能大多融入了社會學、心理學、哲學等學科知識,使其能夠有意識開展自己的思維,具備一定的控制能力。因此刑事法律對此需要密切關注。

(一)制定和完善與人工智能相關刑法規(guī)定

1.探尋處理人工智能刑法問題的依據

我國刑法中的犯罪主體是指實施危害社會的行為、依法應當負刑事責任的自然人和單位?!吨腥A人民共和國刑法》第 17 條、第 18 條、第 19 條等多處規(guī)定表明,我國刑法中的犯罪主體僅限于自然人和單位,而決不能是人和單位以外之物。假設我們將人工智能實體界定為物,當發(fā)生侵害人類重大法益的刑事案件時,目前的《刑法》無法追究人工智能刑事責任,法官對其認知倘若停留在傳統(tǒng)意義上的“機器產品”,則可能將該案件轉為民事訴訟,最后適用《產品質量法》對研發(fā)者、銷售者或使用者判定承擔經濟賠償責任。但若將人工智能體設定為特殊的刑事主體,當發(fā)生侵權行為時,人工智能體通過獨立承擔刑事責任的特殊刑罰體系對其施以懲罰,可以有效地達到預防人工智能犯罪的目的。執(zhí)行超出設計和編程程序范圍行為的智能機器人具有識別和控制的能力,因此這些智能機器人也應被視為負有責任。與單位相比,執(zhí)行設計和編程范圍之外的操作的智能機器人更“直接”。它不需要以其他主體的意愿來表達,更類似于自然人的刑事責任。機器人索菲婭被授予沙特公民身份就表明機器人也可以當作人看待,將來作為承擔刑事主體也具有可能。

刑法規(guī)制人工智能需注意兩個方面。一方面,傳統(tǒng)罪名應與時俱進,可通過客觀解釋、擴張解釋的方法來應對人工智能帶來的新風險。例如,在聊天機器人詐騙案中,聊天機器人能在微信、婚戀網站中假裝成各種美女,同時與多個對象聊天,批量“談戀愛”,批量實施詐騙。聊天機器人作為新型詐騙工具,其行為仍能通過現(xiàn)有的詐騙罪法條進行解釋。當人工智能深入學習,能獨立作為犯罪主體后,其實施的傳統(tǒng)犯罪也完全可以用現(xiàn)有的法條進行規(guī)制。另一方面,逐步設立新罪名,應對新型犯罪。如開發(fā)以實施危害為目的智能機器人,當傳統(tǒng)罪名無法與之對應時,法律應創(chuàng)設新罪名。同時,在構建智能機器人懲罰系統(tǒng)時,必須遵循以下三個原則:第一,罪刑相適應原則。罪刑相適應原則的基本含義主要是懲罰的嚴重程度必須與犯罪的嚴重程度相一致,也就是說,犯罪社會的危害程度決定了刑罰的嚴重程度,重罪是嚴懲,輕罪則輕微受到懲罰。第二,目的導向原則。目的導向原則是指刑罰的構建和設置必須符合懲罰的目的,如果懲罰的目的是為了防止犯罪,包括消除犯罪者的人身危險,使犯罪者改變邪惡并做好事,那么成為懲罰適用基礎的犯罪必須在主客體之間統(tǒng)一起來。第三,節(jié)儉性原則。智能機器人的存在在一定程度上促進了經濟社會生活的快速發(fā)展。

2.創(chuàng)設適合人工智能的刑罰方式

目前,中國刑法建立的刑罰制度主要由主刑和附加刑構成,顯然,這些刑罰種類僅針對自然人而設計,且僅能適用于自然人(罰金刑可以適用于單位)。懺悔,道歉,損害賠償等非懲罰措施具有強烈的自然人色彩,這些刑罰種類均難以適用于人工智能產品。從懲罰的目的來看,很難與人工智能產品聯(lián)系起來,無論是報應還是預防。因此,可以為機器人創(chuàng)建一種新的懲罰方式,劉憲權教授提出適用于智能機器人的刑罰可以有三種,即刪除數據、修改程序、永久銷毀。所謂的數據刪除是指刪除智能機器人依賴進行犯罪行為的數據信息,相當于刪除智能機器人的“犯罪記憶”。使其恢復到實施犯罪行為之前的狀態(tài)。所謂的修改程序是指當數據被多次刪除時,還不能防止機器人主動獲得可能進行犯罪行為的“負面數據”。也就是說,當智能機器人不能被引導時,它被迫修改其基本程序,并且其獲取外部數據和深度學習的能力被限制在由程序設置的特定范圍內。它從根本上被剝奪了犯罪行為的可能性。這意味著智能機器人的深度學習功能將是不完整和有限的,不能再獲得人類程序范圍之外的數據,因此不可能產生超出人類意志的自我獨立意志。所謂永久銷毀,意味著當刪除數據并且修改程序不能降低犯下該罪行的智能機器人的個人風險時,換句話說,智能機器人的深度學習過程已經很長,并且在長期的實踐和成長過程中形成了程序性的“反刪除能力”和“反修改能力”。除了永久性的破壞之外,人類無法有效控制其數據和程序,而且只能永久銷毀。筆者認為,這三種針對人工智能而創(chuàng)設的刑種具有一定的可行性,它在一定程度上打破了目前無法懲罰智能體的尷尬局面,可以進一步推廣。

(二)規(guī)范人工智能產品與服務提供者的活動

人工智能產品與服務提供者是智慧社會的核心單元,其發(fā)展決定我國人工智能發(fā)展應用的水平,對智慧社會正常有序運作起決定作用,應當借鑒網絡空間治理的經驗教訓,既要規(guī)范我國智慧社會核心單元的活動,又要使之承擔合理的協(xié)助管理智慧社會的責任。首先,應當規(guī)范作為被管理者的人工智能產品與服務提供者的活動。如果不能使其依法開展經營活動,將難以阻止其濫用優(yōu)勢地位危害公眾、妨害社會管理秩序,應盡早研究制定《人工智能安全法》,全面規(guī)范人工智能產品和服務的研發(fā)、制造、提供活動,禁止人工智能違法活動,對于嚴重危害社會的行為,如果超出現(xiàn)行刑法范圍,應當研究制定相應的刑法對策。其次,應當規(guī)范作為協(xié)助管理者的人工智能產品和服務提供者的活動。隨著人工智能普及社會化應用,濫用人工智能的行為會日益嚴重且產業(yè)鏈化,最終將造成嚴重的社會危害,采用事后處罰模式難以有效阻止人工智能應用災難化發(fā)展趨勢。在當今社會,人工智能產品和服務提供者對其產品和服務保持著事實上的控制關系,而國家相關管理部門缺乏足夠的技術能力和專業(yè)管理資源直接管控跨地域、智能性違法犯罪,只能通過前者進行間接管理。因此,為了有效維護智慧社會的安全與秩序,應對人工智能產品和服務提供者規(guī)定必要、合理的協(xié)助管理義務,至少應包括對其提供的產品和服務安全進行監(jiān)督、監(jiān)控和攔阻違法利用其產品和服務以及協(xié)助國家管理部門管理、調查、處分相關違法犯罪活動等義務。為了保障以上協(xié)助管理義務被切實履行,刑法有必要對人工智能產品和服務提供者設立不作為犯罪。

五、結語

目前,智能機器人由開發(fā)人員控制,但在未來,一旦智能機器人的智能達到或超過人類,它將在一定程度上結束“人為控制”的循環(huán),人們應該盡量避免這種情況。換句話說,智能機器人的開發(fā)者和用戶必須確保他們設計、編譯和使用的智能機器人始終在人的監(jiān)督下。保持機器人服務、造福人類的定位,段可不能將其自由意志過度放大。我國應進一步完善國家法律體系,及時公布各類相關法律法規(guī)以及最新學術成果,對人工智能是否能夠成為法律主體應制定出清晰的標準,為司法人員提供及時的法律依據。同時,我們將加強人工智能倫理研究,處理機器與人之間的新關系。讓技術造福人類。

【參考文獻】

[1] 馬治國,田小楚.論人工智能體刑法適用之可能性[J].華中科技大學學報.2018(2).

[2] 高銘暄,王紅.互聯(lián)網+人工智能全新時代的刑事風險與犯罪類型化分析[J].暨南學報( 哲學社會科學版),2018(9).

[3] 劉憲權,胡荷佳.論人工智能時代智能機器人的刑事責任能力[J].法學.2018(1).

[4] 夏天.基于人工智能的軍事智能武器犯罪問題初論[J].犯罪研究.2017(6).

[5] 吳波,俞小海.人工智能時代刑事責任認定思路的挑戰(zhàn)與更新[J].上海政法學院學報.2018(5).

[6] 劉憲權.人工智能時代刑事責任與刑罰體系的重構[J].政治與法律.2018年(3).

[7] 皮勇.人工智能刑事法治的基本問題[J].比較法研究.2018(5).

[8] 劉憲權.人工智能時代的“內憂”“外患”與刑事責任[J].東方法學.2018(1).

作者簡介:呂欣欣(1995—),女,漢族,山東濟南人,法學碩士,單位:上海政法學院刑事司法學院,研究方向:刑法學。

猜你喜歡
自主意識刑事責任人工智能
人工智能與就業(yè)
論被害人過錯行為對行為人刑事責任的影響
如何培養(yǎng)中職生的自主寫作能力
中職機電專業(yè)教學中如何提升學生主動參與的意識