關(guān)鍵詞 人工智能 法律問題 機遇 挑戰(zhàn) 刑法完善
作者簡介:張倩,遼寧公安司法管理干部學(xué)院副教授,主要從事法學(xué)研究。
中圖分類號:D924 ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?文獻標(biāo)識碼:A ? ? ? ? ? ?? ? ? ? ? ?DOI:10.19387/j.cnki.1009-0592.2020.03.007
人工智能的合理利用是新時代亟需探討的問題,針對其相關(guān)刑法研究也需要提上日程。盡早完善法律的后臺保障,是促進新興產(chǎn)業(yè)有序、快速、高效建設(shè)的基本內(nèi)容與基本環(huán)節(jié)。本文旨在研究人工智能環(huán)境下刑法的完善問題,試圖為人工智能的刑法成熟化發(fā)展提出建議,助力其科學(xué)發(fā)展。
人工智能的縮寫為AI,是研究、開發(fā)用于模擬、延伸和擴展人的智能的理論方法、技術(shù)及應(yīng)用系統(tǒng)的一門新技術(shù)學(xué)科,是一項具有現(xiàn)代性的、應(yīng)用廣泛的技術(shù)學(xué)科,能夠深入人類生活的各個領(lǐng)域,促進人類社會的成熟化發(fā)展。人工智能涉及到各種學(xué)科,比如說計算機學(xué)科知識、心理學(xué)、哲學(xué)、邏輯學(xué)、數(shù)學(xué)、符號學(xué)等。不同于自然人,人工智能對刑法的挑戰(zhàn)具有其特殊性,傳統(tǒng)的刑法學(xué)理論將犯罪構(gòu)成分為主體、主觀方面、客體以及客觀方面這四個部分。因為自然人具有其情感以及價值判斷,所以在犯罪構(gòu)成中,需要考慮個體主觀方面。但是人工智能因為未擁有感情以及獨立意志,所以導(dǎo)致現(xiàn)行的以自然人為法律主體的刑法出現(xiàn)適用分歧。所以,對于現(xiàn)在人工智能環(huán)境下的刑法完善問題研究,是一個值得廣泛探討的論題。
人類作為自然人,擁有合法權(quán)益,如果將人工智能也賦予了人的法律主體地位,將蘊含著巨大的風(fēng)險與挑戰(zhàn)。因為目前的智能產(chǎn)品都擁有一定的智能性和自主性,這決定了其可以作為法律中的特殊物,予以特殊的法律制度關(guān)照。但是人工智能的刑事法律地位是一個模糊的概念,其建設(shè)也是一個困難的過程。目前對于如何建立其主體地位或是如何選擇性的建設(shè)其主體地位,也未形成一個定論。
例如,無論是圍棋挑戰(zhàn)賽中震驚世人的“阿爾法狗”,還是著名的人機大戰(zhàn)中的人工智能明星“深藍”,他們都擁有了打敗世界冠軍的名譽與頭銜,這些名譽究竟是屬于“阿爾法狗”“深藍”本身還是屬于“阿爾法狗”“深藍”的創(chuàng)造者?這是值得深思的問題,也正是因為這些模糊的概念,導(dǎo)致人工智能刑法建設(shè)受阻。而對于制作優(yōu)良的智能產(chǎn)品的歸屬權(quán)爭辯,以及相關(guān)刑事案件處理,急切需要刑法作為支撐,需要刑法確立其刑事法律主體地位。再比如,對于無人駕駛汽車的民事責(zé)任問題的研究、詩歌創(chuàng)作智能機器人創(chuàng)造出的文藝作品的著作權(quán)的歸屬問題的討論,這些來自社會上的聲音都促使了對于人工智能產(chǎn)品的刑事主體地位的討論。這里需要明晰“人工智能”作為法律主體的具體定義,因為很多人對于“人工智能”這一定義存在一個誤解,其并不是指機器人或者是擁有類人性的機器,專業(yè)學(xué)者對于其定義是:能夠像人一樣思考、像人一樣行為,理性思考以及理性行為。目前的人工智能僅僅是在向著人工智能的目標(biāo)努力,以機器長得是否像人,或者表現(xiàn)的是否像人,行為是否像人進行評判,是不科學(xué)、不合理的,更不能因為某些人工智能產(chǎn)品擁有人類的外貌或是行為特征,而使其獲得刑事法律主體地位。未能明確“人工智能”的定義,這會更加使法律的邊界模糊不清。對于人工智能刑事法律主體地位的分析與明確,將會隨著人工智能產(chǎn)品的完善而逐漸明晰,目前我們唯一可以確定的是,它在法律中的主體地位不可能與人類同等,只能作為特殊的法律主體而存在。如果能夠確立人工智能的法律主體地位,就能夠幫助法律定責(zé),促進人工智能環(huán)境下的刑法完善。例如,如果某位人工智能生產(chǎn)者想要利用“智能殺手”去殺A,但是因為“智能殺手”在實施犯罪行為過程中,系統(tǒng)設(shè)定產(chǎn)生了偏差,而導(dǎo)致錯誤的將B殺掉,這樣的情況屬于打擊錯誤,而不屬于對象錯誤?!爸悄軞⑹帧钡纳a(chǎn)者設(shè)定的所有智能系統(tǒng)都是為了殺害A而服務(wù)的,如果將這個案件“類人化”,即某人想要殺害A,但是在殺害A的過程中,因為武器或是作案工具出現(xiàn)了故障此人誤手將A身邊的B殺害,在這種情況下,依照當(dāng)代的刑事法律,應(yīng)當(dāng)對行為人施以故意殺人罪既遂認(rèn)定,同理,“智能殺手”作為直接犯罪主體,若此時其已經(jīng)擁有了刑事法律的主體地位,就可以針對“智能殺手”的犯罪行為,以故意殺人罪既遂認(rèn)定。在另一方面,目前人工智能產(chǎn)品的歸屬權(quán)問題也容易產(chǎn)生刑事犯罪,如果法律的界定還未清楚,這樣容易滋生刑事案件。
綜上所述,到目前為止,人工智能尚處于快速發(fā)展的階段,對于其的主體地位研究,唯一能夠確定的結(jié)論即為,它不可能擁有與人類同等的法律地位,只能將其作為法律的一個特殊存在物而進行規(guī)范、限制。人工智能環(huán)境下刑法的完善,規(guī)范其法律地位是基本問題。
人工智能正處于不斷的發(fā)展之中,其發(fā)展決定了其自主性的不斷提高,人類在某些方面是不及人工智能產(chǎn)品的,比如大數(shù)據(jù)運算等方面。人類擔(dān)心人工智能發(fā)展,根本問題在于擔(dān)心他們的快速發(fā)展將會威脅到人類的生存。那么,運用刑法、法律規(guī)范人工智能產(chǎn)品本身的發(fā)展,以及規(guī)范其創(chuàng)造者的發(fā)展,為規(guī)范人工智能產(chǎn)業(yè)發(fā)展的重要方向。
例如,某些家用機器人被拿到市場上販賣這一商業(yè)行為中,一定存在著人工智能的開發(fā)者、制造商與使用者之間的信任問題,解決這一問題或是減輕這一矛盾,需要從法律的層面進行問題解決,法律層面需要規(guī)定人工智能生產(chǎn)的標(biāo)準(zhǔn),而且標(biāo)準(zhǔn)的重要意義在于能夠保證使用者的安全,并且在發(fā)生安全問題時,能夠找到法律負責(zé)人。人工智能的生產(chǎn)標(biāo)準(zhǔn)沒有明確的法律規(guī)范,只是在平均水平的約束下發(fā)展,從使用者的角度來看,這是不安全、不科學(xué)的,當(dāng)對家用機器人本身出現(xiàn)問題,而不是交易中出現(xiàn)問題時,建議可以將處罰措施分為三個方面:第一,當(dāng)家用機器人產(chǎn)生了嚴(yán)重的犯罪行為,可以實施徹底報廢的懲罰。這是最高層次的對于將機器人的懲罰。第二,可以對家用機器人實行回收改造的處罰手段,因為在將機器人生產(chǎn)的過程中耗費了一定的人力、財力、物力,所以對家用機器人進行回收改造,不僅懲處犯罪行為,也能夠促進資源的合理利用。第三,可以設(shè)置罰金刑,這是處罰層次最輕的刑事處罰手段,罰金刑要求家用機器人的創(chuàng)造者以及使用者,按比例進行罰金繳納,進行刑事處罰。在人工智能行業(yè)發(fā)展的初始階段,提出完善的法律規(guī)范是不可能的,完善的法律制度也并不是一蹴而就的,積極運用刑事法律的震懾作用,可以從源頭上避免出現(xiàn)刑事犯罪,減少犯罪率,促進人工智能的健康發(fā)展。無人駕駛汽車是最容易產(chǎn)生刑事問題的智能產(chǎn)品。在無人駕駛汽車的發(fā)展規(guī)范中,應(yīng)當(dāng)首先以規(guī)范無人駕駛汽車的刑事責(zé)任主體地位為切入點,從而探討總結(jié)出其所可能實施的犯罪形式及相關(guān)的責(zé)任認(rèn)定。有可能無人駕駛汽車是以單獨犯罪的形式產(chǎn)生的犯罪行為,即無人駕駛汽車產(chǎn)品在獨立的思想支配下實施犯罪行為。還有可能是無人駕駛汽車產(chǎn)品形成了共同犯罪,即人類與無人駕駛汽車共同產(chǎn)生了犯罪行為。這樣的情況下,應(yīng)當(dāng)兩者皆加以懲罰。第三種情況則為間接正犯,指的是無人駕駛汽車雖然基于自然意識在客觀上實行了某種犯罪行為,但是這樣的行為是人類利用其無意識犯罪而產(chǎn)生的。這種情況下應(yīng)該將人類認(rèn)定為間接正犯。
綜上所述,人工智能的發(fā)展,必然會帶來其相關(guān)法律問題的研究,也必然會對現(xiàn)存的刑法提出挑戰(zhàn),對其進行法律規(guī)范,必須依托于行業(yè)的整體發(fā)展。本文討論的是人工智能環(huán)境下刑法的完善,主要在于探討商家與產(chǎn)品開發(fā)者和消費者之間的責(zé)任與權(quán)利,探討刑法處罰措施,也探討犯罪形式認(rèn)定方式,試圖為明晰人工智能行業(yè)初步的發(fā)展形態(tài)貢獻力量。
在人工智能快速發(fā)展的背景下,對于其刑法制度框架的討論,是重要的課題。在產(chǎn)業(yè)發(fā)展的過程中,一定會出現(xiàn)某些智能機器人與法律存在矛盾的問題,在我國某些行業(yè),已經(jīng)通過“分散式立法”的形式對智能產(chǎn)品進行了規(guī)范,例如,在電子商務(wù)、新聞內(nèi)容推薦等領(lǐng)域,我國已經(jīng)擁有了針對于人工智能的法律,到目前為止,我國人工智能刑法制定的大體框架,即為分散式立法,在某些人工智能快速發(fā)展的領(lǐng)域進行立法,這可以保證立法的實用性,但是,在風(fēng)險預(yù)測與安全評估上,提前的立法將更加有利于人工智能產(chǎn)品以及技術(shù)對于社會各行業(yè)的科學(xué)滲透。所以,在我國的某些行業(yè),應(yīng)當(dāng)首先制定針對人工智能產(chǎn)品的相關(guān)法律,完善人工智能環(huán)境下的刑法建設(shè),促進其成熟發(fā)展。
例如,我們可以從美國的人工智能發(fā)展與歐洲的人工智能發(fā)展中提取建議與經(jīng)驗,美國的人工智能立法,是通過司法判例的方式,對算法的法律性質(zhì)進行明確,例如,在搜索引擎算法案例中,人工智能被看作言論,在另一系統(tǒng)中的算法則又被認(rèn)為是商業(yè)秘密等而歐洲是對個人的數(shù)據(jù)擁有嚴(yán)密的保護機制,嚴(yán)密的個人數(shù)據(jù)保護,能夠從源頭上制約人工智能的發(fā)展,限制人工智能的大數(shù)據(jù)測算的能力。
綜上所述,中國的人工智能立法可以從其他國家中吸取建議,在分散式立法的基礎(chǔ)上,對某些行業(yè)進行預(yù)見立法,促進人工智能立法的框架確立,推動產(chǎn)業(yè)立法的成熟發(fā)展。人工智能環(huán)境下刑法的完善,刑法框架性規(guī)定是宏觀策略。
人工智能的發(fā)展將帶來巨大的機遇與挑戰(zhàn)。本文從人工智能的法律地位明確、法律規(guī)范人工智能的發(fā)展、人工智能法律框架性規(guī)定這三個方面對人工智能的刑法完善問題進行了分析與研究,刑事犯罪是威脅社會和平的重要因素,希望本文能為人工智能產(chǎn)業(yè)的成熟發(fā)展建言獻策。
參考文獻:
[1]蔡婷婷.人工智能環(huán)境下刑法的完善及適用——以智能機器人和無人駕駛汽車為切入點[J].犯罪研究,2018, (2):21-26,48.
[2]王燕玲.人工智能時代的刑法問題與應(yīng)對思路[J].政治與法律,2019(1):22-34.
[3]駱璐.自動駕駛汽車涉交通犯罪的刑法規(guī)制與發(fā)展[J].法制博覽,2019(25):20-22.