高銘暄, 王 紅
“人工智能”(Artificial Intelligence,簡稱AI)這一概念創(chuàng)造可以分為兩個部分,即“人工”和“智能”,前者是指由人類制造的機(jī)器或者開發(fā)的程序系統(tǒng),后者是指模擬人腦能動性的思維和智慧,簡言之,即“智慧機(jī)器”。人工智能旨在研究和開發(fā)可以模擬人腦智慧的機(jī)器應(yīng)用或程序系統(tǒng)。人工智能雖然最初是從計算機(jī)學(xué)科的范疇中分支出來的,但是現(xiàn)在已經(jīng)成為一門廣泛包括信息論、控制論、仿生學(xué)、生物學(xué)、神經(jīng)科學(xué)、心理學(xué)、數(shù)學(xué)、邏輯學(xué)、經(jīng)濟(jì)學(xué)、語言學(xué)等多門學(xué)科在內(nèi)的前沿交叉科學(xué),其范圍幾乎涵蓋了自然科學(xué)和社會科學(xué)的所有學(xué)科范疇,與基因工程、納米科學(xué)并稱為“二十一世紀(jì)三大尖端技術(shù)”。
1.人工智能的第三次發(fā)展浪潮
在互聯(lián)網(wǎng)、大數(shù)據(jù)、云計算等的共同驅(qū)動下,人工智能迎來了第三次發(fā)展浪潮。2016年Google公司的Deep Mind團(tuán)隊(duì)研發(fā)出的Alpha Go Tools在韓國首爾舉行的人機(jī)圍棋大戰(zhàn)中,以4∶1的絕對優(yōu)勢擊敗了世界圍棋第一人李世石九段,吸引了全世界的目光重新聚焦在人工智能這個熱門的前沿科技上。各國政府、高校、大型互聯(lián)網(wǎng)企業(yè)紛紛加大項(xiàng)目政策支持和資金人才投入,以搶占人工智能技術(shù)的全球制高點(diǎn)。在美國白宮2016年10月發(fā)布了《為人工智能的未來做好準(zhǔn)備》和《國家人工智能研究和發(fā)展策略規(guī)劃》兩份重要報告后,我國政府也于2017年7月印發(fā)了《新一代人工智能發(fā)展規(guī)劃》,部署了我國人工智能國家發(fā)展戰(zhàn)略。谷歌公司和蘋果公司競相收購最有潛力的人工智能初創(chuàng)企業(yè),微軟宣布投資500萬美元用于地球人工智能計劃,F(xiàn)acebook則成立了兩個獨(dú)立的人工智能研究實(shí)驗(yàn)室。中國的科技三巨頭阿里巴巴集團(tuán)、百度公司和騰訊科技則投以巨資分別在新加坡、美國建立人工智能應(yīng)用聯(lián)合研究機(jī)構(gòu)和實(shí)驗(yàn)室,以加快推進(jìn)中國的人工智能產(chǎn)業(yè)創(chuàng)新。
2.人工智能與互聯(lián)網(wǎng)的關(guān)系
網(wǎng)絡(luò)化、數(shù)字化和智能化是計算機(jī)互聯(lián)網(wǎng)發(fā)展的三個階段。從Web1.0時代的“人機(jī)互動”到Web2.0時代的“人人互動”再到Web3.0時代的“空間互動”,可以說互聯(lián)網(wǎng)的上半場首先解決了“網(wǎng)絡(luò)化”的問題,計算機(jī)與人、計算機(jī)與計算機(jī)、人與人之間利用Internet技術(shù)建立了相互之間的有效聯(lián)系。隨著網(wǎng)絡(luò)用戶規(guī)模的急劇擴(kuò)張和互聯(lián)網(wǎng)的極速發(fā)展,在線數(shù)據(jù)呈指數(shù)性爆發(fā)增長,大數(shù)據(jù)技術(shù)將在網(wǎng)絡(luò)交互過程中獲取的龐大數(shù)據(jù)信息依托云存儲和分布式數(shù)據(jù)庫進(jìn)行管理分析和深度挖掘,實(shí)現(xiàn)了互聯(lián)網(wǎng)的“數(shù)字化”?;ヂ?lián)網(wǎng)、大數(shù)據(jù)為人工智能技術(shù)的應(yīng)用奠定了在線平臺和數(shù)據(jù)源基礎(chǔ),是人工智能再次崛起的三大基石之一。進(jìn)入到互聯(lián)網(wǎng)的下半場,人工智能作為主角即將登上時代的舞臺。人工智能不僅使計算機(jī)信息系統(tǒng)升級為人工智能系統(tǒng),成為智能計算機(jī),還憑借其三大技術(shù)支撐(大數(shù)據(jù)、新算法、超級計算能力)和六大主要應(yīng)用(自然語言處理、語音識別、計算機(jī)視覺、圖像識別、機(jī)器人、無人駕駛汽車)將在傳統(tǒng)互聯(lián)網(wǎng)與工業(yè)物聯(lián)網(wǎng)之間架構(gòu)“類互聯(lián)網(wǎng)大腦”模型??傊斯ぶ悄芗夹g(shù)在互聯(lián)網(wǎng)“網(wǎng)絡(luò)化”、“數(shù)字化”的滋養(yǎng)下逐漸走向成熟,反過來又反哺推動著互聯(lián)網(wǎng)進(jìn)一步向“智能化”邁進(jìn)。
1.范圍的限定
人工智能根據(jù)智能水平的高低可以分為弱人工智能(Weak Artificial Intelligence)、強(qiáng)人工智能(Strong Artificial Intelligence)和超強(qiáng)人工智能(Super Artificial Intelligence)。弱人工智能是指具備了一定推理能力和解決特定問題能力的智能機(jī)器或者系統(tǒng),由于弱人工智能的技術(shù)發(fā)展水平尚沒有達(dá)到模擬人腦意識思維的程度,所以弱人工智能仍然屬于“工具”的范疇,與傳統(tǒng)的“產(chǎn)品”在本質(zhì)上并無區(qū)別。如果說弱人工智能僅是“類人”級別的人工智能,強(qiáng)人工智能則屬于真正意義上“人類”級別的人工智能,即強(qiáng)人工智能能夠像人一樣獨(dú)立地進(jìn)行認(rèn)知、思考、推理、創(chuàng)造和解決問題等,正如電影《人工智能》中的小男孩大衛(wèi)和《機(jī)械姬》里的艾娃。超強(qiáng)人工智能則是指人工智能已經(jīng)跨過“奇點(diǎn)”,打破了人腦受到的維度限制,其計算和思維能力遠(yuǎn)超人類,在所有領(lǐng)域都比最聰明的人類大腦更智能。
顯然,我們當(dāng)下正處于人工智能發(fā)展的初級階段,即弱人工智能的階段。中國人工智能學(xué)會理事、南京大學(xué)計算機(jī)科學(xué)與技術(shù)系副主任高陽教授指出:“弱人工智能距離強(qiáng)人工智能還有相當(dāng)漫長的一條路,我們距離圖靈刻畫的人工智能依然十分遙遠(yuǎn)?!币虼吮疚膬H在弱人工智能的范疇下討論人工智能可能涉及的刑事犯罪與刑事責(zé)任問題,至于對可能產(chǎn)生自主意志、人格獨(dú)立的強(qiáng)人工智能甚至是超強(qiáng)人工智能則不予分析評價。法律,特別是作為最嚴(yán)厲的、最后手段的刑法,還是應(yīng)當(dāng)在前沿科技的狂熱中保持一些冷靜和克制。
2.人工智能可能涉及的刑事犯罪問題
人工智能這一新技術(shù)革命在深刻地改變?nèi)祟惖纳罘绞胶蜕鐣刃虻耐瑫r,也帶來了新的法律風(fēng)險與挑戰(zhàn)。比如沙特在授予世界上首位“女性”機(jī)器人索菲亞“公民”身份后便引發(fā)了對人工智能有限法律電子人格與機(jī)器人權(quán)利的爭論。對于人工智能可能涉及的刑事犯罪問題,目前刑法學(xué)界開展的研究少之又少,作為前沿中的前沿問題,僅華東政法大學(xué)法學(xué)院的劉憲權(quán)教授率先發(fā)表了《人工智能時代的“內(nèi)憂”“外患”與刑事責(zé)任》和《人工智能時代的刑事風(fēng)險與刑法應(yīng)對》兩篇新作,劉文大膽地設(shè)想了具有辨認(rèn)能力和控制能力的強(qiáng)人工智能產(chǎn)品在設(shè)計和編制的程序范圍外進(jìn)行自主決策并實(shí)施犯罪的情形,提出了要從源頭防控人工智能產(chǎn)品在研發(fā)和使用過程中存在的多重刑事風(fēng)險的規(guī)制建議。本文也嘗試著探索人工智能可能涉及的刑事犯罪與刑事責(zé)任問題,但基于我們當(dāng)下所處于并將長期處于的人弱人工智能的發(fā)展階段,認(rèn)為仍然作為“工具”和“產(chǎn)品”屬性的弱人工智能可能涉及的刑事犯罪主要存在以下兩種情形:
第一,行為人利用人工智能實(shí)施其他犯罪,造成了嚴(yán)重危害社會的結(jié)果。在這種情形下,由于第三方行為人才是實(shí)施犯罪行為的主導(dǎo)者,人工智能產(chǎn)品僅因作為犯罪工具才直接作用于被害人,因此本文稱之為“工具利用型”犯罪類型。第二,由于人工智能產(chǎn)品自身的缺陷,特別是智能系統(tǒng)的運(yùn)行故障,從而導(dǎo)致嚴(yán)重危害社會的結(jié)果發(fā)生。在“產(chǎn)品缺陷型”犯罪類型下,雖然人工智能產(chǎn)品直接作用于被害人,但是由于人工智能產(chǎn)品作為“物”不能為此結(jié)果承擔(dān)責(zé)任,因此通常情況下我們會考慮認(rèn)定產(chǎn)品的設(shè)計者、生產(chǎn)者、 所有者、使用者或者管理者作為危害結(jié)果的責(zé)任承擔(dān)者。
1.風(fēng)險社會中的技術(shù)風(fēng)險
自1986年德國社會學(xué)家烏爾里希·貝克(Ulrich Beck)在其著作《風(fēng)險社會——通往另一種現(xiàn)代性》(Risk
Society
:Towards
a
New
Modernity
)中第一次使用“風(fēng)險社會”這個表述后,“風(fēng)險社會”這個詞便“火”了,基于風(fēng)險社會理論建構(gòu)的現(xiàn)代社會結(jié)構(gòu)模型所產(chǎn)生的巨大影響力已經(jīng)遠(yuǎn)遠(yuǎn)超出了社會學(xué)的范疇,政治學(xué)、哲學(xué)、倫理學(xué)、心理學(xué)、法學(xué)等領(lǐng)域開始廣泛討論這個概念。通過該書還原風(fēng)險社會中的風(fēng)險景觀有助于我們對風(fēng)險進(jìn)行準(zhǔn)確的定位與解讀。人類在早期農(nóng)耕社會面臨的風(fēng)險主要來源于自然界,比如洪水、干旱、雷電、地震等。然而進(jìn)入工業(yè)革命以后的工業(yè)社會、后工業(yè)社會,科學(xué)技術(shù)徹底改變了人類的生活方式和社會秩序。一方面,它們?yōu)槿藗兲峁┝藗鹘y(tǒng)社會所無法想象的物質(zhì)便利,將人類從自然力的奴役狀態(tài)中解放出來;另一方面,它們也創(chuàng)造了眾多新生的危險源,導(dǎo)致技術(shù)性風(fēng)險日益擴(kuò)散。除技術(shù)性風(fēng)險之外,政治、經(jīng)濟(jì)與社會風(fēng)險等制度化風(fēng)險也是人類社會風(fēng)險的重要組成部分,但是應(yīng)當(dāng)說技術(shù)性風(fēng)險仍然是首要的、基礎(chǔ)性的風(fēng)險。從歷史唯物主義角度分析,技術(shù)革命作為新的生產(chǎn)力從舊的生產(chǎn)關(guān)系中發(fā)展而來,反過來又推動著生產(chǎn)關(guān)系和上層建筑新的變革,因此所謂的政治、經(jīng)濟(jì)和社會風(fēng)險等制度化風(fēng)險其實(shí)可以視為技術(shù)性風(fēng)險的泛化、延展和突變。技術(shù)風(fēng)險是以科學(xué)技術(shù)的發(fā)展為前提的,作為第一生產(chǎn)力的科學(xué)技術(shù)何以會引發(fā)未知性、復(fù)雜性、危害性甚至是全球性的風(fēng)險呢?從人的存在這一阿基米德支點(diǎn)哲學(xué)考察科學(xué)技術(shù)與人類社會的關(guān)系,追問技術(shù)的本質(zhì),或許可以揭開技術(shù)風(fēng)險的面紗。技術(shù)具有自然性和反自然性、人化和反人化、社會化和反社會化的本質(zhì)屬性,由此可以邏輯推演出技術(shù)風(fēng)險的三大表現(xiàn)形式:第一,技術(shù)的反自然性與自然生態(tài)層面的技術(shù)風(fēng)險。技術(shù)代天工以開物,往往與自然生態(tài)的自我運(yùn)行相對立,例如水電站的修建阻斷了魚類的洄游造成水生態(tài)的危機(jī),采用核裂變技術(shù)發(fā)電的核電站發(fā)生核泄露造成環(huán)境污染和輻射危害。第二,技術(shù)的反人化與人本層面的技術(shù)風(fēng)險。作為工具的科學(xué)技術(shù)通常情況下都極大地改善了人們的生活,但同時也存在著“傷害倍增”的效果,最典型的就是計算機(jī)互聯(lián)網(wǎng)的發(fā)展在增加生活便利性的同時也催生了日益猖獗的網(wǎng)絡(luò)詐騙、網(wǎng)絡(luò)傳播虛假信息、網(wǎng)絡(luò)侮辱誹謗、網(wǎng)絡(luò)恐怖主義等網(wǎng)絡(luò)犯罪。第三,技術(shù)的反社會化與社會層面的技術(shù)風(fēng)險。這與泛化的制度性風(fēng)險聯(lián)系,例如大規(guī)模殺傷性武器(核武器、化學(xué)武器、生物武器)的使用可能會加劇貧富分化、極權(quán)主義、民族種族仇恨和極端恐怖主義等問題。由此看來,技術(shù)風(fēng)險的成因除了科學(xué)技術(shù)自身的不確定性和復(fù)雜性外,最為關(guān)鍵的還是介入了人類的因素,人類的決策和行為作用于科學(xué)技術(shù)的運(yùn)用過程之中,這才帶來了技術(shù)衍生風(fēng)險。從某種意義上說,技術(shù)風(fēng)險是“被制造出來的風(fēng)險”,即被“自身”制造出來的風(fēng)險和被“人為”制造出來的風(fēng)險。
2.人工智能在發(fā)展、應(yīng)用過程中產(chǎn)生的技術(shù)風(fēng)險
前不久剛剛?cè)ナ赖膫ゴ笪锢韺W(xué)家、宇宙學(xué)家史蒂芬·霍金在生前的最后幾年對人工智能十分關(guān)注,他曾表示:“人工智能的崛起是人類歷史上最好的事情,憑借這場新的科技革命,我們或許可以挽回上一場工業(yè)革命給自然界和人類社會帶來的破壞,然而人工智能在未來可能對人類生存帶來毀滅性的威脅,除非我們學(xué)會如何規(guī)避、控制風(fēng)險。”霍金的“人工智能威脅論”在目前的弱人工智能階段聽起來似乎有些危言聳聽了,但是警惕人工智能可能產(chǎn)生的風(fēng)險是十分必要的。
人工智能自身的風(fēng)險主要是技術(shù)不足風(fēng)險,即受現(xiàn)有技術(shù)發(fā)展水平的制約,人工智能技術(shù)自身仍然具有許多不確定性和復(fù)雜性。谷歌旗下的公司W(wǎng)aymo最早從2009年開始無人駕駛汽車項(xiàng)目的研究,為了測試無人駕駛系統(tǒng)的準(zhǔn)確性還專門建立了Castle結(jié)構(gòu)化測試區(qū),通過柵欄分割設(shè)置了規(guī)模龐大的測試路口和交叉路口,然而結(jié)果證明無人駕駛汽車即便能完全掌握Castle模擬測試區(qū)所學(xué)的駕駛技能,在沒有司機(jī)的情況下,仍然無法通過安全路上測試,最主要的原因還是在于發(fā)揮人類眼睛作用的多方傳感器系統(tǒng)仍然無法對復(fù)雜多變的路況環(huán)境進(jìn)行精準(zhǔn)的感知和定位,這可能給無人駕駛汽車路上行駛的安全性帶來致命性的打擊。人工智能自身的風(fēng)險還表現(xiàn)在它的反自然性。按照器官投影學(xué)說的觀點(diǎn),技術(shù)是人體器官的延伸,人工智能不正是機(jī)器對人類大腦的模擬嗎?然而進(jìn)化的同時也是退化的開始,人工智能技術(shù)可能會封閉人類的一些器官經(jīng)驗(yàn),造成某種程度上人類大腦或者其他器官的生物退化。
應(yīng)當(dāng)說人工智能技術(shù)最大的生存威脅還是在于人為制造的風(fēng)險,尤其是人工智能與互聯(lián)網(wǎng)、大數(shù)據(jù)的結(jié)合,促使人工智能的技術(shù)使用風(fēng)險變得更為緊迫,由此帶來的嚴(yán)重危害后果也更加難以防控。浙江紹興破獲的全國首例利用人工智能打碼平臺侵犯公民個人信息案,就是先利用人工智能技術(shù)識別圖片驗(yàn)證碼再通過撞庫軟件非法獲取公民的個人信息。黑客楊某搭建的“快啊”打碼平臺運(yùn)用人工智能機(jī)器深度學(xué)習(xí)訓(xùn)練機(jī)器,可以快速有效地識別圖片驗(yàn)證碼,輕松繞過互聯(lián)網(wǎng)公司設(shè)置的賬戶安全登陸保護(hù),給網(wǎng)絡(luò)詐騙等網(wǎng)絡(luò)黑產(chǎn)產(chǎn)業(yè)鏈提供了犯罪便利和犯罪工具。此外,霍金對人工智能的過度擔(dān)憂還緣于人工智能技術(shù)向軍事領(lǐng)域的滲透,特別是美國、俄羅斯、韓國、烏克蘭、以色列等國家對“殺人機(jī)器人”的研發(fā)。大國之間展開的人工智能軍備競賽可能叩開智能化戰(zhàn)爭的大門,給人類帶來毀滅性的災(zāi)難。在2017年人工智能國際會議上,上百名人工智能專家聯(lián)名上書聯(lián)合國,呼吁禁止在戰(zhàn)爭中使用致命的自主武器和殺人機(jī)器人,并抵制與任何國家合作研發(fā)人工智能武器的計劃。
1.風(fēng)險與危害、危險
風(fēng)險社會中的風(fēng)險區(qū)別于刑法規(guī)范中的危險、危害,二者不可等同視之。“風(fēng)險”一詞屬舶來品,考究其由來,有一種說法是來源于遠(yuǎn)古時期漁民的捕魚活動,海上的風(fēng)總是會給漁民帶來諸多不確定的偶然性的危險,因此“風(fēng)”即意味著“險”,于是漁民在每次捕魚之前都要祈禱神靈保佑出海風(fēng)平浪靜、滿載而歸。據(jù)能考證的詞源意大利語risque本身就包含reef(暗礁)或rock(礁石)的含義,是17世紀(jì)歐洲大陸的航海術(shù)語,特指在航海中遭遇雷電、颶風(fēng)等惡劣天氣或者船只觸礁沉沒等事故。風(fēng)險即未來不確定的危險,不可知、或然性是風(fēng)險的特質(zhì)。
然而作為刑法規(guī)范意義上的危險則是由傳統(tǒng)概念“社會危害性”展開的,這種“危害性”包括兩種情況:第一,造成實(shí)際損害(危害);第二,具有造成實(shí)際損害的現(xiàn)實(shí)可能性(危險)。刑法規(guī)范意義上危害必須是客觀的、現(xiàn)實(shí)的,即實(shí)實(shí)在在造成了損害結(jié)果,但是風(fēng)險社會中的風(fēng)險是建構(gòu)的、虛擬的。雖然貝克也強(qiáng)調(diào)風(fēng)險的實(shí)在性,但是“它們的實(shí)在性是通過根植于前進(jìn)中的工業(yè)和科學(xué)生產(chǎn)與研究程序的‘沖突’而噴發(fā)出來的,社會感知和結(jié)構(gòu)使風(fēng)險成為‘現(xiàn)實(shí)’”?!帮L(fēng)險歸根結(jié)底不是具體的物,它們是看不見、感覺不到的東西,它們是一種社會構(gòu)想,只有當(dāng)人們相信它時,它才會因此而真實(shí)有效?!闭鐭o人駕駛汽車可能在未來使得人們逐漸失去駕駛操控汽車的能力,或者阻礙人腦和其他器官的生物進(jìn)化,但是這些擔(dān)憂其實(shí)都不是客觀的現(xiàn)實(shí)狀態(tài),而僅僅是未來的一種或然性。
應(yīng)當(dāng)說作為可能發(fā)生危害的“風(fēng)險”含義更接近刑法規(guī)范中“危險”的概念,二者都具有不確定性,即可能造成實(shí)害結(jié)果,也可能最后沒有造成實(shí)害結(jié)果。風(fēng)險刑法論者在“拿來主義”的風(fēng)險理論語境下企圖將傳統(tǒng)刑法轉(zhuǎn)向積極預(yù)防的安全軌道,這實(shí)際上是將刑法中具有規(guī)范限縮意義的危險概念外延泛化為社會學(xué)意義上的風(fēng)險表現(xiàn)出來的過度憂慮。風(fēng)險理論中所論及的技術(shù)風(fēng)險,只有在滿足了“侵害的現(xiàn)實(shí)緊迫性”這一條件下才能實(shí)現(xiàn)從社會學(xué)意義的風(fēng)險到刑法學(xué)意義的危險的實(shí)質(zhì)性跨越?!扒趾Φ默F(xiàn)實(shí)性”指風(fēng)險可能發(fā)生的危害必須是合乎必然性的存在,或許在未出現(xiàn)危害結(jié)果時還不是現(xiàn)實(shí)的,但是根據(jù)發(fā)展的客觀必然性或早或遲一定會變成現(xiàn)實(shí)。例如智能機(jī)器人脫離人類控制殺死科學(xué)家毀滅人類的場景只存在于科幻電影之中,事實(shí)上,智能機(jī)器人因?yàn)樯疃葘W(xué)習(xí)而產(chǎn)生意識思維并在自主意志的支配下實(shí)施不在人類設(shè)計和編程范圍內(nèi)的犯罪行為,這種風(fēng)險不具有現(xiàn)實(shí)性。“侵害的緊迫性”是指風(fēng)險可能發(fā)生侵害的危險正在逼近、非常接近、迫在眉睫或者正在發(fā)生。例如器官移植技術(shù)可能會帶來非法買賣器官的風(fēng)險,只有當(dāng)行為人組織他人出賣人體器官,或者未經(jīng)他人同意摘取其器官、摘取不滿十八周歲的人的器官,又或者強(qiáng)迫、欺騙他人捐贈器官的,才形成對公民人身權(quán)利侵害的緊迫性危險。
總而言之,風(fēng)險不等于危險,更不等于危害。在風(fēng)險社會背景下分析人工智能的技術(shù)風(fēng)險,最終還是為了回歸到刑法的視域下討論究竟哪些可能的風(fēng)險才是具有刑法規(guī)范意義上的危險和危害。當(dāng)且只有當(dāng)這些風(fēng)險現(xiàn)實(shí)地造成了損害或者具有造成損害的現(xiàn)實(shí)緊迫性,人工智能的刑事風(fēng)險才正式拉開帷幕。
2.人工智能的刑事犯罪風(fēng)險的展開
“互聯(lián)網(wǎng)+人工智能”的全新時代,正如狄更斯所言:這是個最好的時代,也是個最壞的時代。人工智能的技術(shù)應(yīng)用范圍十分廣泛,包括工業(yè)生產(chǎn)、汽車制造、通訊運(yùn)輸、醫(yī)療臨床、教育培訓(xùn)、金融會計法律、個人家庭生活等各個領(lǐng)域。工業(yè)機(jī)器人替代流水線工人進(jìn)行全自動化機(jī)械生產(chǎn),無人駕駛汽車給谷歌的多個數(shù)據(jù)中心送貨,達(dá)芬奇手術(shù)機(jī)器人協(xié)助醫(yī)生開展高難度、更精密的手術(shù)治療,智能律師Ross可以識別當(dāng)事人的自然語言、根據(jù)自身系統(tǒng)的法律知識儲備回答問題、提出解決方案并記錄法律系統(tǒng)的變化,人臉識別技術(shù)應(yīng)用到銀行金融賬戶管理、鐵路機(jī)場安檢,甚至是大學(xué)上課簽到和宿舍管理……這些人工智能真正實(shí)現(xiàn)了“人工智能,讓生活更美好”的期許。
然凡世間物,皆有兩面性。就以無人駕駛汽車為例,一方面可以減少因駕駛者錯誤操作或者長途疲勞駕駛所帶來的交通事故,另一方面也有可能增加因自動駕駛系統(tǒng)發(fā)生故障或者人為入侵破壞自動駕駛系統(tǒng)而引發(fā)的交通事故。風(fēng)險社會理論的一個重要意義是讓人們重視人為制造的風(fēng)險,人為制造出來的風(fēng)險也正是人工智能刑事風(fēng)險的主要來源。具體而言,本文認(rèn)為涉及人工智能的刑事犯罪風(fēng)險大致可以分為三類:
第一,直接對人工智能的智能系統(tǒng)實(shí)施犯罪。這是對人工智能本身實(shí)施的犯罪。人工智能的智能系統(tǒng)是指能夠產(chǎn)生人類智能行為的計算機(jī)系統(tǒng),所謂的智能在現(xiàn)階段至少應(yīng)具備自動獲取信息、自動學(xué)習(xí)知識、邏輯推理演繹、應(yīng)用解決問題等多方面的能力。人工智能的智能系統(tǒng)在本質(zhì)上屬于計算機(jī)信息系統(tǒng)的較高級別,對人工智能的智能系統(tǒng)實(shí)施犯罪實(shí)際上就是對計算機(jī)信息系統(tǒng)的犯罪。智能系統(tǒng)的運(yùn)作過程大致可以簡單地看作是“輸入——輸出”的流水作業(yè),輸入的是智能系統(tǒng)的處理對象,包括大數(shù)據(jù)和知識等,按照機(jī)器深度學(xué)習(xí)算法的方法論將存儲的數(shù)據(jù)和知識通過云計算平臺進(jìn)行計算分析,最后輸出處理結(jié)果、結(jié)論。不難發(fā)現(xiàn),在人工智能的智能系統(tǒng)中存儲了大量的數(shù)據(jù)和信息,如果這些可能涉及身份隱私、財產(chǎn)安全,甚至是國防軍事利益的數(shù)據(jù)和信息被惡意入侵,并被破壞智能系統(tǒng)的犯罪分子非法獲取并利用,進(jìn)而實(shí)施侵犯公民個人信息、詐騙、竊取國家秘密或者其他犯罪,可能會發(fā)生嚴(yán)重的社會危害后果。對于行為人實(shí)施的直接針對人工智能的智能系統(tǒng)的犯罪,本文認(rèn)為可以考慮適用刑法第二百八十五條、第二百八十六條和第二百八十七條的相關(guān)規(guī)定進(jìn)行處理。
第二,利用人工智能技術(shù)實(shí)施傳統(tǒng)犯罪。隨著人工智能的飛速發(fā)展,犯罪技術(shù)也變得更高級起來,犯罪工具將與人工智能一同進(jìn)化。美國國家情報局局長James R. Clapper就曾警告過關(guān)于人工智能技術(shù)的惡意使用問題,人工智能在給人們生活帶來便捷的同時也擴(kuò)大了在線世界的漏洞,使得網(wǎng)絡(luò)和我們都變得更易受攻擊。2003年卡耐基·梅隆大學(xué)年僅22歲的研究生路易斯·馮·安設(shè)計出了“全自動區(qū)分計算機(jī)和人類的圖靈測試”方案,即我們熟知的驗(yàn)證碼技術(shù),以此來阻止自動程序盜取在線賬戶。然而除了人工智能的技術(shù)研發(fā)者,犯罪分子也一直在部署計算機(jī)視覺軟件以對抗驗(yàn)證碼技術(shù),短短七年前黑客便顛覆了驗(yàn)證碼技術(shù)的安全保護(hù)功能。“如果你兩年沒改驗(yàn)證碼了,它就會被一些機(jī)器視覺算法操控?!泵绹又荽髮W(xué)圣迭戈分校的計算機(jī)安全員Stefan Savage表示說。
人工智能技術(shù)作為高級犯罪工具給犯罪分子帶來了極大的犯罪便利。首先對于初次或者準(zhǔn)備進(jìn)入網(wǎng)絡(luò)犯罪但是沒有技術(shù)經(jīng)驗(yàn)的潛在犯罪分子來說,可謂搭上了高科技的“順風(fēng)車”。曾經(jīng)火爆地下市場的Black shades程序軟件就被形象地稱為“盒子里的刑事特權(quán)”,它能讓完全不懂技術(shù)的犯罪分子在計算機(jī)上輕松地部署一個勒索程序或者通過鼠標(biāo)點(diǎn)擊來進(jìn)行視頻或者音頻竊聽。人工智能提供的這項(xiàng)技術(shù)便利可能會因此增加初次網(wǎng)絡(luò)犯罪的幾率。除此之外,人工智能技術(shù)還在一定程度上幫助消除了犯罪的障礙,降低了犯罪的難度,擴(kuò)大了傳統(tǒng)犯罪的社會危害性。例如在電信詐騙中,犯罪分子通常在?!安虏挛沂钦l”的騙術(shù)中存在聲音被識別、騙局穿幫的風(fēng)險。谷歌公司旗下的人工智能研究部Deep Mind團(tuán)隊(duì)開發(fā)出的新程序可以模仿任何人的聲音,并且聽起來比任何語音系統(tǒng)生成的聲音都要自然,極大地縮小了自然語言與人類語言的差距。人工智能的這項(xiàng)語音偽裝技術(shù)在電話中就極易被犯罪分子用來偽裝身份實(shí)施詐騙,并且還有助于降低詐騙失敗的幾率。
第三,對人工智能產(chǎn)品未盡安全生產(chǎn)、管理義務(wù)的犯罪。人工智能產(chǎn)品發(fā)生致人死傷的嚴(yán)重危害后果多發(fā)生在工業(yè)機(jī)器人和無人駕駛汽車領(lǐng)域。根據(jù)美國職業(yè)安全健康管理局的統(tǒng)計數(shù)據(jù)顯示,在過去30年間大約發(fā)生了30多起與機(jī)器人相關(guān)的死亡事件。最近的一次是2015年的7月,在密歇根州的一家汽車零配件制造商廠內(nèi),維修技師萬達(dá)·霍爾布魯克在執(zhí)行日常保持機(jī)器人工作秩序的職責(zé)時,突然被裝配線上的機(jī)器人抓住,機(jī)器人像裝載拖車懸掛裝置組件一樣對被害人的頭部進(jìn)行操作,導(dǎo)致被害人頭骨被壓碎身亡。被害人的丈夫?qū)⑦@家工廠和為這家工廠提供機(jī)器人配件及安裝的5家機(jī)器人廠商一并訴至法庭,并在訴中表示:“機(jī)器人沒有被正確設(shè)計、制造或測試,才導(dǎo)致安全系統(tǒng)和設(shè)備突發(fā)故障(未盡安全生產(chǎn)的責(zé)任義務(wù));并且130區(qū)域的機(jī)器人不應(yīng)當(dāng)進(jìn)入140區(qū)域,也不應(yīng)當(dāng)嘗試在已經(jīng)裝上掛接組件的夾具內(nèi)加載掛接組件(未盡安全管理的責(zé)任義務(wù))。”工業(yè)機(jī)器人通常被用于執(zhí)行高危、高強(qiáng)、高重復(fù)性的任務(wù),因此如果機(jī)器人廠商設(shè)計研發(fā)、生產(chǎn)制造出來的機(jī)器人不能符合保障人身、財產(chǎn)安全的國家、行業(yè)標(biāo)準(zhǔn),機(jī)器人的所有者、使用者或管理者在超出安全操作、管理規(guī)范外使用機(jī)器人,就有很大可能造成嚴(yán)重的危害后果。
由于工業(yè)機(jī)器人、無人駕駛汽車在本質(zhì)上沒有超出“物”的范疇,不過是植入智能系統(tǒng)的“智能產(chǎn)品”罷了,因此這些“用于銷售”的工業(yè)機(jī)器人、無人駕駛汽車必須符合《產(chǎn)品質(zhì)量法》第十三條的規(guī)定,即“對可能危及人體健康和人身、財產(chǎn)安全的工業(yè)產(chǎn)品,必須符合保障人體健康和人身、財產(chǎn)安全的國家標(biāo)準(zhǔn)、行業(yè)標(biāo)準(zhǔn);未制定國家標(biāo)準(zhǔn)、行業(yè)標(biāo)準(zhǔn)的,必須符合保障人體健康和人身、財產(chǎn)安全的要求?!碧貏e是工業(yè)機(jī)器人、無人駕駛汽車的硬件設(shè)備均受整個智能系統(tǒng)的控制,因此確保智能系統(tǒng)的穩(wěn)定、安全是實(shí)現(xiàn)工業(yè)機(jī)器人、無人駕駛汽車整體安全性的關(guān)鍵因素。這是賦予人工智能產(chǎn)品的生產(chǎn)者安全生產(chǎn)義務(wù)的法律依據(jù),如果生產(chǎn)者制造出來的機(jī)器人或者無人駕駛汽車不能符合保障人身、財產(chǎn)安全的國家標(biāo)準(zhǔn)或者行業(yè)標(biāo)準(zhǔn),并且造成嚴(yán)重后果的,相關(guān)的責(zé)任人就可能觸犯刑法第一百四十六條規(guī)定的生產(chǎn)、銷售不符合安全標(biāo)準(zhǔn)的產(chǎn)品罪。
人工智能產(chǎn)品除了在生產(chǎn)環(huán)節(jié)可能涉及產(chǎn)品生產(chǎn)安全帶來的一些刑事風(fēng)險,進(jìn)入到流通使用環(huán)節(jié),由于人工智能產(chǎn)品具有很多新技術(shù)的不確定性和復(fù)雜性,因此作為人工智能產(chǎn)品的所有者、使用者或者管理者可能還需要遵循一定的安全操作、管理規(guī)定或要求,例如工業(yè)機(jī)器人被投入到工廠的生產(chǎn)流水線上作業(yè),對生產(chǎn)負(fù)有組織、指揮或者管理職責(zé)的負(fù)責(zé)人、管理人就必須按照機(jī)器人的安全操作、管理規(guī)定以保障機(jī)器人和普通工人的生產(chǎn)工作安全,如果未盡安全管理義務(wù)造成嚴(yán)重后果的,相關(guān)負(fù)責(zé)人還可能承擔(dān)其他過失責(zé)任。
歷史上每一次技術(shù)革命都是工具的進(jìn)化史,從石器、鐵器到蒸汽機(jī)、電氣化,再到計算機(jī)、互聯(lián)網(wǎng)和人工智能,科技的發(fā)展從根本上改變了人們的生活方式。然而這種改變總是喜憂參半的,以計算機(jī)與犯罪的關(guān)系為例,在以“聯(lián)”為主的Web1.0時期,計算機(jī)犯罪尚停留在將計算機(jī)信息系統(tǒng)作為犯罪對象的前期發(fā)展階段,進(jìn)入到以“互”為主的Web2.0時期,網(wǎng)絡(luò)的工具化使得傳統(tǒng)犯罪發(fā)生了網(wǎng)絡(luò)異化,到了Web3.0時期,網(wǎng)絡(luò)平臺思維和網(wǎng)絡(luò)犯罪空間的生成,帶來了犯罪的全面網(wǎng)絡(luò)化演變。人工智能與計算機(jī)、互聯(lián)網(wǎng)的關(guān)系就像魚與水的關(guān)系,一方面人工智能依托互聯(lián)網(wǎng)平臺和大數(shù)據(jù)技術(shù)興盛而發(fā)展,另一方面又推動著傳統(tǒng)互聯(lián)網(wǎng)和工業(yè)物聯(lián)網(wǎng)進(jìn)一步向智能化邁進(jìn)。同計算機(jī)、互聯(lián)網(wǎng)的命運(yùn)一樣,人工智能也極有可能被犯罪分子工具化,所謂工具化即違背某物的用途或者違背某人的自身利益、意志,將其作為手段加以利用。人工智能的工具化是網(wǎng)絡(luò)工具化升級進(jìn)化的必然結(jié)果,由此可能會帶來犯罪全面“智能化”的危險。
2017年9月,浙江紹興警方破獲的全國首例利用人工智能侵犯公民個人信息一案便是行為人利用人工智能技術(shù)實(shí)施其他犯罪的最新適例。在該案中,非法入侵網(wǎng)站、利用人工智能技術(shù)識別圖片驗(yàn)證碼、制作撞庫軟件、非法買賣數(shù)據(jù)、實(shí)施網(wǎng)絡(luò)詐騙組成了一條完整的互聯(lián)網(wǎng)黑色產(chǎn)業(yè)鏈。黑客楊某搭建的“快啊”打碼平臺運(yùn)用人工智能機(jī)器深度學(xué)習(xí)方法訓(xùn)練機(jī)器,讓其可以自動快速地識別圖片驗(yàn)證碼,從而輕松繞過網(wǎng)絡(luò)服務(wù)提供者設(shè)置的賬戶安全登陸保護(hù)。借助“快啊”打碼平臺提供的這項(xiàng)技術(shù)服務(wù),以黃某為首的數(shù)據(jù)買賣團(tuán)伙利用網(wǎng)站漏洞順利侵入計算機(jī)信息系統(tǒng),在非法獲取了網(wǎng)站后臺用戶的注冊信息后以10萬組數(shù)據(jù)為一個單位賣給了制作撞庫軟件的團(tuán)伙。吳某、魏某等撞庫人員在獲取數(shù)據(jù)后直接與“快啊”打碼平臺對接進(jìn)行批量撞庫匹配,將各類賬戶與密碼匹配成功的賬戶信息再打包賣給網(wǎng)絡(luò)詐騙團(tuán)伙。最后以鄭某為代表的詐騙團(tuán)伙利用非法獲取的個人信息實(shí)施各類詐騙活動。不難發(fā)現(xiàn),黑客楊某利用人工智能的圖像識別技術(shù)所搭建的“快啊”打碼平臺,為非法侵入計算機(jī)信息系統(tǒng)、非法獲取系統(tǒng)數(shù)據(jù)的數(shù)據(jù)買賣團(tuán)伙突破驗(yàn)證碼的防護(hù)策略提供了犯罪工具,進(jìn)而為侵犯公民個人信息和實(shí)施網(wǎng)絡(luò)詐騙等犯罪活動提供了極大的犯罪便利。
目前,人工智能技術(shù)比較成熟的應(yīng)用主要集中在語音識別、自然語言理解、圖像識別、人臉識別、手寫識別、語音和文字的自動轉(zhuǎn)化等,由于人的語言聲音、面部特征和文字筆跡均具有極強(qiáng)的身份性和一定的隱私性,因此如果這些技術(shù)一旦被犯罪分子與互聯(lián)網(wǎng)平臺、大數(shù)據(jù)技術(shù)相結(jié)合利用,就特別容易威脅計算機(jī)信息系統(tǒng)的安全,造成公民個人信息的泄露,加劇網(wǎng)絡(luò)詐騙的嚴(yán)峻態(tài)勢。應(yīng)當(dāng)說,人工智能技術(shù)在計算機(jī)、網(wǎng)絡(luò)犯罪中的工具化不僅加快了整個互聯(lián)網(wǎng)黑色犯罪產(chǎn)業(yè)鏈的進(jìn)程,還催生了更大的社會危害后果。據(jù)辦案警方透露,在“快啊”打碼平臺被打掉的前三個月,就已經(jīng)提供驗(yàn)證碼識別服務(wù)259億次,被盜公民個人信息竟有10億余組,受騙金額多達(dá)2 000余萬元。
行為人利用人工智能的智能技術(shù)實(shí)施犯罪是犯罪工具智能化的突出表現(xiàn),這可能使得部分傳統(tǒng)犯罪的危害性發(fā)生“量變”。對于行為人利用人工智能技術(shù)實(shí)施的與計算機(jī)、網(wǎng)絡(luò)相關(guān)的犯罪,本文認(rèn)為可以考慮適用刑法第二百八十五條、第二百八十六條、第二百八十七條之一、第二百八十七條之二的規(guī)定定罪處罰;對于行為人利用人工智能的智能技術(shù)進(jìn)而實(shí)施詐騙、盜竊、竊取國家秘密或者其他犯罪的,可以考慮適用刑法第二百八十七條的規(guī)定定罪處罰。事實(shí)上,上述案例中的楊某即是以提供侵入計算機(jī)信息系統(tǒng)工具罪被浙江紹興警方予以逮捕的。
故意破壞人工智能的智能系統(tǒng)實(shí)施其他犯罪是指行為人首先通過遠(yuǎn)程侵入的手段對人工智能的智能系統(tǒng)進(jìn)行刪除、修改、干擾等破壞,然后再利用人工智能的不正常、不安全運(yùn)行達(dá)到實(shí)施其他犯罪的目的。例如,遠(yuǎn)程侵入從事高危高強(qiáng)工業(yè)生產(chǎn)的機(jī)器人的智能系統(tǒng),故意刪除、修改機(jī)器人的安全生產(chǎn)范圍,結(jié)果導(dǎo)致工業(yè)機(jī)器人將原本在安全生產(chǎn)范圍之外的工人錯誤當(dāng)作生產(chǎn)對象進(jìn)行操作;再如,遠(yuǎn)程侵入無人駕駛汽車的智能系統(tǒng),干擾、破壞其車載傳感器系統(tǒng),結(jié)果導(dǎo)致汽車在無人駕駛的行駛過程中因傳感器失靈無法精準(zhǔn)感知行人和障礙物信息進(jìn)而發(fā)生撞車、翻車等事故。在故意破壞人工智能的智能系統(tǒng)實(shí)施其他犯罪的復(fù)雜情形中,存在幾個疑難問題予以厘清。
1.實(shí)行行為著手的認(rèn)定
所謂牽連犯,是指行為人為了實(shí)施某種犯罪(本罪),其方法行為或者結(jié)果行為同時又觸犯其他罪名(他罪)的犯罪形態(tài)。根據(jù)這一定義,行為人遠(yuǎn)程侵入、破壞人工智能的智能系統(tǒng)與實(shí)施其他犯罪之間即存在手段與目的的牽連關(guān)系。對這類手段行為與目的行為相結(jié)合的犯罪,著手的認(rèn)定需要著重解決的問題就是按照哪個行為來確定。由于雙重行為同屬犯罪構(gòu)成所要求的實(shí)行行為,而著手是實(shí)行行為的起點(diǎn),因此開始實(shí)行第一行為即手段行為時就是犯罪的“著手”。當(dāng)然,手段行為本身也是包括一系列具有內(nèi)在聯(lián)系的動作,而不只是一個動作。例如,《刑法》第二百六十三條以暴力為手段行為的搶劫案中,就可以順序出現(xiàn)逼向被害人、追趕被害人、抓住被害人、毆打乃至傷害被害人等一系列動作,這些動作都是暴力手段行為的內(nèi)容。行為人實(shí)施其中最初的動作即開始實(shí)行手段行為,就應(yīng)認(rèn)定為搶劫罪的著手。據(jù)此,行為人在實(shí)施遠(yuǎn)程入侵、刪除、修改、干擾等破壞人工智能的智能系統(tǒng)的手段行為時即可認(rèn)為是實(shí)施其他犯罪的著手。
2.故意內(nèi)容的認(rèn)定
以無人駕駛汽車為例,A遠(yuǎn)程侵入、破壞了B無人駕駛汽車的智能系統(tǒng),導(dǎo)致B汽車在行駛過程中因攝像頭傳感器故障撞上了C,造成B重傷和C死亡的嚴(yán)重后果。危害結(jié)果,從廣義上說即行為在客觀上給某種社會關(guān)系造成危害或者可能造成危害的結(jié)果,既包括已經(jīng)發(fā)生的危害結(jié)果,也包括尚未發(fā)生但可能發(fā)生的危害結(jié)果,是一切犯罪故意的認(rèn)識內(nèi)容。B無人駕駛汽車的智能系統(tǒng)被破壞既有可能發(fā)生傷害的危害結(jié)果,也有可能發(fā)生死亡的危害結(jié)果,應(yīng)如何認(rèn)定A在實(shí)施侵入、破壞B汽車的智能系統(tǒng)時主觀故意的具體內(nèi)容呢?即A是基于傷害的故意還是基于殺人的故意去實(shí)施破壞B汽車的智能系統(tǒng)的行為呢?本文認(rèn)為:如果可以查明A是基于傷害的故意,卻發(fā)生重傷、死亡的危害結(jié)果,則成立故意傷害(致人重傷、致人死亡)罪(結(jié)果加重犯);如果可以查明A是基于殺人的故意,卻發(fā)生重傷、傷害的危害結(jié)果,則成立故意殺人罪(未遂);在無法查明的情況下,根據(jù)“存疑有利于被告人原則”,宜認(rèn)定A僅有基于傷害的故意。
行為人認(rèn)識到結(jié)果發(fā)生是確實(shí)的,但結(jié)果發(fā)生的行為對象不特定,即行為對象的個數(shù)以及哪個行為對象發(fā)生結(jié)果是不確定的,這是概括的故意。無人駕駛汽車作為私人交通工具進(jìn)入到公共道路交通領(lǐng)域,其自身的不正常、不安全運(yùn)行也會給不特定的其他人生命和財產(chǎn)安全構(gòu)成一定的威脅。因此A在實(shí)施侵入、破壞B汽車的智能系統(tǒng)時,是應(yīng)當(dāng)能夠預(yù)見到B汽車可能會發(fā)生翻車撞車事故,從而可能造成不特定第三人傷亡的危害結(jié)果的,因此A對任何第三人C所持的放任心態(tài)是基于概括的故意。此外,如果智能系統(tǒng)被破壞的無人駕駛汽車,其不正常、不安全的行駛狀態(tài)足以達(dá)到危害公共安全的程度,則還可能觸犯以危險方法危害公共安全罪。
利用人工智能的智能技術(shù)實(shí)施其他犯罪是利用人工智能的“智能”去犯罪,故意破壞人工智能的智能系統(tǒng)實(shí)施其他犯罪是破壞人工智能的“智能”去犯罪。反其道而行之,所謂利用人工智能的“不智能”實(shí)施其他犯罪是指行為人首先采取手段行為使得人工智能機(jī)器或者系統(tǒng)陷入錯誤的狀態(tài),然后再利用人工智能的錯誤運(yùn)行(即“不智能”)去實(shí)施目的行為。
關(guān)于“機(jī)器能否被騙”這一命題曾引發(fā)了不小的爭論,有的學(xué)者堅持主張“機(jī)器不能被騙,欺騙必須作用于被害人的大腦”。修正的觀點(diǎn)則指出“機(jī)器本身并不能被騙,但是機(jī)器背后的人可能受騙,對計算機(jī)詐騙實(shí)質(zhì)上是使計算機(jī)背后的人受了騙”。還有的學(xué)者認(rèn)為“隨著科技的發(fā)展,通過電腦的作用,機(jī)器也可以接受人所傳遞給它的信息并作出預(yù)期的反應(yīng),因缺乏人的靈活性,反而更容易成為欺騙的對象?!北疚恼J(rèn)為,“欺騙”所強(qiáng)調(diào)的是一種“陷入錯誤”的狀態(tài),理性自然人會因?yàn)槭茯_而陷入錯誤的認(rèn)識狀態(tài),機(jī)器即便不能被騙但也會因?yàn)槠渌蚨萑脲e誤的運(yùn)行狀態(tài)。不可否認(rèn),人尚且還會出錯,機(jī)器當(dāng)然也會出錯,機(jī)器出錯即機(jī)器陷入了錯誤的系統(tǒng)操作運(yùn)行狀態(tài)。承認(rèn)“機(jī)器會出錯”或許可以為我們思考“機(jī)器能否被騙”這一命題提供新的方向和路徑。
事實(shí)上,人工智能并不是完美的,人臉識別系統(tǒng)就時常出錯。倫敦警方在利用人臉識別系統(tǒng)搜尋犯罪嫌疑人時,大約發(fā)生了35次錯誤的身份匹配,并導(dǎo)致其中一人被錯誤地“逮捕”。一般地,換了發(fā)型、多了眼鏡、女生的彩妝、男生的胡子、面部整容、雙胞胎等因素都會影響系統(tǒng)的識別,根據(jù)美國麻省理工學(xué)院某項(xiàng)研究結(jié)果還顯示,膚色越暗,人臉識別系統(tǒng)發(fā)生的錯誤率越高?,F(xiàn)在人臉識別這項(xiàng)人工智能技術(shù)被大規(guī)模應(yīng)用在以銀行、保險為代表的金融領(lǐng)域,國內(nèi)多家銀行推出“身份驗(yàn)證”、“刷臉取款”、“刷臉支付”的試點(diǎn),開啟密碼與人臉同步驗(yàn)證,實(shí)現(xiàn)用戶無卡取款。應(yīng)當(dāng)說,在人臉識別系統(tǒng)智能的情況下,通過客戶刷臉和銀行卡密碼雙重身份的核驗(yàn)可以幫助解決銀行卡被盜和密碼泄露帶來的財產(chǎn)安全風(fēng)險,但是如果行為人采用人臉偽裝技術(shù)使得人臉識別系統(tǒng)陷入了錯誤的狀態(tài),并基于錯誤的運(yùn)行“交付”了財產(chǎn),造成了被害人的財產(chǎn)損失,即是利用人臉識別系統(tǒng)的“不智能”實(shí)施的犯罪。
所謂“產(chǎn)品缺陷”,根據(jù)我國《產(chǎn)品質(zhì)量法》的規(guī)定,是指產(chǎn)品存在危及人身、他人財產(chǎn)安全的不合理的危險,簡言之,即產(chǎn)品具有不合理的欠缺安全性的狀態(tài)。比如無人駕駛汽車如果存在智能系統(tǒng)故障或者剎車離合器失靈等情況,即屬于產(chǎn)品缺陷。缺陷人工智能產(chǎn)品致人死傷最為典型的案例就是機(jī)器人“殺人”事件,1978年日本廣島一家工廠的切割機(jī)器人在切割鋼板時突發(fā)異常,將一名值班的工人當(dāng)作鋼板操作,這是世界上第一例機(jī)器人“殺人”案;1989年也是在日本的一家無人工廠里,機(jī)器人將一名維修工人強(qiáng)行拖入轉(zhuǎn)動的機(jī)器中絞死。據(jù)粗略統(tǒng)計,日本已有10余名工人慘死于機(jī)器人的“手”下,致傷殘的多達(dá)7 000余人。
1.從產(chǎn)品的侵權(quán)責(zé)任到產(chǎn)品的刑事責(zé)任
各國的立法與實(shí)踐對缺陷產(chǎn)品致人死傷的責(zé)任追究都經(jīng)歷了從民事賠償?shù)叫淌轮撇玫倪^程。作為世界上產(chǎn)品責(zé)任法最完善、最發(fā)達(dá)的美國,基本上將缺陷產(chǎn)品致人死傷的案件作為民事侵權(quán)案件來處理,直至1980年的印第安納州訴福特汽車公司疏忽大意殺人案(State of Indiana v. Ford Motor Co.)才改變了這一固有的狀況。該案中三名被害人因其駕駛的福特汽車油箱漏油而被燒死,雖然最后法院仍將該起事故認(rèn)定為侵權(quán),福特公司無罪,但是在此之后聯(lián)邦與各州有關(guān)產(chǎn)品缺陷刑事責(zé)任的立法逐漸增多起來。德國亦將其產(chǎn)品責(zé)任限定于民事侵權(quán)領(lǐng)域,刑法對于產(chǎn)品的生產(chǎn)者與銷售者所負(fù)的責(zé)任一直以來都沒有給予很高的關(guān)注,后來在毛拉赫(Maurach)與施羅德(Schroeder)撰寫的第五版《德國刑法教科書》中才明確地提到了產(chǎn)品刑事責(zé)任的概念,并且在20世紀(jì)90年代發(fā)生的“皮革噴霧劑案”(BSHSt. 37,106)和“木材防腐劑案”(BSHSt. 41,206)中,德國最高聯(lián)邦法院最終判決生產(chǎn)企業(yè)的負(fù)責(zé)人成立過失傷害罪。日本對于缺陷產(chǎn)品的刑事責(zé)任追究則相對晚了許多,2000年之后發(fā)生的著名案例有三菱汽車公司隱瞞汽車質(zhì)量問題致人死亡事件。當(dāng)時三菱汽車公司不僅沒有根據(jù)法律向國土交通省報告其生產(chǎn)的載重汽車離合器系統(tǒng)零部件質(zhì)量存在問題,也沒有采取將問題車輛召回檢修等必要措施,最終導(dǎo)致一名司機(jī)因卡車離合器系統(tǒng)質(zhì)量問題發(fā)生重大交通事故而當(dāng)場死亡。事后日本警方以涉嫌“業(yè)務(wù)過失致死罪”逮捕了三菱汽車公司前總經(jīng)理何添克彥等6人。
2.建立產(chǎn)品刑事責(zé)任的必要性
缺陷產(chǎn)品致人死傷事件的法律定性從民事侵權(quán)發(fā)展為刑事犯罪最直接的原因是行為的違法性程度和社會危害性超越了刑法的容忍邊界。刑法作為保障法、補(bǔ)充法和事后法已經(jīng)成為共識,“所有部門法所保護(hù)和調(diào)整的社會關(guān)系,都會同時借助刑法的保護(hù)與調(diào)整,刑法是其他部門法的保障法,是其他部門法的保障和后盾,如果將其他部門法比作第一道防線,刑法則是第二道防線”。所以當(dāng)且只有當(dāng)“前置法對違法行為的管控?zé)o效或違法性程度已經(jīng)超出前置法的管轄,這類行為才有交由刑法接管的資格”。在缺陷產(chǎn)品致人死傷的責(zé)任認(rèn)定中,由侵權(quán)責(zé)任向刑事責(zé)任的演變也正是行為的違法性程度和社會危害性不斷累積的結(jié)果。如果說因福特汽車油箱漏油而導(dǎo)致三名受害人被燒死還勉強(qiáng)符合一般違法的程度,社會危害性較輕,法院判決福特公司承擔(dān)民事侵權(quán)責(zé)任也是恰當(dāng)?shù)?。那么日本三菱公司在明知其生產(chǎn)的載重汽車離合器系統(tǒng)零部件存在質(zhì)量問題的情況下,仍然故意隱瞞汽車質(zhì)量問題并且未采取任何召回、檢修等必要措施以防止危害結(jié)果的進(jìn)一步擴(kuò)大。事實(shí)上,早在1999年由于類似質(zhì)量問題就曾引發(fā)一起事故,最終導(dǎo)致司機(jī)發(fā)生交通事故身亡的嚴(yán)重社會危害后果,應(yīng)當(dāng)說日本三菱公司的行為性質(zhì)更惡劣,給社會造成的危害后果更嚴(yán)重,已經(jīng)具有相當(dāng)程度的違法性和社會危害性。
另一方面,建立產(chǎn)品的刑事責(zé)任是民、刑不同責(zé)任功能互補(bǔ)的結(jié)果。法律責(zé)任的功能主要有三,即懲罰、救濟(jì)和預(yù)防,民事責(zé)任和刑事責(zé)任作為法律責(zé)任的具體表現(xiàn)形式必然都秉承著這三項(xiàng)功能,但二者各有側(cè)重。民事侵權(quán)責(zé)任關(guān)注已然受損的受害人,遵循“無損害則無賠償”的一般原則,側(cè)重對受害人損害、損失的補(bǔ)償和權(quán)利的恢復(fù)救濟(jì),“損害賠償?shù)淖罡咧笇?dǎo)原則在于賠償受害人所受之損害,俾于賠償之結(jié)果,有如損害事故未曾發(fā)生者然”。刑事責(zé)任的主要特色則在于懲罰和預(yù)防功能。首先刑事責(zé)任突出的表現(xiàn)為對犯罪的懲罰,如果說民事侵權(quán)責(zé)任是通過賠償來直接救濟(jì)受害人的利益,那么刑事責(zé)任則是通過對犯罪人的刑罰懲罰來間接地保護(hù)被害人的利益。此外,刑法不僅關(guān)注已然受損的特定被害人,更著眼于未來可能受損的一般人,應(yīng)當(dāng)明確,國家制定刑罰、適用刑罰和執(zhí)行刑法所追求的,乃是以刑法作為手段同犯罪作斗爭,從而最終實(shí)現(xiàn)一般預(yù)防犯罪的目的。建立產(chǎn)品的刑事責(zé)任可以彌補(bǔ)民事責(zé)任在懲罰、預(yù)防功能上的薄弱和不足,對于具有相當(dāng)違法性和嚴(yán)重社會危害性的侵權(quán)行為在定性上有必要升格為犯罪,并科以刑罰。此外,隨著民眾對食品、藥品、汽車等與日常生活密切相關(guān)的商(產(chǎn))品與日俱增的安全需要,刑法是控制風(fēng)險、安撫民眾不安情緒較有力的預(yù)防與威懾手段。
1.生產(chǎn)階段:研發(fā)生產(chǎn)者的保障產(chǎn)品安全義務(wù)與故意責(zé)任
(1)保障產(chǎn)品安全的義務(wù)
人工智能產(chǎn)品的設(shè)計者、生產(chǎn)者應(yīng)當(dāng)確保其設(shè)計、制造的產(chǎn)品安全、可靠,“安全性”不僅是社會公眾對技術(shù)尚未成熟的人工智能產(chǎn)品的首要關(guān)注,也是我國《產(chǎn)品質(zhì)量法》的法中之義。根據(jù)《產(chǎn)品質(zhì)量法》第二十六條第一項(xiàng)的規(guī)定:“生產(chǎn)者應(yīng)當(dāng)對其生產(chǎn)的產(chǎn)品質(zhì)量負(fù)責(zé)。產(chǎn)品質(zhì)量應(yīng)當(dāng)符合下列要求:(一)不存在危及人身、財產(chǎn)安全的不合理的危險,有保障人體健康和人身、財產(chǎn)安全的國家標(biāo)準(zhǔn)、行業(yè)標(biāo)準(zhǔn)的,應(yīng)當(dāng)符合該標(biāo)準(zhǔn)?!庇纱丝梢?,保證人工智能產(chǎn)品的質(zhì)量安全是生產(chǎn)者的一項(xiàng)法定義務(wù),即“保障產(chǎn)品安全的義務(wù)”。
判斷產(chǎn)品是否安全存在兩個標(biāo)準(zhǔn),即“不合理危險”標(biāo)準(zhǔn)和國家、行業(yè)標(biāo)準(zhǔn)。由于目前人工智能產(chǎn)品制造業(yè),比如在機(jī)器人、無人駕駛汽車等領(lǐng)域,均未正式制定統(tǒng)一的國家、行業(yè)標(biāo)準(zhǔn),因此現(xiàn)階段用來判斷人工智能產(chǎn)品是否存在缺陷就只剩下“不合理危險”標(biāo)準(zhǔn)了。所謂“不合理的危險”,按照《美國第二次侵權(quán)法重述》第402A條的解釋,是指產(chǎn)品的危險性超出了具有一般社會認(rèn)知水平的普通消費(fèi)者對產(chǎn)品安全性的合理預(yù)期。比如智能汽車主要是依靠攝像頭和雷達(dá)配合組成的多方位傳感器系統(tǒng)來感知車身的具體位置和外界的障礙物情況,從而實(shí)現(xiàn)無人駕駛的目的,如果智能汽車其中之一的攝像頭傳感器存在質(zhì)量問題,即經(jīng)常發(fā)生故障或者失靈,則屬于不合理的危險。
產(chǎn)品存在不合理的危險或者不符合強(qiáng)制性的國家、行業(yè)標(biāo)準(zhǔn)即為“缺陷產(chǎn)品”。人工智能產(chǎn)品的缺陷主要體現(xiàn)在兩個方面:第一,設(shè)計上的缺陷。產(chǎn)品設(shè)計是產(chǎn)品制造的前置階段,任何產(chǎn)品都需要經(jīng)過設(shè)計才能投入生產(chǎn)、制造。人工智能產(chǎn)品的設(shè)計除了包含一般產(chǎn)品在外觀和硬件設(shè)備上的設(shè)計外,還包括最為關(guān)鍵的軟件程序的開發(fā)和智能系統(tǒng)的設(shè)計。由于人工智能產(chǎn)品的硬件設(shè)備完全是被智能程序系統(tǒng)所操控的,因此人工智能產(chǎn)品的整體安全性在很大程度上取決于智能系統(tǒng)的安全性、可靠性。第二,制造上的缺陷。廣義的制造包括生產(chǎn)、加工、裝配、調(diào)試等環(huán)節(jié),人工智能產(chǎn)品如果在生產(chǎn)、加工環(huán)節(jié)“與設(shè)計有所偏離”,即多了不該多的東西、少了不該少的東西、用了不該用的東西,即會被認(rèn)定為存在缺陷。特別是人工智能產(chǎn)品在安裝、調(diào)試等非常規(guī)操作過程中,應(yīng)當(dāng)特別注意由于智能系統(tǒng)的不穩(wěn)定性可能產(chǎn)生的危險,事實(shí)上,機(jī)器人在安裝、調(diào)試階段就特別多發(fā)系統(tǒng)故障致人意外死傷事件。人工智能產(chǎn)品如果在測試、安裝階段被發(fā)現(xiàn)可能存在不合理危險,應(yīng)當(dāng)立即停止產(chǎn)品的全面流通和使用并及時報告。
(2)生產(chǎn)不符合安全標(biāo)準(zhǔn)的產(chǎn)品罪
人工智能與工業(yè)物聯(lián)網(wǎng)的結(jié)合開啟了制造業(yè)全面智能化的時代,工業(yè)機(jī)器人不僅幫助實(shí)現(xiàn)了工廠的無人化生產(chǎn),人工智能產(chǎn)品還越來越多地走進(jìn)了人們的家庭生活中,比如智能彩電、智能冰箱、智能空調(diào)、無人駕駛汽車等。目前人工智能產(chǎn)品正在如火如荼地進(jìn)行研發(fā)、設(shè)計、生產(chǎn)和測試,有鑒于這些人工智能產(chǎn)品與我們的人身權(quán)利和財產(chǎn)權(quán)利密切相關(guān),本文建議應(yīng)當(dāng)加快推進(jìn)人工智能產(chǎn)品的國家、行業(yè)標(biāo)準(zhǔn)的制定與實(shí)施,一方面有助于保障人工智能產(chǎn)品的安全性,進(jìn)而保護(hù)公民的人身健康和財產(chǎn)利益,消除社會民眾對人工智能產(chǎn)品質(zhì)量的不安感;另一方面,制定國家、行業(yè)標(biāo)準(zhǔn)可以為違反“保障產(chǎn)品安全義務(wù)”、生產(chǎn)具有不合理危險的人工智能產(chǎn)品成立“生產(chǎn)不符合安全標(biāo)準(zhǔn)的產(chǎn)品罪”提供主觀上“明知”的依據(jù)。
我國的產(chǎn)品刑事責(zé)任集中規(guī)定在刑法分則第三章破壞社會主義市場經(jīng)濟(jì)秩序罪中的“生產(chǎn)、銷售偽劣商品罪”一節(jié),共有9個罪名11個法律條文,其中就有7個罪名涉及對缺陷藥品、食品、醫(yī)用器材、農(nóng)藥、獸藥、化肥、種子、化妝品等特殊產(chǎn)品的規(guī)制,對一般產(chǎn)品的規(guī)制僅有第一百四十條生產(chǎn)、銷售偽劣產(chǎn)品罪和第一百四十六條生產(chǎn)、銷售不符合安全標(biāo)準(zhǔn)的產(chǎn)品罪。生產(chǎn)、銷售不符合安全標(biāo)準(zhǔn)的產(chǎn)品罪的主觀罪過形式是故意,即生產(chǎn)者在明知其生產(chǎn)的產(chǎn)品存在國家、行業(yè)標(biāo)準(zhǔn)的情況下還故意生產(chǎn)不符合保障人身、財產(chǎn)安全的、有違國家標(biāo)準(zhǔn)、行業(yè)標(biāo)準(zhǔn)的產(chǎn)品。制定人工智能產(chǎn)品的國家、行業(yè)標(biāo)準(zhǔn),實(shí)際上是將設(shè)計者、生產(chǎn)者“保障產(chǎn)品安全的義務(wù)”具體化,為認(rèn)定設(shè)計者、生產(chǎn)者是否履行這一法定義務(wù)提供衡量尺度和判斷標(biāo)準(zhǔn)。如果人工智能產(chǎn)品的設(shè)計者、生產(chǎn)者設(shè)計、生產(chǎn)的人工智能產(chǎn)品不符合國家、行業(yè)標(biāo)準(zhǔn),即違反了“保障產(chǎn)品安全的義務(wù)”,造成缺陷產(chǎn)品致人死傷等嚴(yán)重危害后果的,設(shè)計者、生產(chǎn)者即有可能觸犯生產(chǎn)不符合安全標(biāo)準(zhǔn)的產(chǎn)品罪。
總之,人工智能產(chǎn)品的設(shè)計者、生產(chǎn)者應(yīng)當(dāng)在研發(fā)設(shè)計、生產(chǎn)制造人工智能產(chǎn)品的過程中履行法定的“保障產(chǎn)品安全的義務(wù)”,以保證人工智能產(chǎn)品在硬件設(shè)備和智能系統(tǒng)上的雙重安全性,人工智能產(chǎn)品的設(shè)計者尤其還應(yīng)當(dāng)注意其研發(fā)的智能系統(tǒng)的可行性、可靠性。為了全面促進(jìn)人工智能技術(shù)在智能制造業(yè)的長足、良性發(fā)展,需要盡快制定人工智能產(chǎn)品的國家標(biāo)準(zhǔn)或行業(yè)標(biāo)準(zhǔn)。如果人工智能產(chǎn)品不符合保障人身、財產(chǎn)安全的國家、行業(yè)標(biāo)準(zhǔn),并且造成嚴(yán)重后果的,設(shè)計者、生產(chǎn)者即有可能觸犯生產(chǎn)不符合安全標(biāo)準(zhǔn)的產(chǎn)品罪。
2.流通階段:生產(chǎn)者的召回義務(wù)、所有者或使用者的安全管理義務(wù)與過失責(zé)任
(1)生產(chǎn)者的召回義務(wù)與過失責(zé)任
與我國刑法專章建立產(chǎn)品的刑事責(zé)任不同,德國和日本在其刑法典中沒有專門的法律條文來規(guī)定產(chǎn)品的刑事責(zé)任,一般是按照故意殺人罪、故意傷害罪來處理故意的刑事產(chǎn)品責(zé)任,以過失殺人罪、過失傷害罪來處理過失的刑事產(chǎn)品責(zé)任,并且以過失的刑事產(chǎn)品責(zé)任更為多見,正如前文所述,在德國的皮革噴霧劑案中企業(yè)的負(fù)責(zé)人即成立過失傷害罪,日本三菱公司的前總經(jīng)理等人也是成立業(yè)務(wù)過失致死罪。然而在我國并沒有過失的刑事產(chǎn)品責(zé)任,刑法分則第三章第一節(jié)規(guī)定的“生產(chǎn)、銷售偽劣商品罪”均為故意犯罪,司法實(shí)踐中對于此類案件大多是作為民事侵權(quán)的案件來處理。因此下面不妨以德國著名的“皮革噴霧劑案”為例,深入討論產(chǎn)品投入流通使用后生產(chǎn)者的后續(xù)召回義務(wù)以及過失責(zé)任的承擔(dān)。
“皮革噴霧案”的基本案情如下:X有限責(zé)任公司是一家生產(chǎn)皮鞋及其他皮具護(hù)理用品的公司,其產(chǎn)品中包括一款作為護(hù)理劑和染料劑的皮革噴霧劑,由旗下的子公司E和S負(fù)責(zé)推銷。1980年秋該公司收到了用戶的投訴報告,稱其在使用皮革噴霧劑后出現(xiàn)了咳嗽、寒顫、發(fā)熱、呼吸困難等嚴(yán)重的健康損害,部分甚至有生命危險。公司對此進(jìn)行了內(nèi)部調(diào)查并改變了配方,但并未達(dá)到理想的效果。1981年5月12日,X公司主管人員就此召開了特別會議,與會人員包括S、Sch博士、R、O及公司的首席化學(xué)家B博士。B博士提出根據(jù)現(xiàn)有的調(diào)查并沒有足夠的證據(jù)證明皮革噴霧劑中存在有毒物質(zhì)。據(jù)此公司的董事會做出決定,在日后的調(diào)查能夠確定產(chǎn)品確實(shí)存在缺陷、對消費(fèi)者產(chǎn)生危險之前不召回產(chǎn)品也不停止銷售產(chǎn)品,也不采取警告行動,而只是對產(chǎn)品外包裝上的提示進(jìn)行完善。E公司和S公司的負(fù)責(zé)人在各自的主管范圍內(nèi)執(zhí)行了董事會決議。之后,大量的消費(fèi)者在使用皮革噴霧劑之后仍然出現(xiàn)了身體損害的情況。最后,聯(lián)邦衛(wèi)生健康部介入并對產(chǎn)品進(jìn)行了召回。
一審法院直接從民法上產(chǎn)品的“安全確保義務(wù)”以及召回義務(wù)引申出刑法上的作為義務(wù),認(rèn)為X公司既沒有生產(chǎn)安全的產(chǎn)品,也沒有在損害事件發(fā)生后采取召回等必要措施以回避危害結(jié)果的擴(kuò)大,因此X公司的兩名董事成立過失傷害罪(不作為)。一審法院的判決招致了一些批判,“將民事義務(wù)直接拿來作為刑事義務(wù)的根據(jù)并不充分,而且還有擴(kuò)大刑事責(zé)任的危險?!痹S乃曼教授認(rèn)為生產(chǎn)者對于已經(jīng)進(jìn)入市場流通的產(chǎn)品不具有事實(shí)上、實(shí)質(zhì)性的支配權(quán),不能對產(chǎn)品施加影響,從而否認(rèn)了生產(chǎn)者的保證人地位,生產(chǎn)者、銷售者對于已經(jīng)投入流通的產(chǎn)品都不具有召回的作為義務(wù),由此引發(fā)的產(chǎn)品致人損害不承擔(dān)傷害罪(不作為)的刑事責(zé)任。聯(lián)邦最高法院則以“先行行為說”肯定了生產(chǎn)者的召回義務(wù),生產(chǎn)者將危險產(chǎn)品置于流通領(lǐng)域的行為是一個危險的先行行為,因此X公司負(fù)有召回已經(jīng)銷售出去的皮革噴霧劑的作為義務(wù)。本文贊成聯(lián)邦最高法院的最終判決意見,認(rèn)為如果生產(chǎn)者已經(jīng)知道或者應(yīng)當(dāng)知道其生產(chǎn)的產(chǎn)品可能因?yàn)槿毕莅l(fā)生致人損害的結(jié)果,應(yīng)當(dāng)采取必要的召回措施以防止損害結(jié)果的進(jìn)一步擴(kuò)大,從而保護(hù)其他社會民眾免受缺陷產(chǎn)品的再次或者繼續(xù)侵害;如果生產(chǎn)者未履行結(jié)果回避義務(wù),造成擴(kuò)大的結(jié)果發(fā)生,生產(chǎn)者對擴(kuò)大的危害結(jié)果至少應(yīng)當(dāng)承擔(dān)過失責(zé)任。
人工智能產(chǎn)品相較于一般產(chǎn)品顯得更為復(fù)雜與特殊,由于人工智能技術(shù)自身的不成熟與不確定性,人工智能產(chǎn)品的智能系統(tǒng)并不是完全安全、可靠的。人工智能產(chǎn)品的設(shè)計者、生產(chǎn)者不僅要在生產(chǎn)階段履行保障產(chǎn)品安全的法定義務(wù),在產(chǎn)品投入流通使用后,更是要對產(chǎn)品的智能系統(tǒng)進(jìn)行跳躍式的跟蹤觀察,如果一旦發(fā)現(xiàn)產(chǎn)品的智能系統(tǒng)存在異常、故障的情形,應(yīng)當(dāng)立即采取警示、召回等必要的措施,以避免缺陷產(chǎn)品致人死傷結(jié)果的發(fā)生。人工智能產(chǎn)品的生產(chǎn)者在知道(自己發(fā)現(xiàn))或應(yīng)當(dāng)知道(被告知)其生產(chǎn)的人工智能產(chǎn)品可能存在缺陷,仍未履行召回義務(wù),造成危害結(jié)果的進(jìn)一步擴(kuò)大,對于擴(kuò)大的結(jié)果生產(chǎn)者至少應(yīng)當(dāng)承擔(dān)過失致人傷害、過失致人死亡的刑事責(zé)任。
(2)所有者、使用者的安全管理義務(wù)與過失責(zé)任
人工智能產(chǎn)品的所有者、使用者應(yīng)當(dāng)嚴(yán)格遵守人工智能產(chǎn)品的安全操作規(guī)范,以保障人工智能產(chǎn)品的安全、有序運(yùn)行。由于人工智能產(chǎn)品的智能系統(tǒng)是有嚴(yán)格的編制程序的,未遵循人工智能產(chǎn)品的安全操作規(guī)范很可能會導(dǎo)致人工智能產(chǎn)品出現(xiàn)異常的情形,比如在前文所述的案例中,工廠將原本應(yīng)當(dāng)在130區(qū)域工作的機(jī)器人放置在140區(qū)域,并且讓機(jī)器人嘗試在已經(jīng)裝上掛接組件的夾具內(nèi)加載掛接組件,不僅變更了機(jī)器人的安全工作區(qū)域,還變更了機(jī)器人的工作程序和工作任務(wù),從而導(dǎo)致機(jī)器人突發(fā)異常,將保持機(jī)器人正常工作的工人錯誤操作致其死亡。因此,人工智能產(chǎn)品的所有者、使用者應(yīng)當(dāng)特別注意遵循人工智能產(chǎn)品的安全操作規(guī)范,如因違反安全管理義務(wù)而發(fā)生嚴(yán)重的危害后果應(yīng)當(dāng)由所有者、使用者或者管理者承擔(dān)相應(yīng)的過失責(zé)任。
人工智能所帶來的新問題并不高深,我們對待這些新問題也不必心生畏懼,不敢觸碰。面對這一新技術(shù)對于傳統(tǒng)刑法所提出的種種挑戰(zhàn),我們首要需要考慮的是人工智能與傳統(tǒng)刑法如何對接的問題。在過去的30年里,我們在遇到新情況的時候,更多地傾向于通過立法來解決問題,典型的在應(yīng)對網(wǎng)絡(luò)犯罪、恐怖主義的問題上,通過大量增設(shè)新的罪名將預(yù)備行為正犯化、幫助行為正犯化,或者是擴(kuò)大犯罪構(gòu)成要件,降低犯罪門檻;再比如通過立法對生物醫(yī)療、基因科學(xué)等新技術(shù)、新情況予以規(guī)制。應(yīng)當(dāng)說,我們的立法還是非常積極主動的。但是,對于人工智能、自動系統(tǒng)等帶來的新問題,本文認(rèn)為可以通過舊的刑法教義學(xué)得以解決的,就不必要再通過增設(shè)新的罪名或者刑罰來應(yīng)對人工智能產(chǎn)生的新挑戰(zhàn)和安全威脅。任何問題的討論都必須基于特定的時代背景,既不能太保守落后,也不必過于超前,牢牢把握當(dāng)下我們所處于并將長期處于的弱人工智能的發(fā)展階段,才能打開人工智能刑法的理性視域。