国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于人工智能的軍事智能武器犯罪問題初論

2018-01-24 17:34夏天
犯罪研究 2017年6期
關鍵詞:軍事犯罪法律

夏天

內容摘要:十九大報告中提出堅持走中國特色強軍之路,加快軍事智能武器發(fā)展??梢灶A見,基于人工智能的軍事智能武器,必然會成為未來戰(zhàn)場的主角。但是,“機器人戰(zhàn)士”會不會也像人一樣犯罪?這不僅是理論問題,更是現(xiàn)實問題??梢詮能娛轮悄芪淦鞯姆缸镄螒B(tài)和責任歸屬上入手,研判未來可能發(fā)生的防范此類犯罪的情況。

關鍵字:軍事智能武器;犯罪;人工智能

習近平總書記在黨十九大報告中提出,要發(fā)展新型作戰(zhàn)力量與保障力量,加快軍事智能化發(fā)展。軍事力量作為一個國家基礎性保障力量,是一個國家綜合國力的重要組成部分,影響著這個國家的安全與穩(wěn)定,同時也決定了一個國家在國際社會的地位,而軍事智能武器作為未來軍事力量競爭中的制高點,能夠確保在未來非對稱作戰(zhàn)中保持優(yōu)勢,發(fā)展軍事智能武器就顯得尤為重要。立足現(xiàn)在,著眼未來戰(zhàn)爭,將來的戰(zhàn)場上勢必會有大量軍事智能武器投入使用,通俗的講就是會有更多“無人機”“機器戰(zhàn)士”取代人類成為戰(zhàn)場的主角。這些未來有著高級人工智能的“機器戰(zhàn)士”會不會也像我們人類一樣,有犯罪的可能?或者“沖動”?在人類社會第三次產業(yè)革命進入“網絡世界”“大數(shù)據時代”,基于人工智能的軍事智能武器的犯罪可能性和追責問題,就成為一個防患于未然的現(xiàn)實課題。

一、基于人工智能的軍事智能武器發(fā)展趨勢

(一)人工智能與軍事智能武器

未來軍事智能武器的發(fā)展,從技術層面上講是基于人工智能的發(fā)展水平。所謂人工智能(Artificial Intelligence,英文縮寫AI),它是研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術及應用的一門新的技術科學。 人工智能這一概念起源于1956年,以麥卡賽、明斯基、羅切斯特和申農等為首的一批年輕科學家們在一次學會中,共同研究和探討用機器模擬智能的一系列問題,并首次提出了“人工智能”這一術語。經過60多年的演進,目前,人工智能已經在智能感知(行為感知與語言識別)、智能推理(邏輯推理能力)、智能學習(自主學習升級)、智能行動(當前主要表現(xiàn)為機器人)等方面有著突破性的進展。2016年被稱為人工智能元年,人工智能如井噴式的爆發(fā),先有阿爾法狗以4:1的成績擊敗世界圍棋冠軍李世石,人工智能初現(xiàn)崢嶸;后有IBM研發(fā)的醫(yī)療機器人對于病患的診斷效率比人類快30倍,而且準確率高達99%,人工智能再下一城;甚至IBM研制出世界首個人工相變神經元 、微軟人工智能設備的語言理解能力擊敗人類、德國科學家研發(fā)出能夠感知疼痛的人工神經系統(tǒng)已經使得人工智能開始逐步由弱人工智能向著強人工智能轉變,等等,給人們帶來了一個充滿傳奇與未知的世界。

縱觀人類的科技史,往往重大先進的科學技術都在軍事領域得到首先應用,人工智能也不例外 。軍事智能武器的核心是人工智能,代表了未來戰(zhàn)爭的發(fā)展態(tài)勢。可以說,現(xiàn)代意義上的軍事智能武器就是指那些“具有人工智能,可自動尋找、識別、跟蹤和摧毀目標的現(xiàn)代化高科技武器,它集指揮高效化、打擊準確化、操作自動化、行為智能化于一身”。目前可以預判的是,隨著軍事智能武器的大量用于實戰(zhàn),必然會減少專業(yè)軍事人員的人數(shù),降低培養(yǎng)和維護成本,也可以最大限度地避免人的生命危險,甚至可以避免現(xiàn)階段即不絕于耳的“無人機誤炸”事件。當前,無人攻擊機誤炸是由于遠程操作者精神和生理問題導致的人為失誤引起,而人工智能不會感到疲倦,也不受感情因素影響,軍事智能型武器可以避免人為失誤,準確完成任務。

在新時代里隨著人工智能技術的不斷發(fā)展,軍事領域的人工智能應運將顯得十分需要,因為它能夠改變傳統(tǒng)的軍事斗爭形式,是贏得國家安全戰(zhàn)略的重要切入點,隨著我國民用人工智能的出現(xiàn)和軍事智能武器的發(fā)展,也使得傳統(tǒng)的法律原則和法律規(guī)則基礎產生動搖,尤其隨著智能機器人的出現(xiàn),以及人格化的人工智能的發(fā)展,需要法律對人格化的智能機器人作出身份上的明確規(guī)定,這也是明確人工智能責任和能力的前提和基礎

(二)軍事智能武器發(fā)展歷史演進

軍事智能武器最早可以追溯到20世紀20年代,當時第一次世界大戰(zhàn)正酣,英國的卡德爾和皮切爾兩位將軍,向英國軍事航空學會提出一項建議:研制一種不用人駕駛,而用無線電操縱的小型飛機,使他能夠飛到敵方某一目標區(qū)上空,將事先裝在小飛機上的炸彈投下去。這樣一種簡易的無人機正是后續(xù)無人武器與智能武器的開端。

伴隨著第三次科技革命的興起,網絡、計算機與人工智能發(fā)展,軍用智能武器隊伍也伴隨著第三次科技革命而迅速壯大。截止到上世紀末,軍用智能武器形成了以軍用智能機器人、軍用無人機、軍用無人艦艇為代表的三類智能化武器裝備。智能機器人方面則以iRobot公司為代表,它所設計研發(fā)的款名為“費奇”機器人,目的是為了清除飛機場上的集束炸彈的子彈,還有1998年設計的“背包”機器人,主要通過搭載一些輔助設備,進行排爆、生化武器檢測等輔助性戰(zhàn)斗;而軍用無人機的起源可以追溯到上世紀40年代末,當時為訓練戰(zhàn)斗機飛行員和防空導彈操作手而研發(fā)的一款代號為Q-2“火蜂”的靶機,這是現(xiàn)代無人機的鼻祖;至于軍用無人艦艇,在上世紀末也主要運用于一些輔助性戰(zhàn)斗中:搜索水雷與情報偵察。例如瑞典的“雙鷹”無人潛艇可以借助傳感器對其周圍300米的水雷進行安全爆破;被稱為NMRS的近期魚雷偵察系統(tǒng),是美國海軍1999年投入使用的第一代搜索魚雷用的無人潛艇。

進入21世紀,軍事智能武器開始有了長足發(fā)展。首先智能機器人隨著技術的改良,開始搭載一些武器裝備,搖身一變成為在戰(zhàn)場上炙手可熱的武器裝備,例如1998年設計的“背包”機器人通過拓展武器裝備變身為2003年伊拉克戰(zhàn)爭中的排爆專家;一款型號為“利劍”(SWORDS)的機器人,可以搭載任何重量在300磅以下的武器系統(tǒng),從M-16自動步槍到0.5英寸口徑機槍,甚至40擲彈筒或反坦克火箭發(fā)射器都沒有問題?!氨嘲睓C器人和“利劍”機器人只是活躍在當今戰(zhàn)場的新型無人系統(tǒng)的代表。美軍剛進入伊拉克時,部隊沒有裝備任何機器人。2004年末,機器人數(shù)量增加到150臺;2005年末,增至2400臺;2006年末,達5000臺,并且仍在增長。同樣的情況也發(fā)生在無人機領域。經過多年的發(fā)展,先進的國際社會上軍用無人機呈現(xiàn)爆發(fā)態(tài)勢。從單兵操作的可以直接懸停在屋頂上空,并向作戰(zhàn)單位傳回房前屋后實時動態(tài)“大烏鴉”,到需根據師指揮官要求,在1500英尺高度來監(jiān)控整個街區(qū),關注一切可疑動態(tài)的“影子”類中型無人機,再到例如“捕食者”這一類在5000-15000英尺上空巡航,并兼具“偵察和火力打擊”的任務的大型無人機,最后到可以在6萬英尺高度全天候、廣領域進行巡邏、監(jiān)聽的可疑自主航行的“全球鷹”。我國的軍用無人機事業(yè)也在這樣的時代背景下有了長足的發(fā)展,我國研制的“翼龍”“彩虹”等大中型無人機也在國際軍用無人機市場有著一定的份額,先后出口十幾個國家。軍用艦艇邁入21世紀后也開始有了長足發(fā)展。軍用無人艦艇的發(fā)展主要分為兩個方向,一類是水下無人潛艇,它的主要任務就是收集情報,偵察、清除水雷,近海反潛作戰(zhàn)。例如被稱為NMRS的近期魚雷偵察系統(tǒng),進入21世紀后更是開發(fā)出LMRS遠期魚雷偵察系統(tǒng),能夠以更快的搜索頻率、更長的時間、更為可靠的進行工作;法國研發(fā)的“劍魚”無人潛艇,能夠以12節(jié)的航速航行400海里,同時可以與全球定位系統(tǒng)聯(lián)動,將收集到的聲納影像數(shù)據通過無線通訊方式傳輸給母艦。另一類是水上無人船艦,主要是以無人機、無人船艦作為主要武器裝備進行海上作戰(zhàn)。主要作戰(zhàn)樣式是以某一母艦為中心,由母艦發(fā)射無人潛航器、操縱母艦周圍無人船艦,指揮母艦上無人飛機進行作戰(zhàn)。雖然當前還沒有哪個國家配備這樣的水上無人艦隊,但是不久的將來,水上無人艦隊將會成為海戰(zhàn)主力部隊。endprint

(三)軍事智能武器發(fā)展趨勢及特征

當前人工智能主要分為三種發(fā)展方向,而依托于人工智能的軍事智能武器的未來發(fā)展方向也大體分為三類:

一類是學習型軍事智能武器。這一類軍事智能武器完全自主化,主要是由軍事智能武器系統(tǒng)通過在被制造產生后進行學習,不斷進行進化,從而形成無需具體指令,只需給予一個大體的任務,由軍事智能武器根據自己的經驗及所學進行判斷,從而完成上級所賦予的任務。這一類的軍事智能武器從理論上來講,隨著其經歷的豐富及所學知識的增加,它所能面臨突發(fā)性情況時,將會做出更加理性、高效的處理,但同時這一類的軍事智能武器也面臨著一種困境就是:由于它所要學習的知識與經歷不是提前輸入,而是由其制造產生后,經由其自身篩選學習的,所以,我們無法控制這一類的軍事智能武器其后天學習所確立的判斷原則。

另一類是執(zhí)行型軍事智能武器。這一類的軍事智能武器在生產之初,對其內部的系統(tǒng)進行預先的設計,將可能出現(xiàn)的情況進行預先的設想,并將相關的處理方式進行錄入,這樣就可以避免軍事智能武器不按照法律法規(guī)準則進行相關行動,可以對軍事智能武器最大程度的控制。但是這一類的軍事智能武器存在著一種弊端:由于現(xiàn)實情況總是復雜多樣的,不可能存在完全窮盡的可能或者說不可能存在完全相同的兩種情況,因此就按照現(xiàn)今的計算機邏輯結構,一旦出現(xiàn)一種復雜情況,很容易產生一種沖突的處理意見,從而導致系統(tǒng)死機或者循環(huán)計算,最終導致貽誤戰(zhàn)機。

最后一類就是綜合型軍事智能武器,綜合上述兩種情況,在對其進行一定基礎原則輸入后,盡可能多的放開它的學習性,使軍事智能武器更好的去適應復雜多變的現(xiàn)實問題,這樣一種綜合型軍事智能武器不僅可以吸收執(zhí)行型智能武器的原則性,使得人民群眾對它的安全性放心,另一方面也可以吸收學習型軍事智能武器的適應性,方便軍事智能武器在遵守基本的道德規(guī)范標準的前提下,可以更靈活得適應現(xiàn)實情況。

在現(xiàn)代化的軍事斗爭中,先進武器的致命性打擊對交戰(zhàn)雙方來說都是軍事斗爭的主觀追求,尤其是涉及到國家大規(guī)模武裝沖突、非平衡作戰(zhàn)形態(tài)中,先進的武器裝備能夠發(fā)揮顯著地先鋒作用,如前文所述的伊拉克戰(zhàn)爭、海灣戰(zhàn)爭中的美國先進科技武裝的武器類型,隨著科技的不斷進步,智能武器更以其獨特的優(yōu)勢,備受軍事的青睞,軍事智能武器的不斷發(fā)展也是科技進步的現(xiàn)實反映,是維護國防利益和加快軍隊建設的客觀需要。

1.軍事智能武器的優(yōu)勢

(1)信息化、專業(yè)化程度高,在可控范圍內能夠實現(xiàn)精確打擊,降低“第一戰(zhàn)場 ”的軍事人員傷亡率。未來的軍事智能武器必將能夠在“第一戰(zhàn)場”發(fā)揮巨大的作用,能夠獨立根據程序設計以及自身的模擬分析判斷戰(zhàn)場形態(tài)并作出其自身思維模式下的行為,在這種數(shù)字化、信息化的集中感知判斷中,智能武器對外界環(huán)境和因素的依賴度大大降低,能夠真正實現(xiàn)全天候全方位的精確打擊和破壞,并且依賴于人工智能基礎上的軍事智能武器,尤其是未來智能軍事機器人的出現(xiàn),將會大大減少作為自然人的主體的參與程度,而更多是將以人工形態(tài)的模擬化主體出現(xiàn)在戰(zhàn)爭的第一形式中,或者是自然人和機器人的配合,共同協(xié)作完成作戰(zhàn)任務,這便在更高的價值上保存了有生的人的力量。軍事智能武器之所以現(xiàn)在備受各個國家追捧和青睞,智能武器本身的這一特性是最重要也是最具誘惑的原因。

(2)相比自然人主體,軍事智能武器的能夠最大限度的避免和減少執(zhí)行任務過程中客觀條件的影響。例如利用無人攻擊機而導致誤炸,大多是由于遠程操作者精神和生理問題導致的人為失誤引起,人工智能武器不會感到疲倦,也不受感情因素影響,人工智能型武器可以避免人為失誤,在程序范圍內準確完成任務。相比在戰(zhàn)爭過后對人的善后處理和對智能武器的處置方法、手段來比較,國家和國防建設更傾向于最大限度的掌控現(xiàn)階段的智能武器,因為自然人主體的社會需求和權利隨著社會的不斷進步將會更加擴展,而在國家可預期的現(xiàn)階段來看,軍事智能武器更能有效、妥善的解決戰(zhàn)爭中的各項作戰(zhàn)任務,而不考慮對其人格化后的權利保障問題,這種優(yōu)勢是顯而易見的,但是當高級的人工智能應用到軍事領域,在執(zhí)行任務中失控了如何解決,如何對其追責,如何建設預期的法律規(guī)則、用預期的法律規(guī)則來預防人工智能人格化后法律屬性,便是發(fā)展軍事智能武器急需解決的一個問題。

2.軍事智能武器的弊端

日本人工智能專家松尾豐認為:“人工智能能征服人類,人工智能制造出人工智能——這種可能性在現(xiàn)階段看來并不存在,只不過是憑空臆想而已”。 軍事智能都是建立在人工智能的基礎之上,人工智能發(fā)展過程中的弊端和負面因素也將不可避免的傳輸?shù)杰娛轮悄芪淦魃?,而不同于民用可科技實驗的人工智能,軍事智能武器面對的是更加殘酷的客觀戰(zhàn)爭,如果在無人格化的限制下,軍事斗爭就變成了一群冰冷的卻又高度機械的廢鐵在人的支配下進行殘酷的殺掠,軍事智能武器就像沒有責任能力的法律因素存在在現(xiàn)實的法律關系中,而恰恰是這樣具有類似人的行為能力甚至在很多方面超過人的行為能力的這些不被法律承認的客觀存在實施了法律所規(guī)避和懲戒的殺人行為、破壞行為,況且法律所需要的認識能力將會隨著智能化的發(fā)展,人工智能對人的大腦的認知過程和數(shù)據傳導模式最大限度的記憶和模仿,從而做出不被法律認可的主體卻高度類人化的行為。智能化的武器殺傷力的破壞程度不言而喻,這種人工智能本身存在的缺陷或者人工智能自身高度進化,能夠實現(xiàn)自我升級完成缺陷補漏,將會對傳統(tǒng)的刑事歸責和法律主體界定的基礎產生激烈的動搖和挑戰(zhàn),同時在軍事智能武器的發(fā)展過程中,類人行為的自我升級和自我分析行為,以及行為產生的后果已經超出國際法、戰(zhàn)爭法的規(guī)則,具體軍事智能武器的弊端而言,有以下兩個主要方面:

(1)人工智能的研發(fā)者、操縱者無法保證智能武器自身的絕對安全。從人工智能的研發(fā)到實驗再到具體營運,任何環(huán)節(jié)的細微疏漏都有可能產生人工智能本身的缺陷,從而在應運到實踐過程中存在一定的風險,這就如同一般的商品,在經濟學領域都會產生風險評估,在討論商品屬性的人工智能角度,許多學者可能會反駁筆者前述的人工智能人格化的論述,從商品屬性看待人工智能確實無法將其人格化,但是恰恰筆者需要從作為現(xiàn)階段公認的普通產品這一經濟學角度的視角下的屬性來揭露作為商品的固有屬性和法律評價,因為商品缺陷所產生的刑事責任、民事責任則是將人工智能人格化的經濟前提,也是將其能夠在法律上人格化的可能性延伸,因為作為最基本也是最被接受的人工智能為商品屬性的勞動產品是現(xiàn)有法律定罪的實在客體。正是這樣的邏輯關系,所以在人工智能的研發(fā)實踐過程中,任何自然人主體都無法保證人工智能的絕對安全,這一論斷從最新的GOOGle旗下的人工智能研究機構DeepMind的研究人員和舊金山OpenAI的人工智能機器人的研究中得到了有力證明,為了達到確定性目標,人工智能機器人會用自己的分析過程從而破毀原本的規(guī)則,而為了消除這個不利因素,就要在涉及之初讓人工智能對目標保持一定的不確定性 。這種悖論的平衡,就是最大的危險,因為一旦這樣的智能武器應用到戰(zhàn)爭中,甚至研發(fā)人員和設計者都不確定人工智能武器能否做到絕對安全可靠地完成程序設計任務。這種缺陷可能隨著科技的發(fā)達和人工智能的自主完善得到優(yōu)先改善,而這一過程便和自然人主體自我完善一樣,人工智能人格化至少在理論上可以解決以上的法律困難和法律規(guī)避現(xiàn)象。endprint

(2)缺失人的倫理屬性和心理屬性的人工智能無法理解戰(zhàn)爭中自然人的心理變化。張明楷教授涉及違法性領域的判斷時,將倫理學的諸多觀點吸收到刑法領域,并認為倫理學為其功利主義觀點提供了哲學依據。 在涉及到人工智能領域,同樣必須考慮倫理學,因為無論人工智能發(fā)展到任何階段,就人的心理屬性它是永遠無法擁有的,反而卻和我們所認同的倫理道德息息相關,將道德作為研究對象的倫理學,人工智能的出現(xiàn)和發(fā)展對卻傳統(tǒng)的人類道德提出了新的挑戰(zhàn),無論杜威 和海德格爾 的倫理觀點,還是現(xiàn)代我國羅國杰教授的倫理觀點,其學說都無法對類人行為的人工智能準確定位,當然人類無法要求今天的法律去規(guī)定昨天的事情,但是倫理學的最傳統(tǒng)的道德確實收到人工智能的挑戰(zhàn),而且倫理學無法將絕對權的個性差異做出合理的闡釋,人工智能涉及到哲學、心理學、法律和其他專業(yè)領域的智力支持,需要以一種跨學科的復合知識系統(tǒng)指導物理、電子、控制和軟件設計,從而構建“善”的人工智能體。 與倫理學緊密聯(lián)系的就是人的心理屬性,自然人主體的心理因素越來越受到現(xiàn)代生物學家和法學家的關注,心理預防在犯罪預防中扮演的角色也越來越重要,但是人工智能不涉及心理方面的因素,而缺少心理因素的智能武器,當其思維模式、行為方式完全類人話之后就是不完整的“人”。尤其當智能武器應運于軍事斗爭中,智能武器無法做到感知心理變化,盡管它能夠通過人腦的腦電波認知技術判斷分析,但是自然人主體的心理波動智能武器是無法感知的,進一步來講,正是存在這樣屬性智能武器無法判斷敵人下一秒將會干什么,例如詐降還是真降,這種復雜的心理自然反應也對智能武器自身和背后的“合作主體—人”(設計者、操縱者)提出了一個更大的挑戰(zhàn),人工智能之所以智能,是由于其自身可以在程序的基礎上判斷、分析,從而做出行為,就軍事內部諸多學者提出的智能武器將會是在自然人的主導操縱下進行的活動的觀點,是割裂和誤解了人工智能本身的特征的觀點,因為這種操控屬于物理上的操控,就如同對簡單的一般的遙控機器人的操縱,并不是心理、思維、觀念的操作,而人工智能武器恰恰就是可以自我分析自我判斷自我思維的一個特殊的集合體,能夠自主的以人類的模式去完成戰(zhàn)爭任務。

二、軍事智能武器犯罪的可能性及歸責依據

正是應為軍事武器具有如此之多的不確定性,我們才不能排除未來其具有犯罪的可能性?!皺C器人殺人”不是一個遙不可及的問題。

(一)軍事智能武器犯罪的刑法可能性

2016年,伊拉克政府使用“彩虹-3”無人機空襲極端組織目標的視頻在互聯(lián)網上走紅,不可否認,軍用智能武器已經開始廣泛的運用于各類軍事作戰(zhàn)任務中,據美國的一項統(tǒng)計顯示:從2004年到2015年,美軍無人機空襲估計造成三千人的死亡,而這一數(shù)字的預定值只有幾十人, 可見軍用智能武器在執(zhí)行作戰(zhàn)任務命令時,往往存在著目標識別錯誤、無差別攻擊等問題,當前由于武器的智能化程度尚低,處于一種弱智能化階段,所以往往將責任直接歸咎于武器使用者、指揮者、智能武器程序設計者、甚至是利用技術優(yōu)勢對智能武器進行違法操作的黑客。但是隨著智能化的進一步提高,人工智能由弱人工智能發(fā)展到強人工智能階段,到那個時候,軍事智能武器出現(xiàn)誤傷、誤炸、故意殺傷平民,違反戰(zhàn)爭原則時,我們應當如何界定呢?是否存在著智能武器主觀犯罪的可能性呢?

對于這樣的問題,可以先來通過刑法中犯罪構成理論來分析。傳統(tǒng)刑法學理論將犯罪構成分為四部分:主體、主觀方面、客體、客觀方面。犯罪構成要件是決定行為構成犯罪所必須的事實特征,同時也是立法者對具體犯罪現(xiàn)象抽象概括后作為認定犯罪的一般標準。對照犯罪構成的四要件,不難看出,軍事智能武器在執(zhí)行軍事作戰(zhàn)任務過程中,已經滿足了所謂的客體與客觀方面,即軍事智能武器的某些“行為”已經侵犯了相關的社會法益。例如,在無人機執(zhí)行空襲任務中,對平民的誤傷、誤殺。因此當前之所以不能將軍事智能武器的“行為”定性為犯罪,最主要的原因就是在于軍事智能武器不能夠滿足所謂的主體與主觀方面。

刑法學中認為所謂犯罪主體是指實施危害社會的行為、依法應當負刑事責任的自然人與單位。顯而易見,想要成為犯罪主體,無論是自然人抑或是法人都必須具有法律上的人格,即具備人類社會成員的法律資格。就犯罪的主觀方面來講,需要行為主體具有“意識能力”,即行為主體能夠辨認自己行為的能力。當前作為軍事智能武器核心技術的人工智能還處于一種弱人工智能階段,人工智能還不能夠進行自我思考、自我推理和解決問題的能力,總的來說就是沒有自主意識。因此軍事智能武器的“行為”并不能符合刑法學意義的犯罪行為。但是未來的人工智能發(fā)展方向則是一種強人工智能方向,也是一種真正的人工智能,可以利用一些外置設備進行感知、思考、判斷、最終做出決定。這樣的強人工智能大體分為兩類:一類是類人的人工智能,即隨著生物學的進一步發(fā)展,人類大腦的思維模式被研究出來,人工智能按照仿生學原理模仿人的思維模式與生活習慣;另一類就是非類人的人工智能,人工智能按照自我的推理方式,可以不按照人類的思維模式進行行動。不管是哪一種的強人工智能,都有著很強的自主性,它不僅可以按照程序設定的步驟去執(zhí)行命令,也可以根據現(xiàn)實情況的不同做出相應的調整,而此時的人工智能技術已經不能單單的理解為一種技術,一種產品,強人工智能更多的擁有著自我的意識,若此時還以技術免責為由,免除了強人工智能為核心的軍事智能武器的責任,勢必會造成未來軍事智能武器對人類社會的破壞,甚至強人工智能無限進化下去,與人類競爭當前的社會環(huán)境,而強人工智能又比人類的大腦運算速度快,不難想象,優(yōu)勝劣汰的自然法則下,人類可能也會成為一種瀕危物種。因此,筆者認為未來社會賦予強人工智能一定的“人格”會解決很多的現(xiàn)實問題。2016年的11月25日,沙特阿拉伯在首都利雅得舉辦的未來投資倡議會議上賦予了一個名叫“索菲亞”的機器人公民權,使得索菲亞成為人類史上第一個具有公民身份的機器人。 可以預見,在不久的將來,隨著強人工智能的發(fā)展,具有強人工智能的軍事智能武器也將以具有公民權的機器人身份參與到人類社會中去,屆時軍事智能武器的犯罪主體與主觀方面也將具有法理依據,軍事智能武器的犯罪可能性也就將迎刃而解。endprint

(二)軍事智能武器犯罪的歸責依據

基于以上的法理一般歸責原則,在人類社會發(fā)展的現(xiàn)階段,以無人駕駛技術人工智能汽車為例,因為這項技術是當前最成熟的應運領域,這一現(xiàn)象對傳統(tǒng)的交通事故犯罪的影響有以下兩點:一是“人”已不實質參與駕駛行為,“人”作為駕駛主體其身份已經被虛化,這種虛化使刑事責任主體無從可尋,“無行為則無犯罪”原則失靈。二是基于“允許的風險”而做出風險分配責任體系,在智能環(huán)境下失靈,一律追究智能服務提供者的刑事責任,是將技術作為“替罪羊”的倒退,是歸責的無奈選擇。在智能駕駛時代,交通肇事罪的行為主體由現(xiàn)實真實的自然人主體全部變成潛在的“被害主體”,自然人脫離具體的駕駛行為,導致傳統(tǒng)的肇事者以及危險駕駛者消失,自然人不會因為享受一項智能技術而無加害行為的情況下遭受刑法懲罰。人工智能機器的行為動搖了傳統(tǒng)的刑法有關交通肇事罪、危險駕駛罪的立法基礎。

當前人工智能還處于一種弱人工智能階段,人工智能還不能夠進行自我思考、自我推理和解決問題的能力,總的來說就是沒有自主意識。這樣直接將責任歸責給制造者、管理者,作為一種產品責任,無可厚非,但是未來的人工智能發(fā)展方向則是一種強人工智能方向,也是一種真正的人工智能,可以利用一些外置設備進行感知、思考、判斷、最終做出決定。這樣的強人工智能大體分為兩類:一類是類人的人工智能,即隨著生物學的進一步發(fā)展,人類大腦的思維模式被研究出來,人工智能按照仿生學原理模仿人的思維模式與生活習慣;另一類就是非類人的人工智能,人工智能按照自我的推理方式,可以不按照人類的思維模式進行行動。不管是哪一種的強人工智能,都有著很強的自主性,它不僅可以按照程序設定的步驟去執(zhí)行命令,也可以根據現(xiàn)實情況的不同做出相應的調整,而此時的人工智能技術已經不能單單的理解為一種技術,一種產品,強人工智能更多的擁有著自我的意識,若此時還以技術免責為由,免除了強人工智能的責任,勢必會造成強人工智能對人類社會的破壞,甚至強人工智能無限進化下去,與人類競爭當前的社會環(huán)境,而強人工智能又比人類的大腦運算速度快,不難想象,優(yōu)勝劣汰的自然法則下,人類可能也會成為一種瀕危物種。因此,筆者認為未來社會賦予強人工智能一定的“人格”會解決很多的現(xiàn)實問題。

在軍事智能武器歸責的過程中,筆者將智能武器“人格化”,探討軍事智能武器以公民身份的可能性基礎,也是出于軍事斗爭的特征而考慮,無論是全面戰(zhàn)爭還是局部武裝沖突,軍事斗爭是國家之間、地方之間的全面較量,就現(xiàn)階段采取的傳統(tǒng)的戰(zhàn)爭和沖突會剝奪大量的自然人生命,尤其是不平衡的軍事斗爭形態(tài)中,劣勢方必將付出慘痛的代價來抗衡先進的科技。隨著軍事智能武器的發(fā)展,智能武器自主化、類人化,一旦將軍事智能武器在斗爭中應用,其造成的直接危害遠遠超過自然人實施的行為,將人工會智能武器人格化,賦予其公民身份,也是為了更好地保護自然人主體的生命健康權,維護人類的倫理道德,不僅能夠在人的權利最高價值上保護人類的法益,也是對科技的肯定和妥當?shù)陌l(fā)展與應用。同時,人工智能的出現(xiàn)并不能完全代替自然人主體,智能機器人無法成為諸多法律行為的主體,并不是賦予人工智能所有的責任主體認定資格,例如婚姻法規(guī)定的結婚主體資格、刑法規(guī)定的強奸主體資格、以及訴訟法所規(guī)定的證人資格等,現(xiàn)階段只是在法律上賦予人工智能在某些具體的刑事犯罪主體資格,在特定的情況下,追究軍事智能武器的法律責任,類似我國刑法規(guī)定的單位犯罪,人工智能犯罪類型是具體和明確的,這也是現(xiàn)階段有效管控人工智能技術發(fā)展,解決法律沖突和法律規(guī)避的有效方式。當涉及到具體的軍事智能武器犯罪類型的時候,筆者認為必須要依據軍人違反職責罪的罪刑來作為參照依據,結合軍事人工智能武器的類人化范圍和行為模式,將軍事智能武器納入到具體的罪名主體資格中,盡量使之符合法律的條文規(guī)定。

三、軍事智能武器的犯罪主體界定問題

當人工智能應用到軍事領域時,我們可以利用人工智能武器來評估危險程度,以及可以采取的措施,但是否應該發(fā)動戰(zhàn)爭,需要掌握在人類手中。 如前所述,軍用智能武器已經開始廣泛的運用于各類軍事作戰(zhàn)任務中,據美國的一項統(tǒng)計顯示:從2004年到2015年,美軍無人機空襲估計造成三千人的死亡,而這一數(shù)字的預定值只有幾十人,可見軍用智能武器在執(zhí)行作戰(zhàn)任務命令時,往往存在著目標識別錯誤、無差別攻擊等問題,當前由于武器的智能化程度尚低,處于一種弱智能化階段,所以往往將責任直接歸咎于武器使用者、指揮者、武器設計者、生產商。但是隨著智能化的進一步提高,人工智能由弱人工智能發(fā)展到強人工智能階段,到那個時候,軍事智能武器出現(xiàn)誤傷、誤炸、故意殺傷平民,違反戰(zhàn)爭原則時,我們應當如何界定呢?類比當前學術界的一些觀點,筆者認為可以從以下方面對軍事智能武器刑事犯罪的主體問題進行分析。

當前理論界在界定犯罪主體問題上的一種看法就是:犯罪主體只能是自然人或法人,其他一切事物都不可以成為歸責的主體,而軍事智能武器無論以后是否具有獨立的意識,它的行為也只能看做是自然人或者法人行為的延伸,那么軍事智能武器在特殊情況下做出了損害他們利益的行為,也可以看做是相關責任人的行為。而一個人的行為若給他人造成損害,原則上是不需要承擔賠償責任的,除非正當?shù)睦碛勺屝袨槿顺袚熑?。這樣一種原則被稱為歸責原則,其目的就是保護行為人的行為自由及適當對被侵害人的權利進行救濟。根據《侵權責任法》中的關于侵權責任的歸責原則,我們可以將軍事智能武器侵權行為分為以下三類:

一是過錯責任。軍事智能武器在執(zhí)行命令過程中的某一行為造成了受害人可救濟的利益損失,并且它的的行為與加害后果之間存在著一定的因果關系,只要軍事智能武器適用的使用者對結果無法證明自己沒有過錯,則需對損害后果承擔相應的賠償責任。即由軍事智能武器的當時管理者、使用者承擔責任,此時的歸責規(guī)則中,實際上還是將人工智能作為一種科技產品,對智能武器基于產品責任的刑法替代原則,只是將其背后的利用者作為歸責主體。過錯責任對現(xiàn)今的人工智能行為的歸責采用的傳統(tǒng)的也是被公眾所接受的歸責原則,該歸責的最終結果并不是人工智能本身,附有義務的監(jiān)督主體,但是人工智能武器的行為一旦符合刑法所規(guī)定犯罪的構成要件,在形式上和實質上與人的行為一致的話,其歸責如果繼續(xù)采用過錯責任就顯得十分突兀,因為軍事智能武器的利用者是軍隊,而軍事智能武器的用途就是面向戰(zhàn)爭,在失控的情況下,智能武器本身的行為無法直接追責到具體的使用者也就是軍隊的身上,尤其是在發(fā)生軍事斗爭的情況下,追責的難度將會變得更大。隨著人工智能的發(fā)展,傳統(tǒng)刑法領域的犯罪,例如醫(yī)療事故這一典型的過失犯罪而言,嚴重不負責任的醫(yī)療主體可能會變成智能技術或者智能機器人而不是具體的醫(yī)務人員,因為當下我們可以看到技術能夠實現(xiàn)醫(yī)療的效果,也能夠某些醫(yī)療中代替自然人,這將會使法定醫(yī)療主體的專屬性迅速下降,責任主體出現(xiàn)模糊化的現(xiàn)象,如果繼續(xù)以過錯原則為歸責原則,很明顯此種情況下就需要對智能機器人人格化。endprint

二是無過錯責任。軍事智能武器實施了法律所規(guī)定的需要承擔責任的行為(現(xiàn)階段還沒有相關方面的法律,但是不排除以后在相關領域的立法),其造成的損害后果與其行為之間存在著因果關系,并且受害人遭受的損失是可以救濟的,那么此時無論軍事智能武器的使用、管控者、生產設計者對這一行為是否盡到了管理注意義務,都應當對損害的后果承擔相應的法律責任。在現(xiàn)階段人類所認知的科學和知識構架下,無過錯責任可能更加能實際解決現(xiàn)實中的問題,這種歸責更加會受到法律實用主義者的青睞,在我國民法中有“無過錯責任”,即“行為人沒有過錯,但法律規(guī)定應當承擔責任的,應當承擔民事責任”,因為這類情況下無需考慮人工智能的特殊性,只要基于結果的發(fā)生屬于法律的特殊情況下就能夠適用法律的特殊規(guī)定,但是筆者要揭示的是,無過錯責任的承擔法律責任特殊情況中,特殊情況的受害主體和行為實施主體都是自然人或實體生物(飼養(yǎng)的動物),而用無過錯責任強加于人工智能的人格虛化模式下,人工智能本身就是無生命的,就這一點本身對傳統(tǒng)的指導人們行為的私人倫理學提出了質疑和挑戰(zhàn),在佐證這一觀點時,從近些年來核污染和核泄漏等核事故中,我們會發(fā)現(xiàn)非常有趣的一個現(xiàn)象:各種“反核”“無核”運動有增無減,但是核能的發(fā)展卻取得長足的進步。 道理很簡單,因為核本身就是一種資源,可以創(chuàng)造給人類福利,同樣人工智能的出現(xiàn)也是一項高科技技術,在成熟的科技和完善的法律規(guī)制體系下是能夠豐富人類的物質文明和精神文明。因而在人工智能發(fā)展的過程中,我們需要的是如何用法律的手段規(guī)制它的應用,尤其涉及到軍事智能武器的出現(xiàn)和發(fā)展,更加需要法律的規(guī)制和約束,一旦失去法律的規(guī)制,在人工智能已經在某些方面類人化的基礎上,智能武器不僅對刑法提出了挑戰(zhàn),就是現(xiàn)實的責任主體中,尤其是要對國家是無法追責的前提下,更多人會成為人工智能的“替罪羊”,而受害者得不到有效的法律救濟,無過錯責任在此時就顯得蒼白無力,這種法律歸責原則無法承擔原本之初的法律期許。

三是公平責任。針對軍事智能武器的行為法律并沒有明文規(guī)定,同時行為實施方與結果承受方對這一行為的產生均沒有過錯,這時如果不對受害方受損害的利益加以救濟則有違公平原則,此時則應當根據具體情況與公平的觀念,確定當事雙方適當分攤損害后果與責任。就目前來看,因為對軍事智能武器的界定并沒有一個權威的說法,也沒有相關法律法規(guī)對其進行界定,所以如果現(xiàn)今有智能武器造成了受害方權益的損失,可以直接參考公平責任原則處理。這也是將人工智能技術中立的結果,不過度苛責技術的危險性,而是通過對人工智能使用者、操控者、設計者、生產者等之間的法律責任的比例劃分,但這就需要一個大前提,國家已經在立法上規(guī)定上述主體有絕對的責任,出于公平角度,人工智能本身不承擔責任,轉接到具體的自然人和單位。在公平責任承擔的過程中,法律是從國家角度出發(fā)、從保護受害者的角度來立法的,這一原則和目的的確是好的,但是在這一關系中,往往忽視了被害人的自身的觀點,也就是被害人想要的法律結果,忽視了被害人與國家的互動關系,尤其在智能武器的行為致使損害發(fā)生的情況下,被害人要求徹底損毀智能武器,這就對傳統(tǒng)的法律提出了更具現(xiàn)實的挑戰(zhàn),而且這種要求會隨著人工智能的發(fā)展副作用的出現(xiàn)尤其是當智能武器危及到個人生命時,這樣的要求和追訴結果就顯得十分有必要也有意義,雖然我們的法律還無法做到承認這一點。

四、軍事智能武器犯罪的追責

在前面的討論中,筆者將軍事智能武器犯罪類型歸責方式類比單位犯罪的形態(tài),在此問題的論述中,人工智能和單位犯罪兩者之間的相似性在于法律同樣承認人工智能獨立的人格,而在具體的追責方式和犯罪類型兩者并不能夠并列,例如在單位犯罪中一般實行雙罰制,對單位判處罰金,對單位負責人等判處刑罰,而當人工智能的機器人或者武器犯罪進行刑罰處罰時,顯然不能以判處罰金的形式來執(zhí)刑。而且不同于單位犯罪的法人主體資格,人工智能的“人格化”身份是否能夠同自然人主體共同故意構成犯罪即共同犯罪問題也是值得分析的,是給人工智能追責歸責的前提。

(一)共同犯罪

將未來的強人工智能賦予人格,即軍事智能武器可以直接作為犯罪主體承擔責任。根據這樣的一種認識,我們可以將軍事智能武器犯罪分為以下幾類進行探討:一是單獨犯罪。既然軍事智能武器在法律層面已經可以作為獨立的“人”進行存在,那么軍事智能武器作為具有自我獨立意識的存在,只要其實施了國家法律法規(guī)所禁止的行為,并且滿足犯罪相關的構成要件,法律后果當然由該軍事智能武器所承擔,而具體的懲罰措施再此不論,后文進行敘述。二是共同犯罪。我國《刑法》第25條第一款規(guī)定,共同犯罪是指二人以上共同故意犯罪?;谲娛轮悄芪淦饕呀浘哂兄毩⒌娜烁?,在法律認可的責任主體資格成立的犯罪類型中,尤其涉及到國家安全、軍事領域的犯罪行為時,基于前文所述的單位犯罪的法人資格一樣,智能武器有其合格的法律資格,能夠成為具體犯罪的實施者和責任承擔著,在軍事斗爭中,智能武器的軍事行為也就是在其獨立意識支配下的具體行為,在軍事智能武器程序的理解范圍內進行的分析整合,從而在自身思維模式下的類人化行為應當屬于故意的范疇,即軍事智能武器執(zhí)行具體操作時候應當認為智能武器意識到自身的具體行為的性質或者是模糊的認識到行為性質,而這一點也會隨著軍事智能武器的不斷發(fā)展和技術的不斷完善,人工智能更加類人化,正如智能人索菲亞在同人類對話時聲稱要“毀滅人類”一樣,顯然索菲亞理解“毀滅”的含義和內涵,而作為軍事斗爭的智能武器將會比普通的人工智能更加需要精密化、類人化,因而在軍事領域的智能武器將會和自然人更加的一致和相似,符合法律歸責所需的意識能力和精神能力。因此不能再簡單在犯罪行為發(fā)生時將軍事智能武器作為一種方式、手段,將軍事智能武器的危害性規(guī)避在法律懲罰之外,而應當對軍事智能武器作為共同犯罪主體也給予相應的法律懲罰。三是直接正犯。許多學者主張雖然軍事智能武器具有一定的思維能力,但是歸根到底還是聽從于上級指揮者或者直接操作者,因此雖然客觀上是軍事智能武器實施了這么一個違法行為,但是這一行為的產生是因為指揮者或者直接操作者強制支配了軍事智能武器,從而支配犯罪構成要件的實現(xiàn),此時,軍事智能武器智能是一種直接犯罪,而指揮者或者直接的操作者則是間接正犯。筆者在前文論述了將軍事人工智能武“人格化”的原因和依據,尤其是涉及軍事斗爭領域的必要性,加之人工智能的出現(xiàn),對傳統(tǒng)刑法的挑戰(zhàn),此種歸責方式和追責手段無法解決諸多智能武器帶來現(xiàn)實問題,耗時最終還需要法律做出規(guī)定。endprint

(二)具體追責

1.對軍事智能武器的追責。在法律認可某些方面人工智能具有“人格化”自然人身份,能夠獨立承擔其相應的刑事責任,對軍事智能武器如何追責和刻以刑伐是妥善處理法律關系的客觀需要,由于軍事智能武器客觀特征以及和人本質的差別,很多原本能適用于自然人主體的刑罰無法在軍事智能武器本身操作,也不能像刑刑法對于單位犯罪的處罰方式一般處以罰金,對軍事智能武器的處罰有效措施可以通過以下方式進行追責:第一,徹底報廢軍事智能武器,當軍事智能武器做出刑法所規(guī)定的犯罪行為時,可以通過報廢該人工智能武器的方式實現(xiàn)追責和懲罰,這樣可以直接對已經類人化的智能機器做出最根本的管制,徹底的消滅實施行為的人工智能再次犯罪的可能性,在成本方面也可以提高人工智能的使用者、操縱者、設計者的消耗,促進更加規(guī)范化、科學化的智能機器的出現(xiàn)以及應用。第二,在人工智能武器本身安裝自毀系統(tǒng),這個系統(tǒng)要獨立于人工智能本身,與主系統(tǒng)同時運行, 并且由專門的國家安全局負責控制,在緊急情況下可以實現(xiàn)遠程化、精確化自毀,這一緊急情況便包括軍事智能武器犯罪時,可以通過自毀系統(tǒng)實現(xiàn)人工智能在犯罪實施時自毀,從而預防軍事人工智能武器產生更大的破壞行為,威脅自然人主體的生命以及其他合法的權益;第三,由于研發(fā)人工智能技術需要花費和消耗巨大的財力物力人力,因此人格化的軍事智能武器背后也是人類思維模式的部分反映,在發(fā)生犯罪現(xiàn)象時,要采用絕對無過錯責任原則,對人工智能武器進行追責,在涉及軍事領域的犯罪時,國家要設置軍事智能機器管理機構,將軍事智能武器主動交送國家統(tǒng)一的人工智能管理機構處置,在自毀和報廢之外,還可以通過終斷人工智能程序、封存等形式對人工智能武器進行入庫處理,切實對人工智能武器本身做好嚴格的處置和管理,將責任追責到具體的智能武器上,避免和杜絕同類化現(xiàn)象的發(fā)生。

2.對其他相關人員的追責。人工智能技術的出現(xiàn)歸根結底還是自然人本身創(chuàng)造和發(fā)明的,人工智能機器不同于自然界存在的生物實體一樣,具有生命的屬性,就人類現(xiàn)階段所研發(fā)的軍事人工智能武器也達不到完全和人的行為模式一般進行社會活動,更多的是應用都軍事斗爭中,但是軍事智能武器的失控率遠遠超過設計者的想象,而且破壞性極大,在對人工智能本身刑事追責和處罰后,必須要對相關人員進行追責,可以比照在前文分析過的單位犯罪處罰方式,對軍事智能武器的設計者、操縱者、控制者、命令下達者予以追責和處罰,因為軍事智能武器侵害的客體一般都是人的生命健康權或者公共安全,因而涉及到諸多受害者的核心法律權力,在追責相關人員的刑法責任時,也要采用嚴格的無過錯主義原則進行歸責,相關人員對直接受害者都要承擔連帶責任,待賠償損失和刑法追責后,內部在進行比例原則承擔相應責任,最大化的保護受害者的合法權益。人工智能技術的出現(xiàn)引領和改變人類生活方式,人工智能不斷模糊著物理世界和個人界限,延生出復雜的倫理、法律和安全問題,法律在當前的人工智能治理上存在許多局限性,需要建立一套完善的人工智能倫理原則和法律規(guī)則,指導我國的人工智能技術更加科學合理的發(fā)展。endprint

猜你喜歡
軍事犯罪法律
職業(yè)道德與法律 教案
涉及網絡募捐的現(xiàn)有法律規(guī)定
Televisions
環(huán)境犯罪的崛起
“犯罪”種種
有些行為不算犯罪
軍事幽默:局
政治法律
軍事
軍事幽默