張 煌 杜雁蕓
伴隨著自主武器系統(tǒng)攻擊事件的頻發(fā)(1)2018年8月,委內(nèi)瑞拉總統(tǒng)馬杜羅遭遇無人機炸彈襲擊;2019年9月,沙特阿美公司油田遭遇胡賽武裝無人機群攻擊;2020年1月,伊朗“圣城旅”指揮官蘇萊曼尼少將被美國“收割者”無人機刺殺;2020年11月27日,伊朗頂級核物理學家穆赫辛·法赫里扎德被由人工智能技術(shù)遠程控制的自主機槍擊斃。,全球范圍內(nèi)新一輪自主武器系統(tǒng)軍備競賽也在如火如荼地展開。研發(fā)、使用自主武器系統(tǒng)存在的問題與潛在風險,日益成為國際社會關(guān)注的焦點。包括聯(lián)合國秘書長、聯(lián)合國軍控委員會負責人、紅十字國際委員會負責人和歐洲議會議長在內(nèi)的國際政要,堅決反對致命性自主武器的研制和使用,對其可能引發(fā)的人道主義災(zāi)難表達深切的憂慮(2)Stephen Goose,“The Case for Banning Killer Robots: Point”,Communications of the ACM,Vol.58,No.12,2015,pp.43-45.。2018年7月,超過2400名AI領(lǐng)域科學家發(fā)表《致命性自主武器系統(tǒng)宣言》,承諾“將不參與也不支持致命性自動武器的開發(fā)、制造、貿(mào)易或使用”,并呼吁各國政府和政府領(lǐng)導(dǎo)人“利用強大的國際規(guī)范、法規(guī)和法律打擊致命性自動武器”(3)Future of Life Institute,“Lethal Autonomous Weapons Pledge”,https://futureoflife.org/lethal-autonomous-weapons-pledge/,2021-01-23.。這是自1955年《羅素-愛因斯坦宣言》發(fā)表以來,國際社會再次針對一項武器,出現(xiàn)如此聲勢浩大、旗幟鮮明的和平主義行動,由此也引發(fā)學界圍繞自主武器系統(tǒng)攻擊的正義性展開一系列戰(zhàn)爭倫理追問。目前,國內(nèi)學界圍繞自主武器系統(tǒng)的戰(zhàn)爭倫理研究,主要聚焦于無人機等半自主武器系統(tǒng)作戰(zhàn)的正義性分析(4)參見錢鋮、石斌《“雄蜂”的陰影——美國無人機作戰(zhàn)對當代戰(zhàn)爭倫理的挑戰(zhàn)》,《世界經(jīng)濟與政治》2013 年第8期;梁亞濱《武裝無人機的應(yīng)用:挑戰(zhàn)與影響》,《外交評論(外交學院學報)》2014年第1期;張煌、劉軼丹、張鵬:《無人機作戰(zhàn)的倫理困境》,《倫理學研究》2015年第2期。,對于自主化程度更高的完全自主武器系統(tǒng)的戰(zhàn)爭倫理討論,除了董青嶺在《新戰(zhàn)爭倫理:規(guī)范和約束致命性自主武器系統(tǒng)》一文中做了具有開拓性意義的研究之外(5)董青嶺:《新戰(zhàn)爭倫理:規(guī)范和約束致命性自主武器系統(tǒng)》,《國際觀察》2018年第4期。,更進一步的專題研究仍然暫付闕如。國外學界特別是美國學者關(guān)于這一問題的研究成果相對豐富一些,相關(guān)討論涉及倫理、法理以及技術(shù)規(guī)制等多個層面(6)Arkin Ronald ,“The Case for Ethical Autonomy in Unmanned Systems”,Journal of Military Ethics,Vol.9,No.4,2010; Michael C.Horowitz ,“The Ethics & Morality of Robotic Warfare: Assessing the Debate over Autonomous Weapons”,Daedalus,Vol.145,No.4,2016; Aaron M.Johnson and Sidney Axinn,“The Morality of Autonomous Robots”,Journal of Military Ethics,Vol.12,No.2,2013.,但由于國家立場、意識形態(tài)、價值觀念層面的差異,加之自主武器系統(tǒng)的不斷發(fā)展以及作戰(zhàn)方式的不斷創(chuàng)新,現(xiàn)有的研究遠未達到完善的地步。本文在界定自主武器系統(tǒng)并梳理其作戰(zhàn)應(yīng)用歷程的基礎(chǔ)上,從經(jīng)典正義戰(zhàn)爭理論的分析框架出發(fā),系統(tǒng)討論當前各類自主武器系統(tǒng)作戰(zhàn)應(yīng)用對于“開戰(zhàn)正義”“交戰(zhàn)正義”和“戰(zhàn)后正義”相關(guān)倫理準則所構(gòu)成的挑戰(zhàn),同時,展望未來完全自主武器系統(tǒng)的軍事應(yīng)用前景,就其對戰(zhàn)爭倫理體系可能造成的進一步?jīng)_擊,做出具有前瞻性的評估與探討。
當前,學界普遍認為,自主性是自主武器系統(tǒng)的典型標簽,因此主要圍繞武器的自主性對自主武器系統(tǒng)進行定義。2012年11月,美國國防部出臺了發(fā)展自主武器的官方文件——《國防部指令3000.09》(武器系統(tǒng)中的自主性),將自主武器系統(tǒng)定義為“在激活后無需進一步人工輸入就可以自主選擇目標和交戰(zhàn)的武器系統(tǒng)”(7)US Department of Defense,“Autonomy in Weapon Systems”,https://fas.org/irp/doddir/dod/d3000_09.pdf,2021-01-23.。雖然美國國防部對自主武器系統(tǒng)給出了官方定義,但是,當前學界對于自主性在武器系統(tǒng)中的具體體現(xiàn),仍然存在一定的分歧與爭議。特里克·德·格里夫(Tjerk de Greef)等人認為,自主武器系統(tǒng)是一種“算法決定一切、自主行動且以無需人類干預(yù)方式運行的武器系統(tǒng)”(8)Tjerk de Greef,Kees van Dongen,et al.,“Augmenting Cognition: Reviewing the Symbiotic Relation Between Man and Machine”,F(xiàn)oundations of Augmented Cognition ,Vol.4565 ,2007.。希瑟·羅夫(Heather Roff)提出,可以從三個方面來衡量武器系統(tǒng)的自主性程度:即自我機動性、自我指導(dǎo)性和自我決定性(9)轉(zhuǎn)引自 Michael C.Horowitz,“When Speed kills: Lethal Autonomous Weapon Systems,Deterrence and Stability”,Journal of Strategic Studies,Vol.42,No.6,2019。。奧斯汀·懷亞特(Austin Wyatt)進一步指出,自主武器系統(tǒng)的自主性,還體現(xiàn)為能夠“以超出人類期望的方式學習并擴展其殺戮功能和能力”(10)Austin Wyatt,“Charting Great Power Progress Toward a Lethal Autonomous Weapon System Demonstration Point”,Defence Studies,Vol.20,No.1,2020.。綜合以上定義,筆者認為,真正意義上的自主武器系統(tǒng)是一種擁有完全自主權(quán)的殺人機器,在人工智能技術(shù)的驅(qū)動下,它能夠自主完成整個攻擊流程,即自主運用傳感器搜索潛在目標的數(shù)據(jù)信息,通過數(shù)據(jù)分析自主識別、鎖定目標,自主評估使用武力的后果并自主作出攻擊決策。
自主武器系統(tǒng)是人工智能技術(shù)推動武器裝備創(chuàng)新發(fā)展最新和最典型的案例之一,它在軍事領(lǐng)域的橫空出世,引發(fā)了“人-武器”相互關(guān)系和戰(zhàn)斗力生成機理的顛覆性轉(zhuǎn)變,其發(fā)展歷程體現(xiàn)了武器系統(tǒng)由“非自主-半自主-完全自主”的演進趨勢。
傳統(tǒng)戰(zhàn)爭是“人類中心化”的戰(zhàn)爭。從冷兵器時代開始,人類操控武器作戰(zhàn)就是戰(zhàn)爭對抗模式的基本特征,武器必須要與人緊密結(jié)合才能夠形成戰(zhàn)斗力。 伴隨人類戰(zhàn)爭由冷兵器戰(zhàn)爭向熱兵器戰(zhàn)爭再到信息化戰(zhàn)爭的演進,武器裝備的作用半徑和毀傷能力不斷增長,但人類作為武器裝備操控者的角色和地位始終沒有發(fā)生改變。
人工智能技術(shù)的發(fā)展及其軍事應(yīng)用,使得人在作戰(zhàn)系統(tǒng)中的地位日益由“人在回路內(nèi)”向“人在回路上”轉(zhuǎn)變,人類從居于系統(tǒng)之中的操控者轉(zhuǎn)變?yōu)榫佑谙到y(tǒng)之上的監(jiān)督者。阿富汗戰(zhàn)爭中,美國使用“捕食者”無人機對基地組織和塔利班頭目進行“定點清除”式攻擊,揭開了無人化反恐戰(zhàn)爭的序幕。在此后的十余年間,基地組織重要頭目阿爾哈特希、“自由者大會”頭目奧馬爾·霍拉薩尼、巴黎《查理周刊》恐怖襲擊事件策劃人納賽爾·安西、“伊斯蘭國”頭目阿布·巴克爾·巴格達迪、伊朗高級將領(lǐng)卡西姆·蘇萊曼尼等人盡皆命喪于無人機之手。作為美軍執(zhí)行定點清除行動的利器,察打一體的“捕食者”“收割者”無人機,實質(zhì)上是一種有人監(jiān)督的半自主武器系統(tǒng),已經(jīng)具有自主導(dǎo)航定位、自主識別目標和半自主火力打擊的能力,人類實時監(jiān)控無人作戰(zhàn)系統(tǒng)的運行,可以在必要的時候?qū)ξ淦飨到y(tǒng)進行干預(yù)和接管。
完全自主武器系統(tǒng)的出現(xiàn),徹底顛覆了人類作為武器操縱者和致命行為執(zhí)行者的歷史。2017年,國際非政府組織“自主武器系統(tǒng)禁令運動”對外公布了一段視頻。一群由人工智能技術(shù)驅(qū)動的機器“殺人蜂”闖入教室,通過人臉識別方式,將十余名正在上課的學生瞬間擊殺,場面極度血腥。雖然視頻中的殺人場景是由計算機模擬而成,但在現(xiàn)實世界中,各軍事強國圍繞自主武器系統(tǒng)的軍備競賽已在如火如荼地展開。早在2012年11月,美國國防部就出臺了發(fā)展自主武器的官方文件——《國防部指令3000.09》,規(guī)定了研發(fā)半自主和自主武器的通用原則(11)US Department of Defense, “Autonomy in Weapon Systems”,https://fas.org/irp/doddir/dod/d3000_09.pdf,2021-01-23.,并實施了聯(lián)合無人空戰(zhàn)系統(tǒng)、高自主性遠程反艦導(dǎo)彈、X-47B無人機、“快速輕量化自主”以及“拒止環(huán)境協(xié)同作戰(zhàn)”等一系列自主武器技術(shù)和裝備研發(fā)項目(12)[美]保羅·沙瑞爾:《無人軍隊:自主武器與未來戰(zhàn)爭》,朱啟超等譯,世界知識出版社2019年版,第111-130頁。。目前,美軍已裝備無人機7000多架,在伊拉克、阿富汗戰(zhàn)場上投入運用的地面輪式機器人超過12000個(13)[美]保羅·沙瑞爾:《無人軍隊:自主武器與未來戰(zhàn)爭》,朱啟超等譯,世界知識出版社2019年版,第7頁。。與美國自主武器的發(fā)展相同步,在2015年的敘利亞戰(zhàn)爭中,俄羅斯軍方就開始將整建制的半自主機器人投入戰(zhàn)場。2017年7月,俄羅斯軍工制造商卡拉什尼科夫聯(lián)合企業(yè)宣布,他們即將發(fā)布基于神經(jīng)網(wǎng)絡(luò)的全自主作戰(zhàn)模塊(14)Russian News Agency,“Kalashnikov Gunmaker Develops Combat Module Based on Artificial Intelligence”,https://tass.com/defense/954894,2021-01-23.。俄羅斯人工智能專家梅德韋杰夫·米哈伊爾預(yù)言,2030年俄羅斯軍隊將主要由自主機器人組成(15)Kelsey D.Atherton,“Russian Roboticist Sees All-But-Lethal Autonomous Weapon Systems by 2030”,https://www.c4isrnet.com/unmanned/2018/09/17/russian-roboticist-sees-all-but-lethal-autonomous-weapon-systems-by-2030/,2021-01-23.。除美、俄以外,諸如英國的“雷神”無人機和“硫磺石”反坦克導(dǎo)彈、印度的“奧拉”無人機以及韓國的SGR-A1機器人哨兵等,都是具有自主作戰(zhàn)能力的武器系統(tǒng)(見表1)。
表1當前各國自主武器系統(tǒng)研發(fā)、應(yīng)用情況一覽表(16)參見[美]保羅·沙瑞爾《無人軍隊:自主武器與未來戰(zhàn)爭》,朱啟超等譯,世界知識出版社2019年版,第111-130頁。
隨著各國軍隊自主武器系統(tǒng)的自主程度越來越高,使用頻次越來越密集,由此產(chǎn)生的人道主義災(zāi)難事件和戰(zhàn)爭倫理危機也越來越多。其中,美國無人機反恐造成的倫理危機和人道主義災(zāi)難,成為全球輿論和國際社會的熱點話題?!?·11”事件以來,美軍以反恐名義,長期在阿富汗、巴基斯坦、伊拉克、索馬里、也門以及敘利亞等主權(quán)國家領(lǐng)空范圍內(nèi)執(zhí)行無人機“定點清除”任務(wù),殃及大量無辜平民。據(jù)統(tǒng)計,自2004年以來,美軍僅在巴基斯坦一國,就使用無人機進行了408起反恐襲擊,造成包括大量平民在內(nèi)的3000多人喪生(17)Jamil Bhatti,“News Analysis: Latest U.S.Drone Strike in Pakistan May Further Escalate Bilateral Tension”,http://www.xinhuanet.com//english/2017-09/18/c_136617222.htm,2021-01-23.。圍繞美軍無人機反恐的正義性與合法性問題,倫理學界和法學界已經(jīng)進行過廣泛討論。2020年1月3日,美軍在伊拉克使用無人機擊斃了伊朗少將蘇萊曼尼,這是美國首次針對主權(quán)國家的重要軍事領(lǐng)導(dǎo)人實施“定點清除”行動,使得此次刺殺事件在正義性方面面臨更多、更尖銳的爭議。2020年11月27日發(fā)生的伊朗核科學家遇刺事件,又引發(fā)了國際社會對于自主武器系統(tǒng)匿名攻擊問題的關(guān)注。自主武器系統(tǒng)的隱秘性使得強權(quán)國家領(lǐng)導(dǎo)人相信,依靠自主武器系統(tǒng)實施遠程打擊不需要承擔戰(zhàn)爭責任且毫無風險可言,也使得這種匿名攻擊的戰(zhàn)爭倫理后果比以前更難評估。由于各軍事強國競相研發(fā)、部署和使用自主武器系統(tǒng),智能化時代的軍事對抗日益呈現(xiàn)出“去人類決策”“去人類中心化”的發(fā)展趨勢。作為人工創(chuàng)造物,自主武器系統(tǒng)正在取代人類的戰(zhàn)爭主體地位,開始控制戰(zhàn)爭,進而對傳統(tǒng)的戰(zhàn)爭倫理觀念構(gòu)成強有力的沖擊與挑戰(zhàn),人類戰(zhàn)爭向著失控的方向發(fā)展。
正義戰(zhàn)爭理論認為,戰(zhàn)爭的正義性應(yīng)當體現(xiàn)在目的、手段和責任三個方面,必須實現(xiàn)“開戰(zhàn)正義”“交戰(zhàn)正義”和“戰(zhàn)后正義”的統(tǒng)一?!伴_戰(zhàn)正義”是實現(xiàn)戰(zhàn)爭正義的起始點,主要是探討國家訴諸戰(zhàn)爭權(quán)利的正義性問題。依據(jù)經(jīng)典正義戰(zhàn)爭理論以及相關(guān)國際法規(guī)定,影響“開戰(zhàn)正義”的倫理原則主要包括“正當理由”“合法權(quán)威”“正當目的”“成功的可能性”“相稱性”和“最后手段”六個方面(18)左高山、李建華:《戰(zhàn)爭鏡像與倫理話語》 ,湖南大學出版社2008年版,第31頁。。
當前,對于自主武器系統(tǒng)引發(fā)戰(zhàn)爭倫理風險的探討,主要是將其作為一種戰(zhàn)爭手段,分析其在交戰(zhàn)過程中的手段正義性問題以及體現(xiàn)“戰(zhàn)后正義”的責任分配問題,也有少數(shù)學者關(guān)注到戰(zhàn)爭手段對于戰(zhàn)爭目的的反向影響。德國達姆施塔特工業(yè)大學的馬蒂亞斯·恩格勒特(Matthias Englert)等人認為,自主武器系統(tǒng)在作戰(zhàn)手段中的道德應(yīng)用,也是將價值觀和行為準則輸入智能化作戰(zhàn)平臺的控制系統(tǒng)(19)Matthias Englert,Sandra Siebert and Martin Ziegler,“Logical Limitations to Machine Ethics with Consequences to Lethal Autonomous Weapons”,Computer Science,No.11,2014.。自主武器系統(tǒng)的軍事應(yīng)用,特別是智能化情報分析和作戰(zhàn)輔助決策系統(tǒng)的出現(xiàn),將機器意志滲透到開戰(zhàn)決策之中,反向影響了戰(zhàn)爭決策者看待戰(zhàn)爭的價值觀念與行動操守,從而對“開戰(zhàn)正義”的倫理原則構(gòu)成沖擊與挑戰(zhàn)。具體而言,自主武器系統(tǒng)對于“開戰(zhàn)正義”的挑戰(zhàn),主要體現(xiàn)在對“正當理由”“合法權(quán)威”以及“最后手段”三個原則的挑戰(zhàn)。
在正義戰(zhàn)爭理論體系中,“正當理由”是維系“開戰(zhàn)正義”的首要原則。正義戰(zhàn)爭理論對正當理由原則有嚴格的限定,即唯一正當?shù)拈_戰(zhàn)理由是針對外敵侵略進行自衛(wèi)。自主武器系統(tǒng)的軍事應(yīng)用,沖擊了自衛(wèi)作為開戰(zhàn)正當理由的唯一性。
一方面,當前自主武器系統(tǒng)作戰(zhàn)應(yīng)用所展現(xiàn)的低成本和高效率,導(dǎo)致技術(shù)先發(fā)國家不斷弱化“正當理由”的倫理標準。較之傳統(tǒng)作戰(zhàn)平臺,目前各類半自主和完全自主武器系統(tǒng)不僅具有平臺無人、造價低廉等優(yōu)勢,而且可以通過匿名攻擊規(guī)避戰(zhàn)爭責任,其在經(jīng)濟、政治以及人員安全方面的成本優(yōu)勢,使其被廣泛應(yīng)用于高技術(shù)局部戰(zhàn)爭、反恐作戰(zhàn)等行動中。以美國的無人機反恐為例,邁克爾·沃爾澤(Michael Walzer)認為:“較之其他殺傷形式,無人機容易太多了,以至于讓我們產(chǎn)生不安。它是既誘人又危險的技術(shù)手段。它使我們的敵人比以往更脆弱,而我們的士兵沒有任何風險。……但技術(shù)太好,使用的標準就會逐步放松。”(20)Michael Walzer,“ Just & Unjust Targeted Killing & Drone Warfare”, Daedalus,Vol.145,No.4,2016.察打一體的武裝無人機,不僅強化了西方軍事強國打贏反恐戰(zhàn)爭的手段優(yōu)勢,也相應(yīng)降低其發(fā)動戰(zhàn)爭的物質(zhì)成本與道德成本,導(dǎo)致少數(shù)霸權(quán)國家弱化約束開戰(zhàn)正義的道德準則,以所謂“預(yù)先防衛(wèi)”的名義,濫用開戰(zhàn)權(quán)利。
美國使用無人機刺殺蘇萊曼尼的軍事行動即是一個典型的例子。關(guān)于刺殺蘇萊曼尼的原因,特朗普在2020年1月13日發(fā)表的個人推文中表明心跡:“蘇萊曼尼是否對美國進行襲擊并不重要,因為他過去的可怕經(jīng)歷!”(21)轉(zhuǎn)引自Alex Hobson,“An Eye for an Eye Doesn’t Make Americans Safer”,F(xiàn)oreign Policy,No.2,2020。這是對特朗普復(fù)仇心態(tài)的直接表述,也意味著在特朗普政府認同的開戰(zhàn)理由中,自衛(wèi)已經(jīng)不是具有優(yōu)先級的理由。而特朗普在白宮的講話中也指出:“如果任何地方的美國人受到威脅,我準備并采取任何必要的行動。特別是指伊朗?!?22)National Security & Defense,“Remarks by President Trump on the Killing of Qasem Soleimani”,https://www.whitehouse.gov/briefings-statements/remarks-president-trump-killing-qasem-soleimani/,2020-09-01.只要受到“威脅”而非遭受實質(zhì)性傷害就可以“采取任何必要的行動”,意味著在強大技術(shù)優(yōu)勢的加持下,美國反恐戰(zhàn)爭日益在戰(zhàn)略上迷失,“預(yù)先防衛(wèi)”驅(qū)使下的反恐戰(zhàn)爭在全球呈擴大化趨勢,從而使國際安全環(huán)境陷入更為嚴峻的形勢之中。
另一方面,未來完全自主武器系統(tǒng)的軍事應(yīng)用,將使得機器意志貫徹到開戰(zhàn)決策之中,導(dǎo)致維系“開戰(zhàn)正義”的“正當理由”原則面臨更嚴峻的挑戰(zhàn)。
伴隨軍事智能化的發(fā)展,自主武器系統(tǒng)參與戰(zhàn)爭決策的程度日益加深。早在1990年,美軍作戰(zhàn)實驗室進行實戰(zhàn)化仿真的推演結(jié)果,形成了以“左勾拳”為核心的低風險、低傷亡作戰(zhàn)方案,這也成為促成美國老布什政府作出海灣戰(zhàn)爭決策的關(guān)鍵依據(jù)(23)俞中明、楊旭:《海灣戰(zhàn)爭地面決戰(zhàn)的運籌分析》,中國系統(tǒng)工程學會軍事系統(tǒng)工程委員會第七屆年會論文集,1995年,第54-57頁。?!?·11”事件以來,美國等人工智能技術(shù)先發(fā)國家構(gòu)建了“棱鏡”等智能化大數(shù)據(jù)分析平臺(24)Aiesha Y.Khudayer,Rasha M.Abdulsalam,et al.,“Impact of NSA-PRISM to National Information Security Strategy & Policy”, International Journal of Information and Communication Technology Research,Vol.4,No.1 ,2014.,運用大數(shù)據(jù)挖掘、模擬仿真、兵棋推演等技術(shù)手段預(yù)判可能存在的國家安全威脅,以此作為先發(fā)制人發(fā)動軍事行動的憑據(jù)。當前,以美軍為首的北約國家在針對伊斯蘭極端宗教組織的反恐戰(zhàn)爭中,廣泛應(yīng)用人工智能技術(shù)預(yù)判恐怖威脅,通過對過往恐怖襲擊的時間、空間、人員、裝備以及政治誘因、宗教誘因、民族誘因等歷史信息進行關(guān)聯(lián)分析,預(yù)測未來可能發(fā)生的恐怖襲擊事件和鎖定恐怖嫌疑人。美軍針對潛在恐怖嫌疑人實施先發(fā)制人的“特征攻擊”,即目標一旦被自主武器系統(tǒng)認定具有恐怖分子的某些行為特征,美軍就可以在未經(jīng)國會批準的情況下實施“斬首”行動(25)Daniel Byman,“Why Drones Work:The Case for Washington’s Weapon of Choice”,F(xiàn)oreign Affairs,Vol.92,No.4,2013.。
未來,智能化戰(zhàn)爭決策系統(tǒng)自主能力的深度發(fā)展,可能進一步推動開戰(zhàn)決策模式由機器輔助決策向機器代替人決策的顛覆性轉(zhuǎn)變,由此也引發(fā)對開戰(zhàn)理由公開性與透明性的質(zhì)疑。依據(jù)正義戰(zhàn)爭理論,正當?shù)拈_戰(zhàn)理由不僅是合法的,而且應(yīng)當是公開透明、為公眾所理解的。自主武器系統(tǒng)一旦掌握開戰(zhàn)決策權(quán),將導(dǎo)致公開的開戰(zhàn)程序日益被隱秘的算法、模型和運算程序所取代,以各類算法、模型為基礎(chǔ)的軍事威脅評估系統(tǒng)被視作嚴格保護的機密,這些不透明、不接受質(zhì)疑、難以被理解的算法和模型被用于戰(zhàn)爭決策,而國際社會和普通民眾根本無法了解決策程序的具體運行規(guī)則,很難對其決策結(jié)果的正義性提出質(zhì)疑。
自主武器系統(tǒng)對于“開戰(zhàn)正義”的挑戰(zhàn),同樣體現(xiàn)為對“合法權(quán)威”原則的沖擊。正如美國賓夕法尼亞大學的亞倫·約翰遜(Aaron M.Johnson)所指出的:“自主武器系統(tǒng)引發(fā)了諸多倫理問題,但最核心的問題是將決定人類生命的權(quán)利由人轉(zhuǎn)交給機器?!?26)Aaron M.Johnson and Sidney Axinn,“The Morality of Autonomous Robots”,Journal of Military Ethics,Vol.12,No.2,2013.作為開戰(zhàn)正義的重要原則,“合法權(quán)威”原則規(guī)定戰(zhàn)爭是國家與國家之間的行為,主權(quán)國家和聯(lián)合國是發(fā)動正義戰(zhàn)爭的合法權(quán)威。自主武器系統(tǒng)的軍事應(yīng)用,使得各類智能化作戰(zhàn)平臺取代人類進行戰(zhàn)爭籌劃與決策成為可能,不僅顛覆了傳統(tǒng)作戰(zhàn)模式,也沖擊了“合法權(quán)威”原則的道義基礎(chǔ)。以韓國三星公司研發(fā)的SGR-A1機器人哨兵為例,據(jù)國際電氣和電子工程協(xié)會的報道,這款部署在韓朝邊境的武裝哨兵機器人,一旦切換至完全自主攻擊模式,將會掌握生殺予奪的權(quán)力,自主攻擊所有越境的入侵者(27)Jean Kumagai,“A Robotic Sentry for Korea’s Demilitarized Zone”, IEEE Spectrum,Vol.44,No.3,2007.。
更值得關(guān)注的是,自主武器系統(tǒng)一旦掌握自主開火權(quán),成為發(fā)動戰(zhàn)爭的“合法權(quán)威”,可能增加“意外戰(zhàn)爭”爆發(fā)的風險。“意外戰(zhàn)爭”是指由于核打擊方面的錯誤評估、錯誤判斷、錯誤警報或核事故而引發(fā)的軍事危機,甚至導(dǎo)致核戰(zhàn)爭的爆發(fā)。在傳統(tǒng)的危機預(yù)警模式下,人在系統(tǒng)的回路之中,既是危機反應(yīng)的最終決策者,也是危機處理最后的“保險裝置”。新美國安全中心高級研究員保羅·沙瑞爾(Paul Scharre)指出:“人類并不完美,但他們能夠同情對手并考慮全局。與人類不同,自主武器無法理解其行動的后果,也無法在戰(zhàn)爭的邊緣懸崖勒馬?!?28)[美]保羅·沙瑞爾:《無人軍隊:自主武器與未來戰(zhàn)爭》 ,朱啟超等譯,世界知識出版社 2019年版,第357頁。冷戰(zhàn)期間,美蘇雙方多次收到錯誤的核攻擊信息,得益于人類的理性判斷和人機雙重檢查機制,雙方最終選擇了克制而非升級的應(yīng)對策略,避免了核戰(zhàn)爭的意外爆發(fā)。自主武器系統(tǒng)的軍事應(yīng)用,可能帶來危機預(yù)警模式的革命性變化。在危機處理規(guī)程中,自主武器系統(tǒng)通過目標識別提取匹配算法規(guī)則的有效信息,自主進行具體分析和判斷。這種由算法主導(dǎo)的自主預(yù)警模式,雖然在一定程度上提升了國家危機預(yù)警的速度和效率,但是,由于將人類從危機預(yù)警的系統(tǒng)回路中剔除出來,人機雙重檢查制度和重新考慮機制無法實現(xiàn)。邁克爾·哈斯丘(Michael E.Haskew)認為:“使用自主武器的國家會在危機方程式中引入一個超出其直接控制范圍的變量?!?29)轉(zhuǎn)引自[美] 保羅·沙瑞爾《無人軍隊:自主武器與未來戰(zhàn)爭》,朱啟超等譯,世界知識出版社2019年版,第345頁。人類干預(yù)缺失造成的不可控性與算法運行的不可控性雙重疊加,進一步增加了危機的不穩(wěn)定性和發(fā)生“意外戰(zhàn)爭”的風險。
在傳統(tǒng)的“開戰(zhàn)正義”標準之下,戰(zhàn)爭作為解決國際爭端的一種手段,受到嚴苛的條件約束,即戰(zhàn)爭必須是政治、外交手段窮盡之后的最后選擇。這是由于戰(zhàn)爭作為國之大事,關(guān)乎國家、民族的生死存亡,戰(zhàn)爭失敗的沉重代價,決定了戰(zhàn)爭手段的運用只能是不得已而為之。近年來,國際上自主武器系統(tǒng)攻擊事件頻發(fā),對于美國等軍事強國而言,低成本、高效率且可以保證攻擊方絕對安全的各類自主武器系統(tǒng),已經(jīng)日益將戰(zhàn)爭變成一架“無風險”“零傷亡”的機器,進而使得戰(zhàn)爭從“最后手段”蛻變?yōu)椤白顑?yōu)手段”。概而言之,由人工智能技術(shù)驅(qū)動的自主武器系統(tǒng)對于“最后手段”原則的挑戰(zhàn),具體體現(xiàn)在三個方面:
首先,自主武器系統(tǒng)挑戰(zhàn)了“最后手段”原則成立的前提條件。費爾巴哈在《宗教的本質(zhì)》中指出:“人類的恐懼多源自于未知?!睉?zhàn)爭作為人類處理紛爭的最后手段,也是源于交戰(zhàn)各方對戰(zhàn)爭結(jié)果的未知。在信息技術(shù)不發(fā)達的古代,人們無法準確預(yù)知戰(zhàn)爭的勝負,處于“戰(zhàn)爭迷霧”籠罩下的政府對戰(zhàn)爭的決策必然是慎之又慎。人工智能技術(shù)以及自主武器系統(tǒng)的軍事應(yīng)用,使得戰(zhàn)爭的結(jié)果在一定程度上從“未知”變?yōu)椤耙阎?。人工智能科技領(lǐng)域的突破性進展和軍事應(yīng)用,催生了戰(zhàn)爭工程、兵棋推演以及作戰(zhàn)實驗室等一系列戰(zhàn)爭預(yù)判與評估手段。利用上述科技領(lǐng)域的最新進展,推演戰(zhàn)爭的進程并預(yù)測戰(zhàn)爭的結(jié)果,成為智能化戰(zhàn)爭的重要特征。借助人工智能技術(shù)的風險評估、推演和研判功能,少數(shù)霸權(quán)國家在預(yù)知戰(zhàn)爭結(jié)果的情況下,可以將遙遠的、不確定的軍事威脅評估為確定的、迫在眉睫的戰(zhàn)爭前景,并以此作為濫用“預(yù)先自衛(wèi)權(quán)”和發(fā)動“預(yù)防性戰(zhàn)爭”的現(xiàn)實憑據(jù)。同時,利用自主武器系統(tǒng)攻擊的低成本、零風險以及隱秘性等優(yōu)勢,這些國家可以逃避“尸袋綜合癥”帶來的國際、國內(nèi)輿論壓力,從而在輕易逾越戰(zhàn)爭門檻的同時占據(jù)道義制高點。
其次,自主武器系統(tǒng)打破了逐漸升級的“最后手段”使用模式。對于戰(zhàn)爭與政治的關(guān)系,克勞塞維茨(Carl Von Clausewitz)在《戰(zhàn)爭論》中有過精辟的論述:“戰(zhàn)爭是政治通過另一種手段的繼續(xù)?!睆臅r間關(guān)系上來看,這句話也說明政治手段與戰(zhàn)爭手段之間存在一個前后接續(xù)的關(guān)系。傳統(tǒng)的戰(zhàn)爭往往經(jīng)歷由照會、聲明、磋商、談判和斡旋等低成本政治外交手段,再向軍事滲透、介入、威懾、干預(yù)、打擊等高成本、高風險戰(zhàn)爭手段逐漸升級的過程。各類自主武器系統(tǒng)以其“無人化”“非接觸”的打擊優(yōu)勢,顛覆了逐漸升級的手段使用模式。特朗普政府在沒有掌握確鑿證據(jù)的情況下,就使用無人機擊斃伊朗軍事領(lǐng)導(dǎo)人蘇萊曼尼,也反映了在解決國際爭端中,較之暴力程度更低但程序繁瑣、時間冗長的政治、外交手段,能夠一錘定音且毫無風險的自主武器系統(tǒng)顯然更受到政治家的青睞。
最后,自主武器系統(tǒng)進一步挑戰(zhàn)了維系“最后手段”原則的均衡性基礎(chǔ)?!白詈笫侄巍痹瓌t成立的基礎(chǔ),在于敵對雙方力量總體上處于均勢狀態(tài),從而使他們審慎思考未來戰(zhàn)爭的殘酷性和取得戰(zhàn)爭勝利的慘重代價。正如美國內(nèi)戰(zhàn)時期著名將領(lǐng)羅伯特·李(Robert Lee)所言:“戰(zhàn)爭殘酷是件好事,否則人們真的會愛上戰(zhàn)爭?!庇跔柛W特曼(Jürgen Altmann)等學者指出,自主武器系統(tǒng)的軍事應(yīng)用,進一步打破了國際軍事競爭的戰(zhàn)略穩(wěn)定性(30)Jürgen Altmann and Frank Sauer,“Autonomous Weapon Systems and Strategic Stability”,Survival,Vol.59 ,No.5,2017.。自主武器系統(tǒng)實現(xiàn)人與武器的實質(zhì)性分離,極大提升作戰(zhàn)效率,同時使己方戰(zhàn)爭傷亡無限趨近于零。美軍正在實施的“第三次抵消戰(zhàn)略”,就是試圖利用人工智能技術(shù)和自主武器系統(tǒng)的質(zhì)量優(yōu)勢,抵消戰(zhàn)略對手在傳統(tǒng)信息化作戰(zhàn)力量上的數(shù)量優(yōu)勢。未來,具備人工智能的“無人軍團”,可能成為世界一流軍隊的“標配”,從而進一步拉大國際間軍力差距,在國際軍事力量博弈中塑造強者恒強、弱者愈弱的格局。
“交戰(zhàn)正義”又稱戰(zhàn)爭手段正義,主要體現(xiàn)為交戰(zhàn)過程中攻防雙方如何規(guī)制作戰(zhàn)手段的使用方式,使其符合倫理道德規(guī)范的要求。隨著各國加大對自主武器系統(tǒng)的研發(fā)投入,其在交戰(zhàn)過程中的自主性不斷提升。譬如,英國軍方研發(fā)的“雷神”無人機,設(shè)置有主動攻擊目標的可選模式,可在戰(zhàn)場上自主搜尋和攻擊敵對目標(31)[美]保羅·沙瑞爾:《無人軍隊:自主武器與未來戰(zhàn)爭》,朱啟超等譯,世界知識出版社 2019年版,第120頁。;韓國軍方部署的SGR-A1機器人哨兵,可以使用弱光攝像頭和模式識別軟件鎖定敵人,并在必要的時候自主決定開火射擊(32)Jean Kumagai,“A Robotic Sentry for Korea’s Demilitarized Zone”,IEEE Spectrum,Vol.44,No.3,2007.;俄羅斯軍方裝備的“平臺-M”陸戰(zhàn)機器人,可以在智能化系統(tǒng)控制下自主收集情報、搜索和摧毀固定及移動目標(33)[美] 保羅·沙瑞爾:《無人軍隊:自主武器與未來戰(zhàn)爭》,朱啟超等譯,世界知識出版社 2019年版,第125頁。。上述具有高度自主性的武器系統(tǒng)引發(fā)了國際社會的關(guān)注,自主武器系統(tǒng)能否在交戰(zhàn)過程中遵循戰(zhàn)爭倫理規(guī)范,成為當前國內(nèi)外學者爭議的焦點。一旦完全不受約束的自主武器系統(tǒng)取代人類成為戰(zhàn)爭唯一主體,必將挑戰(zhàn)維系“交戰(zhàn)正義”的基本倫理原則,可能導(dǎo)致人類社會面臨前所未有的自我毀滅風險。自主武器系統(tǒng)在交戰(zhàn)中的倫理風險,具體體現(xiàn)在以下幾個方面:
“區(qū)分原則”是體現(xiàn)“交戰(zhàn)正義”的一項基本原則。正如沃爾澤所指出的:“在任何情況下都不能攻擊非戰(zhàn)斗人員,永遠不能將其作為軍事行動的目標?!?34)[美]邁克爾·沃爾澤:《正義與非正義戰(zhàn)爭:通過歷史實例的道德論證》,任輝獻譯,江蘇人民出版社2008年版,第140頁?!皡^(qū)分原則”強調(diào)交戰(zhàn)各方必須對攻擊目標嚴格加以區(qū)分,以達成對平民特別是老弱婦孺、俘虜和喪失戰(zhàn)斗能力者等弱勢群體的保護。
自主武器系統(tǒng)帶來了戰(zhàn)場區(qū)分模式的革命性變化。在傳統(tǒng)戰(zhàn)爭模式下,區(qū)分目標由人類完成,自主武器系統(tǒng)利用算法取代人力主導(dǎo)的區(qū)分方式,即通過計算機編程的方法,將區(qū)分規(guī)則轉(zhuǎn)化為自主武器系統(tǒng)能夠理解的一組算法,由此也引發(fā)了學界的廣泛質(zhì)疑。2018年5月,3100多名谷歌員工聯(lián)名抵制軍用無人機作戰(zhàn)項目Maven,成為震驚全球的科技倫理事件(35)Rahul Kalvapalle,“What is Project Maven? The Pentagon AI project Google Employees Want Out of”,https://globalnews.ca/news/4125382/google-pentagon-ai-project-maven/,2021-01-23.。這一事件的爆發(fā),集中反映了學界對于算法區(qū)分模式潛在風險的憂慮。
史蒂文·烏姆布雷洛(Steven Umbrello)一針見血地指出,機器算法區(qū)分存在區(qū)分目標的盲區(qū),無法可靠地區(qū)分合法與非法目標(36)Steven Umbrello,“The Future of War: Could Lethal Autonomous Weapons Make Conflict More Ethical?”,AI & Society,Vol.35,No.1,2019.。在他看來,并非所有的區(qū)分標準都可以轉(zhuǎn)化為算法植入機器之中。當前,軍服、武器裝備等一系列明確標識可以設(shè)置區(qū)分規(guī)則,然而,在近期爆發(fā)的幾場高技術(shù)局部戰(zhàn)爭和反恐作戰(zhàn)中,為應(yīng)對北約國家的軍事打擊優(yōu)勢,對手采取寓軍于民的方式,軍事目標缺乏明顯的視覺標識,這給自主武器系統(tǒng)執(zhí)行區(qū)分任務(wù)帶來巨大挑戰(zhàn)。
特羅·卡爾皮(Karppi Tero)等人進一步指出,自主武器系統(tǒng)難以勝任涉及目標主觀情緒的區(qū)分任務(wù)(37)Karppi Tero,B?hlen Marc and Granata Yvette,“Killer Robots as Cultural Techniques”, International Journal of Cultural Studies,Vol.21,No.2,2018.。譬如,對于自主武器系統(tǒng)而言,區(qū)分投降信號的真?zhèn)伪葏^(qū)分軍民困難得多,因為傳遞投降信號的方式、方法和途徑呈現(xiàn)巨大的多樣性。人類對于投降信號的識別源于自身的經(jīng)驗、閱歷和主觀感受,難以通過編程方式轉(zhuǎn)化為可供機器區(qū)分操作的算法。
此外,錢鋮等人認為,自主武器系統(tǒng)在貫徹區(qū)分原則方面還存在跨文化環(huán)境障礙,美軍在無人機反恐作戰(zhàn)中,將是否攜帶管制武器作為區(qū)分恐怖分子的重要特征,忽視了中亞地區(qū)游牧民族成年男性有隨身佩戴刀具的文化傳統(tǒng)(38)錢鋮、石斌:《“雄蜂”的陰影——美國無人機作戰(zhàn)對當代戰(zhàn)爭倫理的挑戰(zhàn)》,《世界經(jīng)濟與政治》2013年第8期。。事實上,任何區(qū)分操作都是在具體的地域環(huán)境、文化環(huán)境和宗教環(huán)境中進行的,將自主武器系統(tǒng)置于跨文化環(huán)境的陌生戰(zhàn)場,可能造成識別區(qū)分操作的失誤。
在筆者看來,即便技術(shù)的發(fā)展使得上述區(qū)分盲區(qū)不復(fù)存在,以自主武器系統(tǒng)取代人類來區(qū)分目標,在道義上仍是難以接受的,因為它違背了確立“區(qū)分原則”的初衷?!皡^(qū)分原則”作為戰(zhàn)爭倫理規(guī)約的重要內(nèi)容,它所體現(xiàn)的根本精神就是對人類生命權(quán)利的尊重。沃爾澤提及的“裸兵”案例啟示我們,無論對于目標的識別多么契合“區(qū)分原則”,我們都需要在殘酷的戰(zhàn)爭決策中留有道義的余地,以彰顯敬畏生命、憐憫弱者的人性光輝(39)“裸兵”的案例是沃爾澤在《正義與非正義戰(zhàn)爭:通過歷史實例的道德論證》中摘錄羅伯特·格里福斯一戰(zhàn)回憶錄的一段:“在后方支援線,我打了個盹,剛醒過來,從射擊孔透過望遠鏡看去,大約700碼外一個德國人。他正在德國的第三線洗澡。我討厭向一個沒有防衛(wèi)的人射擊,就把步槍遞給了一個中士。”。一旦自主武器系統(tǒng)可以自行決定敵人生死,就會從根本上抹去人性在戰(zhàn)場上的存在感,進而可能帶來重大倫理風險。這種倫理風險并非主要由算法區(qū)分的運行錯誤所導(dǎo)致,而是因為算法區(qū)分剝奪了人類決定同類生死的權(quán)利和尊嚴,踐踏了“珍視生命、同情弱者”的社會價值觀念。在一個由自主武器系統(tǒng)主宰殺戮的社會,人類缺乏對殺戮行為的道德負擔,其結(jié)果必然使殺戮變得毫無人性。
在正義戰(zhàn)爭理論中,“相稱性原則”是“區(qū)分原則”的重要補充。“相稱性原則”強調(diào)在針對合法目標進行攻擊時,也必須視目標和作戰(zhàn)環(huán)境的具體情況,選擇使用相稱的作戰(zhàn)方式和暴力手段,避免過度殺傷和重復(fù)傷害(40)周桂銀:《國際政治中的外交、戰(zhàn)爭與倫理》,南京大學出版社2018年版,第287頁。。
在技術(shù)樂觀主義者眼中,自主武器系統(tǒng)堪稱滿足“相稱性原則”的典范:一是空間相稱,依托人工智能技術(shù)實現(xiàn)目標自主鎖定,精確限定作戰(zhàn)區(qū)域,選擇性殺傷目標,最大限度避免“附帶傷害”;二是時間相稱,以美國X-47B無人機為代表的自主武器系統(tǒng),能夠?qū)崿F(xiàn)“半小時覆蓋全球”的快速打擊,避免“馬拉松”式消耗戰(zhàn);三是傷亡相稱,“自主武器系統(tǒng)”實現(xiàn)人與武器的實質(zhì)性分離,且按照智能作戰(zhàn)推演優(yōu)化作戰(zhàn)方案,使實際傷亡無限趨近于零?;诖?,美國智庫蘭德公司宣稱,比起傳統(tǒng)軍事力量,自主武器系統(tǒng)能更好地遵循“相稱性原則”(41)Lynn E.Davis,Michael J.McNerney,et al.,“Armed and Dangerous?UAVs and U.S.Security”,RAND,2014.。
相對于美國軍方的樂觀主義態(tài)度,倫理學界以理性的態(tài)度分析問題,指出自主武器系統(tǒng)雖然在數(shù)據(jù)處理與速度計算方面擁有人類難以比擬的優(yōu)勢,但在進行相稱性的道德評估方面仍存在諸多瓶頸。
沙瑞爾從簡單環(huán)境與復(fù)雜環(huán)境的比較視角指出,自主武器系統(tǒng)僅能評估太空、深海、極地等簡單環(huán)境下的相稱性問題,卻難以在復(fù)雜環(huán)境下遵循相稱性原則。他認為:“在人口稠密地區(qū)遵循相稱性原則變得困難得多?!@將要求機器掃描目標周圍的平民區(qū)域,估計潛在的附帶損傷,然后判斷是否應(yīng)該進行攻擊,這個過程很難實現(xiàn)自動化。”(42)[美]保羅·沙瑞爾:《無人軍隊:自主武器與未來戰(zhàn)爭》,朱啟超等譯,世界知識出版社2019年版,第288頁。在復(fù)雜環(huán)境下,權(quán)衡軍事目標價值與預(yù)期平民傷亡之間的相稱性關(guān)系,涉及極其復(fù)雜的道德推理和評估能力,這是當前自主武器系統(tǒng)難以做到的。
錢鋮等人從物理傷害與心理傷害的視角指出,軍事行動既要在物理毀傷層面滿足相稱性原則,也需要在心理傷害層面滿足相稱性原則。自主武器系統(tǒng)能夠?qū)ξ锢須M行精確評估,進而衡量物理層面的相稱性問題,卻難以準確評估對敵國民眾造成的持久性心理創(chuàng)傷,他們將美國無人機“定點清除”行動給所在國家民眾帶來心理層面的創(chuàng)傷稱之為“雄蜂的陰影”( the Shadow of the Drone)(43)錢鋮、石斌:《“雄蜂”的陰影——美國無人機作戰(zhàn)對當代戰(zhàn)爭倫理的挑戰(zhàn)》,《世界經(jīng)濟與政治》2013年第8期。。在筆者看來,“雄蜂的陰影”反映了當前美國利用自主武器系統(tǒng)反恐面臨的道德困境。在某些西方媒體的宣傳解讀下,無人機等半自主或自主作戰(zhàn)平臺是以精準的物理摧毀來占據(jù)道義的制高點,媒體大肆宣揚依托無人機清除恐怖分子首領(lǐng)的“輝煌戰(zhàn)果”,卻刻意掩飾阿富汗、也門、索馬里、敘利亞等反恐區(qū)域內(nèi)民眾反美情緒日益高漲、恐怖主義源頭難以清除以及“三股勢力”活動愈演愈烈等一系列問題??梢韵胂?,在未來自主武器系統(tǒng)成為執(zhí)法工具的時代,當局者可能對其快捷高效的執(zhí)法能力贊譽有加,而普通民眾也會對“機器人暴政”產(chǎn)生強烈的心理恐懼。
奧特曼等人從戰(zhàn)術(shù)和戰(zhàn)略的視角指出,自主武器系統(tǒng)即便在戰(zhàn)術(shù)層面能夠遵守相稱性原則,在戰(zhàn)略層面也難以遵循相稱性原則。針對少數(shù)美國學者提出的利用“蜂群”攻擊敵對國家的核武器輸送系統(tǒng),提升美國彈道導(dǎo)彈防御能力的方案,他們認為,自主武器系統(tǒng)執(zhí)行的任務(wù)雖然只是小規(guī)模戰(zhàn)術(shù)行動,但是可能造成戰(zhàn)略影響(44)Jürgen Altmann and Frank Sauer,“Autonomous Weapon Systems and Strategic Stability”,Survival,Vol.59,No.5,2017.。一旦自主武器系統(tǒng)與核武器攻防技術(shù)深度融合,就必然會增加核戰(zhàn)略對手之間的緊張和不信任,進一步刺激各國優(yōu)先發(fā)展“先發(fā)制人”的自主武器系統(tǒng),降低核大國之間的戰(zhàn)略互信,威脅全球核戰(zhàn)略穩(wěn)定性。
在筆者看來,技術(shù)樂觀主義者片面強調(diào)“自主武器系統(tǒng)”在簡單環(huán)境、物理毀傷以及戰(zhàn)術(shù)層面遵循“相稱性原則”的優(yōu)勢,刻意忽視其在復(fù)雜環(huán)境、心理傷害以及戰(zhàn)略層面違背“相稱性原則”的問題,反映出對“相稱性原則”內(nèi)涵的曲解。沃爾澤指出:“我們要把‘造成的傷害’——這想必不僅包括對個人的直接傷害,也包括對人類長期利益的傷害——與傷害對勝利目標的促進作用加以權(quán)衡比較?!?45)[美]邁克爾·沃爾澤:《正義與非正義戰(zhàn)爭:通過歷史實例的道德論證》,任輝獻譯,江蘇人民出版社2008版,第118頁。在沃爾澤看來,“相稱性原則”在時間維度包括兩方面含義:一方面是短期相稱性,另一方面是長遠相稱性。自主武器系統(tǒng)在簡單環(huán)境、物理毀傷以及戰(zhàn)術(shù)層面的行為影響都是短期的,而在復(fù)雜環(huán)境、心理傷害以及戰(zhàn)略層面的行為影響將是長期持續(xù)的。兩者相較,維護人類長期利益的持久和平無疑更為重要。
“戰(zhàn)后正義”又稱戰(zhàn)爭責任正義。人類既是享有發(fā)動戰(zhàn)爭權(quán)利的主體,又是承擔戰(zhàn)爭責任的主體。正如沃爾澤所指出的:“責任分配是對正義論的重要檢驗?!灰覀儨蚀_地指出責任者或者我們的責任分配和道德判斷符合戰(zhàn)爭的實際經(jīng)驗,并對戰(zhàn)爭的所有痛苦保持敏感,就會極大地增強正義論的力量。如果最終無人負責,在戰(zhàn)爭中就沒有任何正義可言?!?46)[美] 邁克爾·沃爾澤:《正義與非正義戰(zhàn)爭:通過歷史實例的道德論證》,任輝獻譯,江蘇人民出版社2008版,第261頁。“戰(zhàn)后正義”主要關(guān)注人類應(yīng)當承擔的戰(zhàn)爭責任,具體體現(xiàn)在戰(zhàn)后秩序重建、侵略罪行審判、戰(zhàn)爭賠償以及制裁等戰(zhàn)爭責任分配問題。在智能化戰(zhàn)爭模式下,伴隨自主武器系統(tǒng)的出現(xiàn)與應(yīng)用,人作為戰(zhàn)爭的責任主體從作戰(zhàn)系統(tǒng)中脫離出來,將生死決定權(quán)委托給機器。對于這一變化,馬庫斯·舒爾茨克(Marcus Schulzke)、斯瓦蒂·馬利克(Swati Malik)、邦尼·多徹蒂(Bonnie Docherty)等戰(zhàn)爭倫理學者認為,自主武器系統(tǒng)無法識別、承擔責任并接受懲罰,原有的戰(zhàn)后正義規(guī)約難以約束一場完全由機器人來進行的戰(zhàn)爭(47)Marcus Schulzke,“Autonomous Weapons and Distributed Responsibility”,Philosophy & Technology,Vol.26,2013;Swati Malik,“Autonomous Weapon Systems: The Possibility and Probability of Accountability”,Wisconsin International Law Journal,Vol.35 ,No.3,2018;Bonnie Docherty,“Mind the Gap: The Lack of Accountability for Killer Robots”,http://autonomousweapons.org/mind-the-gap-the-lack-of-accountability-for-killer-robots/,2021-01-23.,相應(yīng)的倫理風險體現(xiàn)為:
在傳統(tǒng)戰(zhàn)爭模式下,人類作為軍事行動的遂行者和武器的直接操控者,其所從事的戰(zhàn)爭行為與其導(dǎo)致的后果之間存在清晰的對應(yīng)關(guān)系。依據(jù)正義戰(zhàn)爭理論,如果有可以辨認的戰(zhàn)爭罪行,就必定有可以辨認的罪犯。伴隨自主武器系統(tǒng)的軍事應(yīng)用,人類在戰(zhàn)爭系統(tǒng)中的定位由“人在回路內(nèi)”逐漸向“人在回路上”乃至“人在回路外”轉(zhuǎn)變,作戰(zhàn)主體與作戰(zhàn)手段之間的距離日益拉大,當前西方軍事強國廣泛使用的“捕食者”“收割者”等半自主武裝無人機,就是典型的“平臺無人,體系有人”作戰(zhàn)模式。無人機操控員在千里之外實現(xiàn)對目標的遠程打擊,他們在感官上與戰(zhàn)場隔絕可能導(dǎo)致其行為與責任的分離。正如紐約大學法學系教授菲利普·阿斯頓(Philip Alston)所指出的:“作戰(zhàn)人員通過計算機按鍵與遠程視頻反饋來實施打擊,因此存在以游戲心態(tài)來殺人的風險?!?48)Philip Alston,“Study on Targeted Killings”,A/HRC/14/24/ADD.6,New York: United Nations,General Assembly,2010,p.25.可以預(yù)見,一旦真正意義上的自主武器系統(tǒng)大規(guī)模投入戰(zhàn)場,人類將從瞄準和擊殺的作戰(zhàn)鏈條中被移除,這會從根本上改變?nèi)伺c戰(zhàn)爭、人與殺戮之間的關(guān)系,也將徹底打破正義戰(zhàn)爭理論所強調(diào)的“戰(zhàn)爭罪犯”與“戰(zhàn)爭罪行”之間的對應(yīng)關(guān)系。美國亞利桑那州立大學的希瑟·羅夫(Heather Roff)和卡內(nèi)基梅隆大學的大衛(wèi)·丹克斯(David Danks)指出:“人類對于自主武器系統(tǒng)的信任源自于人類對其行動可預(yù)測性的判斷?!?49)Heather M.Roff and David Danks,“‘Trust but Verify’: The Difficulty of Trusting Autonomous Weapons Systems”,Journal of Military Ethics,Vol.17,No.1,2018.如果自主武器系統(tǒng)錯誤的殺戮行為超出了人類可以預(yù)料的范圍,人類就可能產(chǎn)生不需要對殺戮行為負責任的情緒,這種“問責空白”可能會導(dǎo)致更多的殺戮和痛苦。
自主武器系統(tǒng)的作戰(zhàn)應(yīng)用,不僅會造成機器難以代替人類承擔戰(zhàn)爭責任的“問責空白”,而且可能導(dǎo)致戰(zhàn)爭責任的分配困境。傳統(tǒng)戰(zhàn)爭模式下,責任主體構(gòu)成相對簡單,主要由政治家、軍隊指揮官和士兵等特定對象構(gòu)成。自主武器系統(tǒng)研發(fā)鏈條的復(fù)雜性和高技術(shù)密集性,促使程序員、算法工程師、數(shù)據(jù)工程師以及自主武器裝備生產(chǎn)商等新興責任主體出現(xiàn),自主武器系統(tǒng)研發(fā)過程的復(fù)雜性與作戰(zhàn)應(yīng)用過程的復(fù)雜性雙重疊加,導(dǎo)致戰(zhàn)爭責任分配面臨巨大的困境,甚至可能出現(xiàn)責任“轉(zhuǎn)嫁”的風險。一方面,自主武器系統(tǒng)的所有國可以通過匿名攻擊的方式,使得自主武器攻擊難以溯源,導(dǎo)致被攻擊國家的盲目猜測,進而逃避戰(zhàn)爭罪責。譬如,2010年發(fā)生的“震網(wǎng)”病毒攻擊伊朗核電站事件以及2020年發(fā)生的伊朗核科學家遇刺事件,都是采取自主武器系統(tǒng)匿名攻擊的方式,使得攻擊者可以逃避戰(zhàn)爭責任的追究;另一方面,敵對國家也可以利用智能化作戰(zhàn)平臺對作戰(zhàn)網(wǎng)絡(luò)的高度依賴,采取電磁干擾、木馬植入、黑客入侵等方式,操控其進行大量違背人道主義準則的軍事行動,而將罪責轉(zhuǎn)嫁給智能化作戰(zhàn)平臺的所有國。2011年,伊朗電子戰(zhàn)專家成功俘獲美軍RQ-170“哨兵”無人機的案例,說明在自主武器領(lǐng)域,技術(shù)先發(fā)國家與后進國家一樣,都可能面臨戰(zhàn)爭責任“轉(zhuǎn)嫁”的風險。
當前,學界對于自主武器系統(tǒng)的戰(zhàn)爭責任正義研究,主要是從倫理規(guī)約的層面,探討人工智能技術(shù)的軍事應(yīng)用給戰(zhàn)爭責任分配帶來的挑戰(zhàn)以及如何應(yīng)對這種挑戰(zhàn)。然而,在筆者看來,實現(xiàn)戰(zhàn)爭的責任正義,不僅要靠法律法規(guī)和倫理原則的約束,更需要將承擔戰(zhàn)爭責任作為一種文化進行傳承。正如美國五星上將道格拉斯·麥克阿瑟所述:“軍人必須承擔保護弱者和沒有武裝者的責任。這是他擔任這個神圣職務(wù)的根本理由。”(50)轉(zhuǎn)引自[美]邁克爾·沃爾澤《論戰(zhàn)爭》 ,任輝獻等譯,江蘇人民出版社2008年版,第33-34頁。軍人作為一種社會尊崇的職業(yè)存在的道德基礎(chǔ),就在于軍人以自我犧牲的精神替代平民承擔更大的責任與風險。軍人具有“保家衛(wèi)國”“不怕犧牲”“英勇殺敵”等武德精神,正是責任文化傳承的鮮明體現(xiàn)。一旦自主武器系統(tǒng)取代人類成為戰(zhàn)爭主體,戰(zhàn)爭將會進入“后英雄主義時代”,各類自主武器系統(tǒng)承擔絕大部分的作戰(zhàn)風險,戰(zhàn)爭中的軍人被置于比平民還要安全的境地,他們將不再被期待具備過人的勇氣和大無畏的精神,從而在無形中瓦解了確認軍人職業(yè)身份的道義根基,也意味著軍人“武德精神”的終結(jié)。
自主武器系統(tǒng)在軍事領(lǐng)域的廣泛應(yīng)用,將軍事智能化的廣闊前景展現(xiàn)在世人面前,同時,也使得人類戰(zhàn)爭較之以往任何時刻都更為接近失控的邊緣。這種由自主武器系統(tǒng)帶來的失控風險,貫穿于開戰(zhàn)、交戰(zhàn)、戰(zhàn)后的整個戰(zhàn)爭過程之中,體現(xiàn)為對戰(zhàn)爭倫理規(guī)約的顛覆性挑戰(zhàn)。
在“開戰(zhàn)正義”層面,自主武器系統(tǒng)所展現(xiàn)的巨大軍事價值,導(dǎo)致“開戰(zhàn)正義”倫理原則的弱化,進而降低了開戰(zhàn)門檻并增加了爆發(fā)“意外戰(zhàn)爭”的可能性。首先,“正當理由”原則日益由抵御侵略的被動自衛(wèi)弱化為主動先發(fā)制人的“預(yù)先防衛(wèi)”?!盁o風險”“零傷亡”的自主武器系統(tǒng)攻擊,促使少數(shù)霸權(quán)國家無視“開戰(zhàn)正義”對于“正當理由”原則的嚴苛限制,導(dǎo)致“預(yù)先防衛(wèi)”權(quán)利的濫用和預(yù)防性軍事打擊的頻繁發(fā)生。其次,開戰(zhàn)“合法權(quán)威”日益由主權(quán)國家的國家意志轉(zhuǎn)向智能化自主武器系統(tǒng)的機器意志。人類依賴智能化作戰(zhàn)指揮決策系統(tǒng)進行戰(zhàn)爭決策,從本質(zhì)上來說就是一種基于技術(shù)信任的授權(quán),將本應(yīng)歸屬于主權(quán)國家的開戰(zhàn)權(quán)利讓渡給機器,導(dǎo)致國家意志可能被機器意志操控。再次,戰(zhàn)爭作為“最后手段”日益向“最優(yōu)手段”轉(zhuǎn)變。自主武器系統(tǒng)強化了技術(shù)先發(fā)國家在“反恐戰(zhàn)爭”和高技術(shù)局部戰(zhàn)爭中的優(yōu)勢,促使少數(shù)霸權(quán)國家將遙遠的、不確定的軍事威脅評估為確定的、迫在眉睫的戰(zhàn)爭前景,頻頻以自主武器攻擊的方式逾越戰(zhàn)爭門檻,使全球安全與戰(zhàn)略穩(wěn)定性面臨更加嚴峻的挑戰(zhàn)。
在“交戰(zhàn)正義”層面,自主武器系統(tǒng)取代人類成為戰(zhàn)爭主體,沖擊了維系“交戰(zhàn)正義”的“區(qū)分原則”和“相稱性原則”。一方面,對于遵循“區(qū)分原則”而言,自主武器系統(tǒng)以計算機算法區(qū)分取代人力區(qū)分,徹底顛覆了傳統(tǒng)的戰(zhàn)場區(qū)分模式,同時也使得作戰(zhàn)行動遵循“區(qū)分原則”面臨新的挑戰(zhàn)。自主武器系統(tǒng)的算法區(qū)分,只能利用軍服、武器裝備等明顯的視覺標識來設(shè)置區(qū)分規(guī)則,從而造成一系列區(qū)分盲區(qū)。同時,基于計算機算法的區(qū)分模式將決定人類生命的權(quán)利交給冰冷的機器,導(dǎo)致人類對戰(zhàn)場殺戮行為缺乏道德責任感。另一方面,對于遵循“相稱性原則”而言,自主武器系統(tǒng)只能評估簡單戰(zhàn)場環(huán)境、物理毀傷方面以及短期戰(zhàn)術(shù)層面的相稱性問題,卻難以評估涉及復(fù)雜戰(zhàn)場環(huán)境、心理層面?zhèn)σ约伴L期戰(zhàn)略層面的相稱性問題,從而在本質(zhì)上背離了“相稱性原則”的道義要求。
在“戰(zhàn)后正義”層面,非人化的自主武器系統(tǒng)難以替代人類成為承擔戰(zhàn)爭責任的主體。首先,自主武器系統(tǒng)沒有能力為自己的犯罪行為感到內(nèi)疚,因此難以承擔戰(zhàn)爭責任。自主武器系統(tǒng)的作戰(zhàn)應(yīng)用,導(dǎo)致戰(zhàn)爭責任主體日益呈現(xiàn)人機分離和責任主體多元化的發(fā)展趨勢。承擔戰(zhàn)爭責任作為維系人類“戰(zhàn)后正義”的倫理規(guī)約,難以適用于一場自主武器系統(tǒng)作為責任主體的戰(zhàn)爭。自主武器系統(tǒng)在法律上不能夠視為自然人,如果強行用約束人類戰(zhàn)爭行為的規(guī)范生搬硬套,必然會造成問責缺位的責任鴻溝,進而造成戰(zhàn)爭中犯錯不受懲罰的文化在軍隊盛行,并可能導(dǎo)致戰(zhàn)時行為的極端非人化。其次,即便理論上人類應(yīng)當承擔“殺手機器人”的罪責,然而真正實現(xiàn)責任到人仍然面臨諸多瓶頸。機器人的罪行需要在設(shè)計者、生產(chǎn)者、管理者、使用者、監(jiān)督者等諸多主體之間進行“責任分攤”,進而容易引發(fā)“責任擴散”,責任如何在諸多主體之間進行公正的分配也缺乏明確的標準,并且可能造成責任“轉(zhuǎn)嫁”的風險。最后,一旦自主武器系統(tǒng)替代軍人承擔戰(zhàn)爭責任,也將在無形中瓦解社會對于軍人職業(yè)身份認同的道德基礎(chǔ),甚至導(dǎo)致軍人“武德精神”的消弭。