王祖遠
一個下雪的日子,兩國的士兵在邊界進行例行巡邏。雙方皆配有帶自動武器系統(tǒng)的履帶機器人,這種機器人配有機械槍和光學系統(tǒng),可分辨外來威脅,例如人類或是交通工具。當雙方的巡邏隊伍在凹凸不平的地面慢慢交會時,一名士兵不慎跌倒,觸發(fā)了他的突擊步槍。另一方機器人記錄到槍聲后將此舉解釋為攻擊行動,隨即決定進行適當回應。不到一秒鐘,雙方的機器人在系統(tǒng)的命令下,將武器轉(zhuǎn)向人類目標,然后展開進攻。一陣槍林彈雨過后,12名或死或傷的士兵四散倒臥在他們的機器人同伴身旁。最后兩國檢討此次事故,都將責任歸咎到對方身上……
雖然這個假設(shè)情況看似荒誕,但這些戰(zhàn)用機器人確實早已有雛形。
“自動化”不受人類控制
愛沙尼亞的米爾蘭姆機器人公司研發(fā)出一款叫作THEMIS的機器人,全名為“履帶式混合模塊化步兵系統(tǒng)”。它的身體靠著小型坦克履帶移動,上方有遠端武器炮塔,可搭載小口徑或大口徑的機械槍;它還配有鏡頭與目標追蹤軟件,可讓炮塔按照設(shè)定追逐人類或物體。目前這套系統(tǒng)仍由人類控制,米爾蘭姆公司也如此堅稱,但其實機器人的系統(tǒng)已能讓它自行判斷眼前情況,辨別可能的作戰(zhàn)目標并進行追蹤。米爾蘭姆公司官網(wǎng)上指出:“THEMIS有近乎無限的潛在用途?!?/p>
在戰(zhàn)爭中使用致命武器對抗作戰(zhàn)目標,過去一直是由人類做出決定,但這種情況可能很快面臨改變。人工智能、機器影像辨識和機器人等現(xiàn)代技術(shù)讓武器系統(tǒng)不需人類參與,便能確認并殺死戰(zhàn)場上的敵人。
俄羅斯、中國、美國都在努力研發(fā)可將武器與感應器、定位計算機配對的自動平臺;英國和以色列早已使用具有自動化功能的武器,包括可找尋并攻擊敵人雷達的飛彈、無人機,以及無須人類命令便可決定發(fā)射炮火的交通工具與船艦。
“機器殺人”跨越道德
什么情況下軍事武器可以或應該代理人類,決定由機器取走人類的生命?這個問題跨越道德,讓人思考戰(zhàn)爭的本質(zhì),如今軍事策劃者、人權(quán)組織、國防官員、研究分析師和倫理學家都尚未取得共識。
自動殺人機器并不是新科技,其實數(shù)十年前早已有武器系統(tǒng)可以獨立辨識并攻擊目標。在20世紀80年代和90年代,美國戰(zhàn)爭策劃者已測試可獨自辨認目標的魚叉反艦飛彈和戰(zhàn)斧巡弋飛彈,這兩種飛彈至今仍在人為監(jiān)控的情況下使用。
美國最先進的自動武器主要著重防御應用。2003年美國在伊拉克的大型基地遭到攻擊,美國陸軍研發(fā)出“反火箭、火炮和迫擊炮”系統(tǒng),可偵測空中威脅并向人類操作員示警,當人類按下按鈕,該系統(tǒng)可追蹤并發(fā)射可在空中自行爆炸的彈藥來炸毀威脅來源,借此減少人員傷亡與損害。
華盛頓智庫“新美國安全中心”高級研究人員沃克表示:“當大量飛彈襲來,人類不可能說:‘好,你先擊毀那個飛彈。作戰(zhàn)信息中心的人員沒辦法跟上飛彈速度,因此美國策劃人員發(fā)展出方陣近迫武器系統(tǒng)和神盾戰(zhàn)斗系統(tǒng),它們可以聯(lián)結(jié)船艦和飛機上的感應器辨認空中威脅,操作人員輸入信息后,可自動發(fā)射飛彈進行攻擊?!?/p>
這些系統(tǒng)已被事先安排好,只要人類在某個時間點按下按鈕,機器就可做出一切決定。
在沃克看來,致命自動武器的定義為:一旦人類解除限制,便可獨立決定摧毀對象與目標的武器。
恐致更嚴重血腥沖突
沃克于2014年到2017年擔任美國國防部副部長,當時他負責執(zhí)行國防部的“第三次抵消戰(zhàn)略”,即利用美軍最核心的創(chuàng)新科技打擊敵人的可能優(yōu)勢。美國第一次抵消戰(zhàn)略在美國前總統(tǒng)艾森豪威爾任內(nèi)實施,旨在建立美國核優(yōu)勢;第二次在20世紀70年代和80年代,強調(diào)美國計算機和導彈科技;第三次抵消戰(zhàn)略將結(jié)合人類與機器的優(yōu)點,利用人工智能、機器自動化來打造更快更聰明的網(wǎng)絡(luò)。
獨立致命武器的支持派認為機器可降低錯誤發(fā)生率。瑟瑞最近開始在美國陸軍訓練與條令司令部監(jiān)控數(shù)據(jù)科學、模型和模擬,他表示,機器人可在幾毫秒內(nèi)分析人類想象不到的大量數(shù)據(jù),并判斷出使用武器限制損害的最佳時間點。但是反對派表示,一旦致命機器人犯錯,將招致更嚴重的血腥沖突,這需要自動武器持有國相互合作與約束。
雖然多數(shù)國家支持自動武器在某種程度上由手動控制,但卻難以解釋“實務(wù)上有效人為控制”的意義。美國海軍戰(zhàn)爭學院軍事倫理教授波林·尚克斯·考林表示,人類會譴責某種行動或?qū)⒅侠砘@牽涉到人類會判斷這些行動是否符合道德,如果今天不是人類做決定,那這就變成機器對機器的問題了。
如潘多拉盒子
電動車大廠特斯拉創(chuàng)辦人馬斯克、已故英國理論物理學家霍金、蘋果公司共同創(chuàng)辦人沃茲尼克和多位人工智能研究人員,2015年曾簽署一封公開信,警告自動武器可能成為暗殺、顛覆國家、壓迫人民和選擇性殺害特定種族的工具。
馬斯克曾指出,人工智能武器恐成人類最大威脅,一旦打開了這個潘多拉的盒子,就再也關(guān)不起來了。
盡管如此,沃克對道德問題的看法仍比較樂觀,他認為未來人類會更不用擔心將控制權(quán)交給自動武器代理,但他坦言人類必須采取行動,而且還有漫漫長路需要努力。
(編輯 巧克力)