龍 坤
(國防大學(xué) 國家安全學(xué)院,北京 100091)
2010年前后,以深度學(xué)習(xí)為代表的新一輪人工智能浪潮興起,一方面,給軍事變革帶來了重大機(jī)遇,有望助推各國軍事實(shí)力的躍升,重塑戰(zhàn)爭形態(tài)。另一方面,人工智能軍事應(yīng)用也給國際安全帶來了諸多挑戰(zhàn)[1]。特別是自2022年11月以來,以ChatGPT為代表的生成式人工智能迅猛發(fā)展,部分展現(xiàn)了在多領(lǐng)域達(dá)到乃至超越人類智能的通用人工智能的潛在能力,掀起了人工智能研發(fā)應(yīng)用的新一波熱潮。在此背景下,國際各方越來越認(rèn)識到,在積極發(fā)展人工智能的同時,必須高度重視其可能帶來的風(fēng)險和挑戰(zhàn),加強(qiáng)前瞻性應(yīng)對和治理。人工智能全球安全治理就是對人工智能軍事應(yīng)用產(chǎn)生的全球安全威脅進(jìn)行全球?qū)用娴闹卫?,在人工智能軍事?yīng)用風(fēng)險越來越凸顯的背景下,這一新興全球治理領(lǐng)域越來越受到國際社會的重視。本文將梳理各方在人工智能全球安全治理領(lǐng)域的新進(jìn)展,考察這一領(lǐng)域的焦點(diǎn)議題及主要分歧,為推進(jìn)這一領(lǐng)域的治理進(jìn)程和學(xué)界研究提供參考。
迄今為止,國際社會的多個行為體都參與到了人工智能全球安全治理這一進(jìn)程中來。具體而言,最新進(jìn)展主要表現(xiàn)在以下3個方面。
從國家行為體來看,針對人工智能的全球安全治理主要有以下最新代表性進(jìn)展。
中國高度重視人工智能全球安全治理,呼吁在人工智能治理領(lǐng)域踐行人類命運(yùn)共同體理念。2021年9月,中國國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能倫理規(guī)范》,提出了增進(jìn)人類福祉、促進(jìn)公平公正等6項基本倫理要求和18項具體倫理要求,以實(shí)際行動為推動人工智能治理、構(gòu)建人類命運(yùn)共同體作出表率[2]。同年12月,中國代表李松大使在《特定常規(guī)武器公約》第六次審議大會上提交的《中國關(guān)于規(guī)范人工智能軍事應(yīng)用的立場文件》中強(qiáng)調(diào)“智能向善”原則,呼吁“各國政府、國際組織、技術(shù)企業(yè)、科研院校、民間機(jī)構(gòu)和公民個人等各主體秉持共商共建共享的理念,協(xié)力共同促進(jìn)人工智能安全治理”[3]。2022年7月,在聯(lián)合國特定常規(guī)武器公約框架下針對致命性自主武器系統(tǒng)(Lethal Autonomous Weapons Systems,LAWS)的政府專家組第二期會議上,中國提交了關(guān)于致命性自主武器的工作文件[4]。2022年11月,中國政府在參加《特定常規(guī)武器公約》締約國會議時,進(jìn)一步提交了《中國關(guān)于加強(qiáng)人工智能倫理治理的立場文件》,從監(jiān)管、研發(fā)、使用和國際合作4個方面提出了強(qiáng)化全球人工智能倫理治理的中國方案[5]。2023年2月21日,中國發(fā)布了《全球安全倡議概念文件》,其中特別強(qiáng)調(diào),要“加強(qiáng)人工智能等新興科技領(lǐng)域國際安全治理,預(yù)防和管控潛在安全風(fēng)險”[6]。
美國大力推動所謂負(fù)責(zé)任人工智能軍事應(yīng)用戰(zhàn)略及“最佳實(shí)踐”(Best Practice)。2022年6月,美國國防部出臺《負(fù)責(zé)任人工智能戰(zhàn)略和實(shí)施路線圖》,提出了負(fù)責(zé)任人工智能戰(zhàn)略的6大原則,旨在建立士兵、指揮員和民眾對人工智能軍事應(yīng)用的信任[7]。2023年1月,美國國防部更新了《3000.09指令》(武器系統(tǒng)中的自主性)[8]。早在2012年,美軍就出臺了這一指令,強(qiáng)調(diào)“自主和半自主武器系統(tǒng)的設(shè)計應(yīng)允許指揮官和操作員對其進(jìn)行適當(dāng)?shù)娜祟惻袛唷?,以及“授?quán)使用、指揮使用或操作自主和半自主武器系統(tǒng)的人必須嚴(yán)格地服從,并執(zhí)行戰(zhàn)爭法、適用的條約、武器系統(tǒng)安全規(guī)則和適用的交戰(zhàn)規(guī)則”[9]。這次更新對這一問題進(jìn)行了進(jìn)一步細(xì)化明確,將前期的軍用人工智能倫理準(zhǔn)則嵌入。2022年,美國聯(lián)合澳大利亞、加拿大、日本、韓國、英國向聯(lián)合國提交了《致命性自主武器系統(tǒng)領(lǐng)域新興技術(shù)的原則和最佳實(shí)踐》文件,強(qiáng)調(diào)了國際人道法適用、國家責(zé)任等原則,并提出了所謂的人工智能軍事應(yīng)用“最佳實(shí)踐”[10]。2023年5月,美國聯(lián)合澳大利亞、加拿大、日本、波蘭、韓國、英國向聯(lián)合國提交了《自主武器系統(tǒng)條款草案——基于國際人道法的禁令和其他監(jiān)管措施》文件,強(qiáng)調(diào)禁止不符合國際人道法的自主武器系統(tǒng),并提出了促進(jìn)自主武器系統(tǒng)使用時符合國際人道法原則的措施建議[11]。
除中美兩個人工智能大國外,其他一些國家也在人工智能全球安全治理領(lǐng)域采取了一些舉措。比較有代表性的有:2022年3月,阿根廷、哥斯達(dá)黎加、危地馬拉、哈薩克斯坦、尼日利亞、巴拿馬、菲律賓、塞拉利昂、巴勒斯坦、烏拉圭這10個發(fā)展中國家組成的代表團(tuán)提交了《實(shí)現(xiàn)自主武器系統(tǒng)新議定書的路線圖》,旗幟鮮明地呼吁針對LAWS問題制定一項具有法律約束力的文書啟動開放式談判[12]。2022年7月,在聯(lián)合國特定常規(guī)武器公約框架下針對致命性自主武器系統(tǒng)的政府專家組本年度第二期會議上,法國、德國、芬蘭、荷蘭、挪威、西班牙和瑞典7個歐盟國家共同提交了一份立場文件,提出了針對LAWS的分級分類管理辦法[13]。2023年5月,俄羅斯提交工作文件《俄軍在發(fā)展和使用具有人工智能技術(shù)的武器系統(tǒng)方面的活動構(gòu)想》,提出了安全、透明、技術(shù)主權(quán)、責(zé)任與控制這五大原則[14]。2023年5月,阿根廷、厄瓜多爾、薩爾瓦多、哥倫比亞、哥斯達(dá)黎加、危地馬拉、哈薩克斯坦、尼日利亞、巴勒斯坦、巴拿馬、秘魯、菲律賓、塞拉利昂和烏拉圭這14個國家在第二期會議上向聯(lián)合國提交了《關(guān)于自主武器系統(tǒng)的第六附加議定書草案》,呼吁“禁止在任何情況下設(shè)計、開發(fā)、生產(chǎn)、擁有、獲取、部署、轉(zhuǎn)讓或使用在選擇、瞄準(zhǔn)或使用武力等關(guān)鍵功能時無法在有意義的人類控制下使用的自主武器系統(tǒng),包括那些以無法預(yù)測、解釋、預(yù)期、理解或追蹤的方式運(yùn)作的武器系統(tǒng)”[15]。
聯(lián)合國《特定常規(guī)武器公約》機(jī)制聚焦自主武器議題的軍控磋商。當(dāng)前,致命性自主武器系統(tǒng)是人工智能全球安全治理最為核心的議題,而聯(lián)合國《特定常規(guī)武器公約》機(jī)制則是迄今為止針對LAWS議題最為官方的磋商平臺。自2013年以來,多國代表和全球公民社會代表圍繞LAWS議題在這一平臺上召開了多次非正式和正式的會議[16]。這一機(jī)制經(jīng)過數(shù)年的磋商,達(dá)成的最為重要的成果是于2019年9月確立了關(guān)于LAWS的11項指導(dǎo)原則[17]。2022年和2023年,按照這一機(jī)制每年都召開了兩期政府專家組會議,各方代表提交了相關(guān)工作文件,表達(dá)了對人工智能軍事應(yīng)用尤其是致命性自主武器系統(tǒng)的立場和觀點(diǎn),并審議通過了年度報告[18]。
聯(lián)合國其他一些機(jī)構(gòu)也在人工智能全球安全治理問題上取得了一些新的進(jìn)展。比較有代表性的是,2021年11月25日,聯(lián)合國教科文組織正式推出《人工智能倫理問題建議書》,該建議書由教科文組織會員國集體通過,是關(guān)于人工智能主題的首份全球性規(guī)范框架,提出了規(guī)范人工智能發(fā)展應(yīng)遵循的原則及應(yīng)用領(lǐng)域[19]。此外,2022年10月,70個國家在聯(lián)合國大會第一委員會發(fā)布了關(guān)于致命性自主武器系統(tǒng)的聯(lián)合聲明(以奧地利為代表)。聲明中強(qiáng)調(diào),自主武器系統(tǒng)給人類社會帶來了嚴(yán)重的人道主義、技術(shù)、安全、法律和倫理挑戰(zhàn),要維持人類對武力使用的控制和責(zé)任,有必要達(dá)成廣泛認(rèn)可的國際規(guī)則[20]。
近年來,除聯(lián)合國外,一些區(qū)域性政府間組織也發(fā)布了涉及人工智能倫理準(zhǔn)則的重要文件。2021年2月,非洲人權(quán)委員會通過了第一份關(guān)于人工智能的決議,強(qiáng)調(diào)要對自主武器系統(tǒng)保持“有意義的人類控制”[21]。非常值得注意的是,2023年2月15日—16日,荷蘭與韓國共同主辦了“軍事領(lǐng)域負(fù)責(zé)任使用人工智能”峰會,中國、美國等80多個主權(quán)國家,以及聯(lián)合國等國際組織應(yīng)邀參加,來自政府、智庫、企業(yè)、科研機(jī)構(gòu)等1700余人與會。此次峰會發(fā)布了成果文件《軍事領(lǐng)域負(fù)責(zé)任使用人工智能行動倡議》(REAIM Call to Action),呼吁國際社會應(yīng)就軍事領(lǐng)域人工智能應(yīng)用所帶來的安全風(fēng)險挑戰(zhàn)加強(qiáng)多利益攸關(guān)方的討論合作。此外,2023年2月25日,組成拉美和加勒比國家共同體的33個國家在哥斯達(dá)黎加召開了“人工智能對社會和人道主義的影響”會議,并發(fā)表了一份共同宣言,呼吁“就自主武器系統(tǒng)問題緊急談判一項具有法律約束力的國際文書”。
在人工智能全球安全治理領(lǐng)域,非政府組織和技術(shù)社群的積極性和活躍度非常高,成為重要的推動力量。其中,非政府組織主要以未來生命研究所(Future of Life Institute)、禁止殺手機(jī)器人運(yùn)動(Campaign to Stop Killer Robots)、人工智能安全中心等為代表,技術(shù)社群則包括埃隆·馬斯克、戴密斯·哈薩比斯等人工智能領(lǐng)域的一些知名專家。近年來,具有代表性的倡議如下:2018年6月,在瑞典召開的國際人工智能聯(lián)合會議上,埃隆·馬斯克、戴密斯·哈薩比斯等超過2000名人工智能專家和企業(yè)家共同簽署《致命性自主武器宣言》(Lethal Autonomous Weapons Pledge),堅決反對這類武器的研發(fā)、生產(chǎn)和使用,并呼吁各國政府強(qiáng)化對這類武器的監(jiān)管。此外,在ChatGPT等人工智能大模型迅速發(fā)展應(yīng)用的背景下,2023年3月22日,未來生命研究所向全社會發(fā)布了一封《暫停大型人工智能研究》的公開信,呼吁所有人工智能實(shí)驗室立即暫停比GPT-4更強(qiáng)大的人工智能系統(tǒng)的訓(xùn)練,暫停時間至少為6個月。截至5月14日,已有包括馬斯克在內(nèi)的超過兩萬名科技專家、企業(yè)家及其他人士簽署了這一公開信[22]。2023年5月30日,非政府國際組織“人工智能安全中心”(Center for AI Safety)發(fā)布公開信,強(qiáng)調(diào)“減輕人工智能帶來的人類滅絕風(fēng)險,應(yīng)該與大流行病和核戰(zhàn)爭等其他影響社會的大規(guī)模風(fēng)險一同成為全球優(yōu)先事項”,呼吁國際社會認(rèn)真對待人工智能帶來的一系列重要且緊迫的風(fēng)險。該公開信已獲得各領(lǐng)域教授和學(xué)者總計超350人的簽署[23]。這意味著諸多世界知名專家已經(jīng)將人工智能給人類帶來的生存威脅確定為全球亟須應(yīng)對的優(yōu)先事項。
當(dāng)前國際社會圍繞人工智能全球安全治理這一新興的全球科技治理領(lǐng)域,主要焦點(diǎn)在于對自主武器系統(tǒng)的規(guī)制,具體的議題包括但不限于以下5個方面。
對于自主武器、致命性自主武器、人工智能賦能的武器系統(tǒng)、完全自主武器等概念界定和基本特征,目前國際上還未形成一致的看法。
俄羅斯認(rèn)為,完全自主武器系統(tǒng)是不需要人類操作者參與的,用于執(zhí)行作戰(zhàn)和作戰(zhàn)支援任務(wù)的一種無人技術(shù)手段(而非彈藥)[24]。自主武器系統(tǒng)的定義不應(yīng)限制技術(shù)進(jìn)步和不利于民用機(jī)器人、人工智能的研究,而應(yīng)當(dāng)符合以下要求:包括對自主武器系統(tǒng)武器種類、生產(chǎn)和試驗條件及使用程序的說明;不局限于目前對LAWS的理解,也要考慮未來的發(fā)展前景;在包括科學(xué)家、工程師、技術(shù)人員、軍事人員、律師和倫理學(xué)家在內(nèi)的專家群體范圍內(nèi)尋求普遍認(rèn)同[25]。美國認(rèn)為,自主武器系統(tǒng)是指一旦被激活,就可以識別、選擇并使用致命力量打擊目標(biāo),而無須操作員進(jìn)一步干預(yù)的武器系統(tǒng)[8]。美國傾向于將人工智能賦能武器和人工智能武器進(jìn)行區(qū)分,認(rèn)為前者會使人類指揮的戰(zhàn)爭更精確、致命和有效,而后者則可以脫離人類控制做出致命的決定,強(qiáng)調(diào)要限制的是后一類武器,而非前者。阿根廷等13個發(fā)展中國家組成的集團(tuán)認(rèn)為,自主武器系統(tǒng)是指其關(guān)鍵功能中具有自主性的武器系統(tǒng),包括在沒有人為干預(yù)的情況下使用武力選擇、瞄準(zhǔn)和打擊目標(biāo)。這意味著根據(jù)傳感器數(shù)據(jù)處理而非直接根據(jù)人類指令來選擇目標(biāo)和進(jìn)行武力打擊。中國則認(rèn)為,致命性自主武器系統(tǒng)應(yīng)滿足但不限于致命性、全自主性、無法終止性、濫殺性、進(jìn)化性這5個基本特征[4]。
總的來看,國際社會對于自主武器、自動武器、自動化武器的區(qū)分還存在明顯的模糊性和分歧,對于致命性自主武器系統(tǒng)應(yīng)當(dāng)包括哪些特點(diǎn)也爭論不休,各方?jīng)]有在人工智能軍事應(yīng)用的概念特征方面形成一致的認(rèn)識,這對于如何對相關(guān)武器系統(tǒng)進(jìn)行限制等治理行動造成了較大的阻礙。
同時,在是否需要制定自主武器相關(guān)的工作定義這一問題上,各方也存在較大分歧。一些國家認(rèn)為,制定具有廣泛共識的工作定義是有效治理的必要前提。例如,俄羅斯強(qiáng)調(diào),明確定義是各代表團(tuán)開始工作的起點(diǎn),各國應(yīng)把重點(diǎn)放在確定自主武器系統(tǒng)的定義和特征上,然后再開始考慮規(guī)制措施。土耳其表示,在沒有定義的情況下制定具有法律約束力的文書將難以實(shí)現(xiàn)。但也有一部分國家認(rèn)為,不需要制定廣泛認(rèn)可的工作定義,也能推進(jìn)這一領(lǐng)域的相關(guān)工作。愛爾蘭就表示,關(guān)于自主武器系統(tǒng)缺乏全面的談判定義不應(yīng)被視為進(jìn)展的障礙,例如“恐怖主義”和“核武器”就沒有國際公認(rèn)的定義,但相關(guān)的國際合作仍可以照常進(jìn)行。
目前,國際社會圍繞自主武器系統(tǒng)具體規(guī)制方案這一議題,主要呈現(xiàn)出以下3類主張。
一是建立新的具有法律約束力的國際文書(Legally Binding Instrument,LBI),禁止和限制特定類別自主武器系統(tǒng)的使用。如效仿《特定常規(guī)武器公約》對不可探測碎片、燃燒武器、集束彈藥、激光致盲武器、戰(zhàn)爭遺留物的規(guī)制,建立第六附加議定書。持這類觀點(diǎn)的主要是以阿根廷、菲律賓等為代表的人工智能技術(shù)和軍事應(yīng)用程度較低的廣大發(fā)展中國家,以及以國際紅十字委員會、“禁止殺手機(jī)器人運(yùn)動”組織為代表的非政府組織。目前,阿根廷、厄瓜多爾、哥斯達(dá)黎加、尼日利亞、巴拿馬、菲律賓、塞拉利昂和烏拉圭已經(jīng)聯(lián)合向聯(lián)合國提交《特定常規(guī)武器公約》第六附加議定書草案[26]。據(jù)統(tǒng)計,截至2023年5月,已有90個國家贊同展開對制定一項關(guān)于LAWS問題的具有法律約束力的國際文書進(jìn)行談判[27]。
二是通過一項不具有法律約束力的行為準(zhǔn)則或政治聲明,制定相關(guān)原則、現(xiàn)有法律適用的解釋等“軟法”,對自主武器系統(tǒng)的研發(fā)和使用進(jìn)行規(guī)范。持這一觀點(diǎn)的主要有美國、俄羅斯、以色列、印度、土耳其等人工智能軍事應(yīng)用走在前列的國家。美國堅決不支持談判一項關(guān)于自主武器系統(tǒng)的具有法律約束力的文書。在2021年《特定常規(guī)武器公約》致命性自主武器系統(tǒng)問題政府專家組第二期會議上,美國就旗幟鮮明地表示,“現(xiàn)有的國際人道主義法及國家層面執(zhí)行國際人道主義法的有效措施,足以應(yīng)對致命性自主武器系統(tǒng)帶來的挑戰(zhàn)[28]。”
三是雙層方案(Two-Tied Approach),即分兩個層級對自主武器系統(tǒng)進(jìn)行有區(qū)別的管制,禁止完全脫離人類控制和負(fù)責(zé)任的指揮鏈運(yùn)作的完全自主致命武器系統(tǒng),管理其他具有自主性的致命武器系統(tǒng)。這一主張的代表國家是法國、德國、芬蘭、荷蘭、挪威、西班牙和瑞典7個歐盟國家。2022年3月,在向聯(lián)合國提交的立場文件中,這7個國家共同提出了針對自主武器系統(tǒng)的分類管理辦法,即宣布在人類控制和負(fù)責(zé)任的指揮系統(tǒng)之外運(yùn)作的全自主致命武器系統(tǒng)為非法,監(jiān)管其他具有自主性的致命武器系統(tǒng),以確保遵守國際人道法的規(guī)則和原則,保持人的責(zé)任和問責(zé)制,確保適當(dāng)?shù)娜祟惪刂?,并?shí)施風(fēng)險緩解措施[13]。目前,已有包括美國、新西蘭、阿根廷、澳大利亞等在內(nèi)的相當(dāng)一部分國家表示支持采取雙層方案。這表明,國際社會在針對自主武器系統(tǒng)的具體規(guī)制措施方面正在朝著一定的共識方向前進(jìn)。
在國際人道法適用這一問題上,各方普遍認(rèn)為國際人道主義法繼續(xù)全面適用于所有武器系統(tǒng),包括致命性自主武器系統(tǒng)的潛在發(fā)展和使用;各國負(fù)責(zé)計劃和進(jìn)行攻擊的人必須遵守國際人道主義法;基于新興技術(shù)的武器系統(tǒng)的潛在使用必須按照適用的國際法來進(jìn)行,通過指揮控制鏈來實(shí)施。平民和戰(zhàn)斗人員在任何時候都應(yīng)受到來自既定習(xí)慣、人道原則和公眾良知要求的國際法原則的保護(hù)和管轄。
但是,在是否需要制定新國際法來規(guī)制這類武器系統(tǒng)的問題上,國際社會存在較大的歧見。美國、俄羅斯等國家認(rèn)為,包括區(qū)分、比例和預(yù)防措施原則在內(nèi)的現(xiàn)有國際人道法,已經(jīng)為管制自主武器系統(tǒng)提供了一個全面的框架,不需要制定新的法律規(guī)范。2021年12月,在《特定常規(guī)武器公約》第六次審議大會上,俄羅斯明確反對制定任何關(guān)于自主武器系統(tǒng)的具有法律約束力的國際文書,也不同意暫停開發(fā)和使用這類系統(tǒng)及相關(guān)技術(shù),因為這將會對民用領(lǐng)域的高科技發(fā)展產(chǎn)生負(fù)面影響,也會影響社會安全目標(biāo)的實(shí)現(xiàn)。與此針鋒相對的是,以紅十字國際委員會等為代表的行為體強(qiáng)調(diào),現(xiàn)有規(guī)則并不能完全解決LAWS所引發(fā)的人道、法律和道德關(guān)切,需要具有法律約束力的新規(guī)則來闡明國際人道法如何適用于LAWS的規(guī)制。新規(guī)則應(yīng)規(guī)定對不可預(yù)測的自主武器系統(tǒng)予以明令禁止;基于根本道德關(guān)切,禁止使用殺傷人員的自主武器;對于未被禁止的LAWS,需要對其目標(biāo)類型、使用時長、地理范圍和規(guī)模、使用場景、人機(jī)互動的設(shè)計和使用進(jìn)行限制[29]。
有意義的人類控制(Meaningful Human Control,MHL)是指維護(hù)人類對于武力使用的判斷和干預(yù)等能動性,包括:重新定義或修改武器系統(tǒng)的目標(biāo)或任務(wù)或使其適應(yīng)環(huán)境的能力;根據(jù)需要停用、中止、終止或中斷其操作和使用;限制武器系統(tǒng)使用范圍和規(guī)模的能力;能夠理解和解釋武器系統(tǒng)的功能,以便回顧性地提供解釋[15]。人類判斷即人類而非機(jī)器根據(jù)他們對當(dāng)時所掌握信息的評估,真誠地作出特定判斷。目前,大部分國家支持對自主武器系統(tǒng)保持有意義的人類控制這一提法。例如,德國和土耳其表示,有意義的人類控制框架可提供一個重要基礎(chǔ),在此基礎(chǔ)上可以達(dá)成共識。墨西哥表示,有意義的人類控制是現(xiàn)有國際人道法和國際人權(quán)法的隱含條件,必須在武器系統(tǒng)全生命周期中進(jìn)行有意義的人類控制[30]。阿根廷也強(qiáng)調(diào),有意義的人類控制至關(guān)重要,應(yīng)成為確定是否遵守國際人道法及倫理原則的關(guān)鍵標(biāo)準(zhǔn)。如果要按照國際人道法使用自主武器系統(tǒng),就必須保證由有意義的人類控制。土耳其和巴勒斯坦均表示,不符合有意義的人類控制的自主武器系統(tǒng)與國際人道法相悖,應(yīng)當(dāng)被嚴(yán)格禁止。
然而,美國和俄羅斯反對有意義的人類控制這一概念。美國宣稱,人類控制本身不是一項法律要求,而只是幫助確保遵守國際人道法的一種手段。國際人道法并未將“人類控制”一詞作為對武器系統(tǒng)的要求,幾乎所有的武器和彈藥都不受人類控制。自主性并不會降低對武力使用的控制,反而會加強(qiáng)對武力的控制,從而有助于提升對平民的保護(hù)。美國不同意制定“新的人類控制標(biāo)準(zhǔn)”,認(rèn)為有意義的人類控制這一概念正在導(dǎo)致各方的分裂,而避免這種情況的辦法是制定一項澄清國際人道法如何適用于自主武器系統(tǒng)的國際文書[31]。俄羅斯也對有意義的人類控制這一概念表示反對,并表示堅持這一提法可能會導(dǎo)致意見兩極分化,也難以讓各國找到合適的定義。挪威等部分國家秉持折中的看法,認(rèn)為如果各國不能在使用有意義的人類控制這個術(shù)語上達(dá)成一致,可以聚焦有意義的人類控制所包含的基本要素,比如可預(yù)測性、可理解性、可解釋性、可靠性等方面[30]。
人工智能軍事應(yīng)用會帶來哪些風(fēng)險?如何緩解這些風(fēng)險?這也是當(dāng)前人工智能全球安全治理領(lǐng)域的關(guān)鍵議題之一,國際社會對此高度關(guān)注。
目前,治理各方對管控人工智能軍事應(yīng)用的各類風(fēng)險達(dá)成了原則性的共識。聯(lián)合國《指導(dǎo)原則》第六條明確,在發(fā)展或取得基于致命性自主武器系統(tǒng)領(lǐng)域新技術(shù)的新武器系統(tǒng)時,應(yīng)考慮到實(shí)體安保、適當(dāng)?shù)姆菍?shí)體保障(包括針對黑客攻擊或數(shù)據(jù)欺騙等網(wǎng)絡(luò)安全問題)、落入恐怖主義團(tuán)體手中的風(fēng)險和擴(kuò)散的風(fēng)險;第七條進(jìn)一步指出,風(fēng)險評估和緩解措施應(yīng)成為任何武器系統(tǒng)新技術(shù)的設(shè)計、發(fā)展、測試和部署周期的組成部分[17]。此外,各方還意識到,必須考慮到平民傷亡等風(fēng)險,以及有助于減少各類風(fēng)險的預(yù)防措施。應(yīng)酌情考慮其他類型的風(fēng)險,包括但不限于意外交戰(zhàn)的風(fēng)險、系統(tǒng)失控的風(fēng)險、擴(kuò)散的風(fēng)險及恐怖組織獲取的風(fēng)險。針對這些風(fēng)險的緩解措施可包括:對系統(tǒng)進(jìn)行嚴(yán)格的測試和評估,法律審查,易于理解的人機(jī)界面和控制,培訓(xùn)專業(yè)人員,建立理論和程序,并通過適當(dāng)?shù)慕粦?zhàn)規(guī)則限制武器的使用;在可行和適當(dāng)?shù)那闆r下,必須制定涵蓋所有可能或預(yù)期使用情況的可驗證性和認(rèn)證程序,應(yīng)分享應(yīng)用這些程序的經(jīng)驗;在可行和適當(dāng)?shù)那闆r下,必須將跨學(xué)科的觀點(diǎn)納入研究和開發(fā),包括通過獨(dú)立的倫理審查,同時考慮到國家安全因素和對商業(yè)專有信息的限制。
關(guān)于這一議題的主要分歧在于,風(fēng)險緩解措施和建立信任措施能否取代具有法律約束力的國際文書。英美等國家認(rèn)為,這類措施足以有效治理人工智能軍事應(yīng)用帶來的風(fēng)險,無須額外制定具有法律約束力的國際條約。而一些國家則認(rèn)為這類措施并不能取代具有法律約束力的國際條約。例如,菲律賓表示,避免使用與武力相關(guān)的人工智能風(fēng)險的最佳方法仍然是禁止使用超出人類控制范圍、不具有可理解性、可靠性等的武器。風(fēng)險緩解措施不應(yīng)僅限于國內(nèi)層面,而應(yīng)拓展到多邊商定框架。古巴也強(qiáng)調(diào),具有法律約束力的國際文書才是避免和消除部署此類系統(tǒng)所帶來風(fēng)險的最有效措施。
人工智能全球安全治理是全人類面臨的共同課題,從維護(hù)人類共同安全和尊嚴(yán)出發(fā),有效管控人工智能軍事應(yīng)用引發(fā)的全球安全風(fēng)險,是各國安全發(fā)展的必要條件和義不容辭的責(zé)任。當(dāng)前,圍繞人工智能全球安全治理這一領(lǐng)域,一些代表性的主權(quán)國家、國際組織、技術(shù)社群和非政府組織等行為體均認(rèn)識到了人工智能軍事應(yīng)用的風(fēng)險和治理的必要性,表達(dá)了自身的立場觀點(diǎn),并展開了一系列治理行動,這是積極的方面。但與此同時,各方在概念特征、治理路徑、國際法適用、人類控制等具體的議題中,仍存在顯著分歧,人工智能全球安全治理仍面臨主體間信任赤字、治理平臺碎片化、治理進(jìn)程難以取得實(shí)質(zhì)進(jìn)展等諸多挑戰(zhàn)[32]。不難預(yù)見,隨著生成式人工智能的快速發(fā)展與應(yīng)用,以及越來越多的智能無人武器在俄烏沖突等局部戰(zhàn)爭中的廣泛使用,人工智能全球安全治理的重要性將會愈加凸顯。在此背景下,各方要著眼全人類共同利益,秉持人類命運(yùn)共同體理念,踐行全球安全倡議,攜手應(yīng)對人工智能軍事應(yīng)用帶來的全球安全威脅和挑戰(zhàn),以聯(lián)合國平臺為核心,以其他機(jī)制為補(bǔ)充,求同存異,探索具有廣泛共識的人工智能全球安全治理方案。中國作為人工智能發(fā)展大國,需把握好負(fù)責(zé)任推進(jìn)人工智能軍事應(yīng)用與推動人工智能全球安全治理之間的合理平衡,倡導(dǎo)以人為本、智能向善、多元參與、開放對話、共建共享、合作共贏,進(jìn)一步參與和引領(lǐng)人工智能全球安全治理進(jìn)程,在這一領(lǐng)域推動構(gòu)建人類命運(yùn)共同體,為建設(shè)持久和平、普遍安全的世界做出積極貢獻(xiàn)。