馮國釗,張 婷
(1.國防大學(xué)政治學(xué)院,陜西 西安 710000;2.貴州財經(jīng)大學(xué)西密歇根學(xué)院,貴州 貴陽 550004)
生成式人工智能是建立在深度機器學(xué)習(xí)技術(shù)基礎(chǔ)上的一種新興人工智能技術(shù),其在網(wǎng)絡(luò)空間的應(yīng)用較為普遍,比如用于對話交流的ChatGPT、用于文案制作的Jasper和用于視頻編輯的Runway等。生成式人工智能可以使網(wǎng)絡(luò)攻擊行為更高效、更智能和更具隱蔽性,對國際秩序和網(wǎng)絡(luò)安全環(huán)境形成嚴(yán)峻挑戰(zhàn),亟待國際社會為其建章立制。作為迄今為止國際社會分歧最小的國際強行法,國際人道法的法律屬性切合網(wǎng)絡(luò)環(huán)境中生成式人工智能的規(guī)制需要。通過探究國際人道法對網(wǎng)絡(luò)攻擊中生成式人工智能的適用,檢驗現(xiàn)存國際法能否解決人工智能領(lǐng)域和網(wǎng)絡(luò)領(lǐng)域相結(jié)合所帶來的風(fēng)險和挑戰(zhàn)。
人工智能一詞最早出現(xiàn)在1956年的達特茅斯會議,伴隨著機器學(xué)習(xí)技術(shù)的出現(xiàn),人工智能的發(fā)展進入第一次繁榮時期,人工智能和機器學(xué)習(xí)在國際社會的熱度越來越高。機器學(xué)習(xí)的目標(biāo)不是讓機器獲得和人類一樣的思考能力,而是使計算機擁有在沒有明確編程情況下的學(xué)習(xí)能力,使用機器學(xué)習(xí)模型基于訓(xùn)練創(chuàng)建全新的輸出。1997年IBM計算機程序“深藍”戰(zhàn)勝國際象棋世界冠軍卡帕斯羅夫,2016年谷歌公司研制的AlphaGo擊敗棋王李世石,2017年AlphaGo被“無師自通”的AlphaGo Zero擊敗。從嚴(yán)格意義上講,這些勝利更多應(yīng)歸功于機器學(xué)習(xí)領(lǐng)域的發(fā)展。因為人工智能的創(chuàng)新和學(xué)習(xí)能力有限,它完全依賴于人類輸入的知識。而機器學(xué)習(xí)的優(yōu)勢在于通過學(xué)習(xí)數(shù)據(jù)中的歷史關(guān)系和趨勢,產(chǎn)生可靠決策和結(jié)果,并發(fā)現(xiàn)隱藏的見解。[1]
信息化戰(zhàn)爭的出現(xiàn)已是不爭的事實,網(wǎng)絡(luò)已成為“第五個戰(zhàn)場”。著名軍事預(yù)測家詹姆斯·亞當(dāng)斯在著作《下一場世界戰(zhàn)爭》中預(yù)言:“在未來的戰(zhàn)爭中,計算機本身就是武器,前線無所不有。奪取作戰(zhàn)空間控制權(quán)的不是炮彈和子彈,而是計算機網(wǎng)絡(luò)中流動的比特和字節(jié)。”[2]在網(wǎng)絡(luò)作戰(zhàn)環(huán)境中,生成式人工智能可以自動地調(diào)整并應(yīng)用某些程序、軟件或病毒,以人類無法達到的速度解決網(wǎng)絡(luò)中的威脅,這種快速反應(yīng)能力對網(wǎng)絡(luò)行動至關(guān)重要。目前網(wǎng)絡(luò)空間的人工智能主要應(yīng)用于增強安全防護、處理安全數(shù)據(jù)、模擬攻擊行為、加強入侵檢測、刪除惡意軟件和識別釣魚網(wǎng)站等防御層面。而自我定義為“理性、中立、客觀”的ChatGPT,在處理文本中的思想、意識形態(tài)偏向,直接受到研發(fā)公司的灌輸[3],可以將大量帶有預(yù)設(shè)價值的合成內(nèi)容快速投放輿論戰(zhàn)場,迅速形成輿論攻勢,搶占輿論制高點。研究表明,生成式人工智能在加強網(wǎng)絡(luò)防御的同時,通過不斷學(xué)習(xí)獲得繞過這些防御的方法,因此也能擔(dān)負網(wǎng)絡(luò)攻擊的任務(wù)。[4]美國斯坦福大學(xué)和Infinite初創(chuàng)公司曾聯(lián)合研發(fā)了一種自主網(wǎng)絡(luò)攻擊系統(tǒng),該系統(tǒng)具有自主學(xué)習(xí)網(wǎng)絡(luò)環(huán)境并自行生成特定惡意代碼進行網(wǎng)絡(luò)攻擊的能力,惡意代碼的生成、執(zhí)行、感染具有更強的隱蔽性。網(wǎng)絡(luò)和人工智能的結(jié)合發(fā)展,將成為未來奪取網(wǎng)絡(luò)空間優(yōu)勢的有力武器。目前,生成式人工智能已經(jīng)存在脫離人類控制的趨勢,在網(wǎng)絡(luò)攻擊中將逐漸取代人類成為決策者和執(zhí)行者,戰(zhàn)爭形態(tài)或?qū)⒀葑優(yōu)椤叭藱C大戰(zhàn)”或者“機器人之間的互相殺戮”。[5]如果任由網(wǎng)絡(luò)環(huán)境下生成式人工智能自由發(fā)展,將會對社會秩序造成破壞。因此,對網(wǎng)絡(luò)環(huán)境下生成式人工智能進行必要的規(guī)制勢在必行。
20世紀(jì)40年代,科幻小說家艾薩克·阿西莫夫撰寫的《我,機器人》科幻小說探討了機器與道德的問題,呼吁對人工智能加以控制,比爾·蓋茨、斯蒂芬·霍金等人也同樣發(fā)出過類似的警告。2019年6月,紅十字國際委員會在《武裝沖突中的人工智能與機器學(xué)習(xí):以人為本的方法》報告中指出:“雖然使用人工智能與機器學(xué)習(xí)的可能方式及其潛在影響尚不完全明晰,但人工智能與機器學(xué)習(xí)在網(wǎng)絡(luò)武器或網(wǎng)絡(luò)能力發(fā)展中的應(yīng)用是一個重要領(lǐng)域?!倍鴩H人道法的適用,不僅是現(xiàn)實的需要,也是法理的要求。
生成式人工智能在網(wǎng)絡(luò)空間的發(fā)展有愈演愈烈的趨勢,而且一旦脫離人類控制,將造成巨大的災(zāi)難。面對這種不可預(yù)測的智能系統(tǒng),需要強有力的規(guī)制手段才能扼制風(fēng)險。而國際人道法的強制性、穩(wěn)定性和可責(zé)性等法律屬性恰好切合這種規(guī)制需要。
1.強制性
與軟規(guī)范方式相比,國際人道法的強制性更加穩(wěn)定、可靠。一方面,強制性使所有國家都應(yīng)遵守國際人道法的要求;另一方面,強制性可以約束網(wǎng)絡(luò)攻擊中生成式人工智能的使用,迫使各方在一定限度內(nèi)保持克制,防止生成式人工智能的濫用。
2.確定性
與軟規(guī)范方式相比,國際人道法的確定性體現(xiàn)在其本身具有穩(wěn)定的規(guī)制框架。首先,確定性可以為網(wǎng)絡(luò)攻擊中生成式人工智能的應(yīng)用建立需要遵守的規(guī)范,保證規(guī)范目的的實現(xiàn);其次,確定性可以為生成式人工智能在網(wǎng)絡(luò)空間的應(yīng)用創(chuàng)設(shè)一個穩(wěn)定的運行環(huán)境;最后,確定性可以為生成式人工智能的算法設(shè)計者提供一個穩(wěn)定的框架作為參考,保證算法在一定程度上符合設(shè)計標(biāo)準(zhǔn)。
3.可責(zé)性
與軟規(guī)范方式相比,國際人道法的可責(zé)性能夠?qū)Ρ灰?guī)制者形成強大的約束力和震懾力。從技術(shù)角度分析,可責(zé)性體現(xiàn)在算法的人道主義邊界上,能夠促使生成式人工智能的設(shè)計者嚴(yán)格在規(guī)范的限度內(nèi)進行智能算法的研究和設(shè)計;從國家行為分析,可責(zé)性能夠督促國家對網(wǎng)絡(luò)攻擊中生成式人工智能的應(yīng)用進行不斷地監(jiān)督,促使一國政府為避免陷入道義被動而及時制止違法行為,從而降低網(wǎng)絡(luò)攻擊中生成式人工智能的應(yīng)用風(fēng)險。
人工智能與網(wǎng)絡(luò)攻擊是國際治理的新興領(lǐng)域,國際社會一直致力于通過《特定常規(guī)武器公約》對人工智能進行規(guī)制,雖未達成普遍共識,但國際人道法的適用存在法理基礎(chǔ)?!兜谝桓郊幼h定書》制定之初,就認(rèn)識到未來可能會誕生代替士兵的武器,這種新武器會對第35條的基本原則造成破壞,如若不進行有效規(guī)制,人類會被新技術(shù)摧毀?!兜谝桓郊幼h定書》第36條規(guī)定:“在研究、發(fā)展、取得或采用新的武器、作戰(zhàn)手段或方法時,締約一方有義務(wù)斷定,在某些或所有情況下,該新的武器、作戰(zhàn)手段或方法的使用是否為本議定書或適用于該締約一方的任何其它國際法規(guī)則所禁止?!贝艘?guī)定為締約國設(shè)立了審查義務(wù),要求針對新武器的部署和使用建立有效的監(jiān)督審查機制,該機制包括國內(nèi)法和國際法兩個體系。而國際法院在“威脅使用或使用核武器的合法性”咨詢意見中也認(rèn)為,適用于武裝沖突的人道法原則和規(guī)則同樣適用于各種形式的戰(zhàn)爭及各種武器,包括“未來武器”。因此網(wǎng)絡(luò)攻擊中生成式人工智能的應(yīng)用并不是“法外之地”,它應(yīng)受國際人道法的規(guī)制。
法律存在滯后性,國際人道法目前沒有針對網(wǎng)絡(luò)攻擊中生成式人工智能應(yīng)用的具體條款,需要通過基本原則進行規(guī)制。其中,區(qū)分原則、比例原則和軍事必要原則與網(wǎng)絡(luò)攻擊的聯(lián)系最為密切。
區(qū)分原則是國際人道法的核心原則。該原則的理念由來已久,法國思想家盧梭最早提出區(qū)分思想,他認(rèn)為戰(zhàn)爭是國與國的關(guān)系,士兵因為國家保護者的身份才成為仇敵。1977年的《第一附加議定書》第一次對該原則進行正式且明晰的規(guī)定,后逐漸發(fā)展成為一種國際習(xí)慣?!兜谝桓郊幼h定書》第48條要求沖突各方必須區(qū)分戰(zhàn)斗員與非戰(zhàn)斗員、武裝部隊與平民以及軍事目標(biāo)與非軍事目標(biāo)。因此,網(wǎng)絡(luò)攻擊中只有削弱敵方軍事實力的作戰(zhàn)手段才可被接受。而網(wǎng)絡(luò)空間具有軍民兩用特點,要求生成式人工智能在網(wǎng)絡(luò)攻擊中準(zhǔn)確判斷目標(biāo)性質(zhì),就需要對其進行嚴(yán)格的編程、測試和審查,就當(dāng)前技術(shù)而言是一大挑戰(zhàn)。一個典型的反面案例就是2017年6月27日攻擊烏克蘭的NotPetya勒索病毒,該病毒對全球民用系統(tǒng)造成了極大的影響。
《第一附加議定書》第57條首次對比例原則作出明確規(guī)定,要求作戰(zhàn)方法和手段的使用應(yīng)與預(yù)期的、具體的和直接的軍事利益相稱,而禁止過分損害的攻擊行為以及引起過分傷害和不必要痛苦性質(zhì)的作戰(zhàn)手段和方法。[6]計算機網(wǎng)絡(luò)攻擊的特別之處在于,攻擊純粹的軍事目標(biāo)也可能對平民產(chǎn)生影響?!端质謨?.0版》第42條和《塔林手冊2.0版》第104條對“禁止引起過分傷害和不必要痛苦”進行了特別強調(diào),一般認(rèn)為網(wǎng)絡(luò)作戰(zhàn)手段極少違反此要求。[7]生成式人工智能作出決策前,需要對所攻擊目標(biāo)可能產(chǎn)生的附帶損害進行綜合評估,對軍事利益和非軍事利益進行衡量,如果評定超出了必要限度,就不能采取網(wǎng)絡(luò)攻擊行動。
2007年針對愛沙尼亞的大規(guī)模網(wǎng)絡(luò)攻擊,雖未爆發(fā)武裝沖突,但強度和后果已經(jīng)超出了軍事必要。軍事必要并不能解除交戰(zhàn)國遵守國際法的義務(wù),該原則的適用對生成式人工智能在網(wǎng)絡(luò)攻擊中的應(yīng)用“有利有弊”。因為網(wǎng)絡(luò)攻擊能以較小的人道代價實現(xiàn)與傳統(tǒng)戰(zhàn)爭同樣的作戰(zhàn)目的,其攻擊行為不一定立刻產(chǎn)生后果,即使有后果也并不一定會完全對應(yīng)傳統(tǒng)的評價標(biāo)準(zhǔn)。[8]但網(wǎng)絡(luò)的局限性會增加行為違法的風(fēng)險,處于網(wǎng)絡(luò)環(huán)境下的生成式人工智能只能憑借已獲得的知識和情報作出決策,并不能對網(wǎng)絡(luò)攻擊行為所帶來的附加影響進行準(zhǔn)確分析,如果生成式人工智能無法根據(jù)現(xiàn)有情況做出合法的決策,那么指揮員就應(yīng)當(dāng)叫停網(wǎng)絡(luò)攻擊行動。
馬爾頓條款因俄國國際法學(xué)家雷德里克·馬爾頓提出而得名,最早出現(xiàn)在1899年《海牙第二公約》序言中,而后的《海牙第四公約》《第一附加議定書》《第二附加議定書》《常規(guī)武器公約》和《渥太華公約》等國際文件都對該條款進行了重申。法律往往難以預(yù)見科學(xué)技術(shù)和現(xiàn)實實踐的變化,雖然因為國家間的不同利益訴求和立場主張,條款的適用受到多方面的限制,但并不影響其重要地位。條款雖未明確規(guī)定禁止的作戰(zhàn)手段和方法,但它對沖突中未明確的事項起到了指導(dǎo)和補充作用,為國際行為體設(shè)定了禁止采取與既定習(xí)慣、人道原則、公眾良知的要求相悖的行為這一具體的禁止性義務(wù)。[9]但是,即便馬爾頓條款的約束力得到了國際法院的承認(rèn),其只能為生成式人工智能在網(wǎng)絡(luò)攻擊中的應(yīng)用進行原則性的規(guī)制,難以設(shè)立具體而明確的規(guī)定。
科學(xué)技術(shù)是一把雙刃劍,雖然國際人道法的基本原則能夠?qū)ι墒饺斯ぶ悄茉诰W(wǎng)絡(luò)攻擊中的應(yīng)用進行規(guī)制,但難以影響生成式人工智能的發(fā)展。國際人道法對網(wǎng)絡(luò)攻擊中生成式人工智能的適用融合了人工智能領(lǐng)域和網(wǎng)絡(luò)領(lǐng)域的特點。在理想環(huán)境下,這種攻擊行為更符合人道要求。遺憾的是,網(wǎng)絡(luò)環(huán)境的復(fù)雜性會加劇生成式人工智能的不可控性,使網(wǎng)絡(luò)環(huán)境中生成式人工智能的發(fā)展超出人的預(yù)期,對國際人道法的適用造成沖擊。
與物理環(huán)境相比,網(wǎng)絡(luò)環(huán)境下的生成式人工智能可以在一定程度上避免國際法對武器的限制。比如SGR-1殺人機器人搭載的人工智能與攜帶的機關(guān)槍和榴彈發(fā)射器一同被視為武器,其行動必將受到國際人道法的約束。而網(wǎng)絡(luò)環(huán)境下的人工智能不會直接對敵人進行殺傷,看似更符合人道的要求;此外,網(wǎng)絡(luò)環(huán)境下的人工智能可被賦予不同的任務(wù),避免被長期打上“武器”的標(biāo)簽。比如AlphaGo Zero不僅可以精通下棋,還能被投入戰(zhàn)場使用,這一點是SGR-1殺人機器人無法達到的;最后,生成式人工智能在網(wǎng)絡(luò)環(huán)境下通過機器學(xué)習(xí)能夠獲得海量的國際人道法知識,這些知識體量是物理環(huán)境無法提供的。
與傳統(tǒng)網(wǎng)絡(luò)攻擊相比,網(wǎng)絡(luò)環(huán)境下的生成式人工智能看似更能做出合法的決策,具有以下三點優(yōu)勢。首先,生成式人工智能的決策更能適應(yīng)網(wǎng)絡(luò)環(huán)境的變化。信息化戰(zhàn)爭往往是一個與時間賽跑的過程,網(wǎng)絡(luò)空間的信息以接近光的速度傳輸,人類往往難以跟上節(jié)奏。而生成式人工智能本就與網(wǎng)絡(luò)密切相關(guān),可以根據(jù)網(wǎng)絡(luò)環(huán)境的變化對網(wǎng)絡(luò)攻擊行為進行調(diào)整,避免出現(xiàn)違法的情況;其次,人工智能的決策更加客觀和精準(zhǔn)。個人情感在傳統(tǒng)決策中起重要作用,而機器缺乏情感要素,可以在處理海量的數(shù)據(jù)后做出相對客觀的決策;[10]最后,其最大的優(yōu)勢是,網(wǎng)絡(luò)環(huán)境下生成式人工智能的決策能力可以快速提升。一名成熟的網(wǎng)絡(luò)行動操縱員,不僅需要多年的培養(yǎng)和實踐,還得涉獵法律知識,需要大量的人力、物力、財力和時間的投入,而網(wǎng)絡(luò)環(huán)境中生成式人工智能可以達到“無師自通”的效果。AlphaGo Zero就是典型的例子,它通過三天時間自我學(xué)習(xí)、自我對弈,快速將自己培養(yǎng)成頂尖的決策大師。
網(wǎng)絡(luò)環(huán)境下生成式人工智能可以獲取海量的信息,以超高的運算速度進行決策,但其本身構(gòu)成一個復(fù)雜系統(tǒng),不能用簡單的思維去解決,所以存在不可控性。[11]理論上講,生成式人工智能處理的信息量越多,處理信息的模型會更加成熟完善。但大數(shù)據(jù)算法模型基于整個互聯(lián)網(wǎng)的公開信息進行訓(xùn)練,既決定了它的能力,也決定了它的局限性,互聯(lián)網(wǎng)內(nèi)容存在的問題都可能映射在模型中;[12]同時,模型的完善程度難以被量化和檢測,有的模型甚至?xí)贸鲞`背人類意志的結(jié)論。ChatGPT就曾經(jīng)寫出一份“毀滅人類計劃書”,不僅語句連貫,步驟也十分詳細;此外,生成式人工智能由于缺少真實情感,基于大數(shù)據(jù)算法模型得出的往往是完成任務(wù)的最優(yōu)解,可能會與良善、人道等人類基本道德相違背;而生成式人工智能的不可控性同樣會增加網(wǎng)絡(luò)行動違法的風(fēng)險,在人工智能認(rèn)識到合法的決策并不能有效完成任務(wù)時,可能會在“權(quán)衡利弊”后采取違法行動。雖然可以通過增加決策透明度和劃定任務(wù)環(huán)境的方式對其進行限制,但網(wǎng)絡(luò)環(huán)境的復(fù)雜性會影響生成式人工智能的運行,從而對國際人道法的適用提出挑戰(zhàn)。
1.對區(qū)分原則適用的挑戰(zhàn)
機器學(xué)習(xí)使生成式人工智能的識別能力大大提升,在部分領(lǐng)域甚至已經(jīng)超過了人類的水平,但這并不意味著這種技術(shù)能使網(wǎng)絡(luò)空間中的生成式人工智能嚴(yán)格遵守區(qū)分原則的要求。一些技術(shù)漏洞影響著區(qū)分原則的適用,比如深度神經(jīng)網(wǎng)絡(luò)會將一些無意義的抽象圖像識別為具體的物體,這種識別錯誤可能會給行動帶來不可估量的損失。網(wǎng)絡(luò)攻擊的迅捷性使人類很難對生成式人工智能的決策進行監(jiān)管,在其受到欺騙性圖像攻擊時,因錯誤識別而產(chǎn)生的決策難以得到修正。并且,這種漏洞還不僅僅限于視覺識別,也存在于深度神經(jīng)網(wǎng)絡(luò)所應(yīng)用的語音識別以及其他領(lǐng)域。
2.對比例原則適用的挑戰(zhàn)
比例帶有主觀色彩,往往需要主客觀相結(jié)合進行判斷,這不僅僅是簡單的量化分析,還需要一定的道德推理,而生成式人工智能顯然難以達到法律所要求的理解力和判斷力。此外,機器學(xué)習(xí)可以賦予生成式人工智能新的知識,網(wǎng)絡(luò)環(huán)境同樣會改變生成式人工智能對法律條文的理解,促使其根據(jù)客觀需要選擇最能實現(xiàn)目的的手段,甚至采用“過分”的決策。
3.對軍事必要原則適用的挑戰(zhàn)
對該原則的理解需要結(jié)合網(wǎng)絡(luò)攻擊中生成式人工智能對區(qū)分原則、比例原則的適用進行綜合判斷。在技術(shù)方面,網(wǎng)絡(luò)環(huán)境下生成式人工智能的識別漏洞可能會產(chǎn)生難以控制的后果,對于復(fù)雜環(huán)境下未知信息的量化處理十分困難;在法律和道德層面,網(wǎng)絡(luò)環(huán)境下的生成式人工智能基于數(shù)據(jù)和算法建立的決策機制不同于人類的道德和法律判斷思維,算法設(shè)計者無法預(yù)知未來可能產(chǎn)生影響的各種因素,而將這些因素進行法律和道德層面的量化更是巨大的挑戰(zhàn)。
在可預(yù)見的未來,生成式人工智能在網(wǎng)絡(luò)攻擊中的應(yīng)用會逐步增加,將帶來一系列爭議問題。雖然國際人道法能夠?qū)W(wǎng)絡(luò)攻擊中生成式人工智能的應(yīng)用起到一定的規(guī)制效果,但難以解決人工智能領(lǐng)域與網(wǎng)絡(luò)領(lǐng)域相結(jié)合所帶來的風(fēng)險和挑戰(zhàn)。因此,在技術(shù)條件和檢測程序不成熟的情況下,應(yīng)盡量對這種技術(shù)的使用范圍進行限制。同時,國際社會需通力合作,努力解決生成式人工智能在網(wǎng)絡(luò)攻擊中暴露的問題,完善現(xiàn)有機制以規(guī)范網(wǎng)絡(luò)環(huán)境下生成式人工智能的發(fā)展,而技術(shù)發(fā)達國家的參與和誠意就顯得尤為重要。