賈曉旭
摘要:在構(gòu)建以數(shù)據(jù)驅(qū)動(dòng)為主要學(xué)習(xí)模式的深度神經(jīng)網(wǎng)絡(luò)模型過(guò)程中,如何有效辨識(shí)數(shù)據(jù)的安全風(fēng)險(xiǎn)已成為研究中的重要議題。數(shù)據(jù)安全風(fēng)險(xiǎn)識(shí)別面臨的“黑盒”挑戰(zhàn),致使其難以被人類現(xiàn)有的認(rèn)知結(jié)構(gòu)完全理解,并對(duì)數(shù)據(jù)安全風(fēng)險(xiǎn)治理帶來(lái)諸多影響。在厘清可解釋人工智能的基本概念、可解釋性是提高識(shí)別數(shù)據(jù)安全風(fēng)險(xiǎn)效率的基礎(chǔ)需求、基于數(shù)據(jù)安全風(fēng)險(xiǎn)溝通的可解釋人工智能范式的基礎(chǔ)上,探討可解釋性強(qiáng)的深度學(xué)習(xí)模型和基于表征一致性技術(shù)的解釋方法在數(shù)據(jù)安全風(fēng)險(xiǎn)識(shí)別中的具體應(yīng)用。
關(guān)鍵詞:XAI;生成式人工智能;深度學(xué)習(xí);深度神經(jīng)網(wǎng)絡(luò)
一、前言
在新一代信息技術(shù)的加持下,數(shù)字經(jīng)濟(jì)對(duì)各國(guó)經(jīng)濟(jì)發(fā)展具有重要意義。根據(jù)2022年《全球數(shù)字經(jīng)濟(jì)白皮書》顯示,2021年,全球47個(gè)主要經(jīng)濟(jì)體數(shù)字經(jīng)濟(jì)占GDP比重為45.0%,同比提升1個(gè)百分點(diǎn),數(shù)字經(jīng)濟(jì)在國(guó)民經(jīng)濟(jì)中的地位穩(wěn)步提升[1]。由此可見(jiàn),以數(shù)據(jù)為核心競(jìng)爭(zhēng)資源的數(shù)字經(jīng)濟(jì)正在成為改變社會(huì)生產(chǎn)方式、生活方式的關(guān)鍵力量。黨的十九屆四中全會(huì)指出要“健全勞動(dòng)、資本、土地、知識(shí)、技術(shù)、管理、數(shù)據(jù)等生產(chǎn)要素由市場(chǎng)評(píng)價(jià)貢獻(xiàn)、按貢獻(xiàn)決定報(bào)酬的機(jī)制”[2]。作為新的生產(chǎn)要素,數(shù)據(jù)能夠進(jìn)一步推動(dòng)社會(huì)生產(chǎn)力解放、促使其實(shí)現(xiàn)質(zhì)的飛躍。在人工智能領(lǐng)域,海量的高質(zhì)量數(shù)據(jù)被公認(rèn)為是訓(xùn)練生成式人工智能的核心要件。因此,在構(gòu)建以數(shù)據(jù)驅(qū)動(dòng)為主要學(xué)習(xí)模式的深度神經(jīng)網(wǎng)絡(luò)模型過(guò)程中,如何有效辨識(shí)數(shù)據(jù)的安全風(fēng)險(xiǎn)已成為研究中的重要議題。
二、數(shù)據(jù)安全風(fēng)險(xiǎn)識(shí)別面臨的“黑盒”挑戰(zhàn)
現(xiàn)代人工智能技術(shù)的“黑盒”性,亦為“黑箱”性,多指深度學(xué)習(xí)模型內(nèi)部工作機(jī)制的不透明性。與控制理論往往使用微積分和矩陣代數(shù)等方法描述由連續(xù)變量集合表示的系統(tǒng)等傳統(tǒng)研究領(lǐng)域不同,現(xiàn)代人工智能技術(shù)并不依賴于具體方法與問(wèn)題的直接對(duì)應(yīng)關(guān)系,而是基于“獨(dú)立同分布”的統(tǒng)計(jì)學(xué)假設(shè)識(shí)別和解決問(wèn)題。這種特性致使其難以被人類現(xiàn)有的認(rèn)知結(jié)構(gòu)完全理解,并對(duì)數(shù)據(jù)安全風(fēng)險(xiǎn)治理帶來(lái)可解釋性不足、穩(wěn)定性不足、隱私保護(hù)及合規(guī)性不足等具體影響。
(一)深度神經(jīng)網(wǎng)絡(luò)的黑盒特性
隨著可用于訓(xùn)練的海量數(shù)據(jù)的迅速增長(zhǎng),軟硬件一體化協(xié)同發(fā)展致使算力大幅提升,基于深度神經(jīng)網(wǎng)絡(luò)的機(jī)器學(xué)習(xí)模型已經(jīng)被廣泛運(yùn)用在各領(lǐng)域中。然而,深度學(xué)習(xí)模型的內(nèi)部工作方式往往隱藏在數(shù)以百萬(wàn)計(jì)的參數(shù)和復(fù)雜的層次結(jié)構(gòu)之中。即使能夠知道網(wǎng)絡(luò)結(jié)構(gòu)形式、權(quán)重關(guān)聯(lián)性、激活函數(shù)等細(xì)節(jié),但并不等同于能夠從上述細(xì)節(jié)中理解網(wǎng)絡(luò)對(duì)此進(jìn)行輸出的理由,特別是與人類的認(rèn)知結(jié)構(gòu)相一致。以卷積神經(jīng)網(wǎng)絡(luò)為例(見(jiàn)圖1),作為深度學(xué)習(xí)領(lǐng)域中最受歡迎的,也是最常見(jiàn)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)之一,卷積神經(jīng)網(wǎng)絡(luò)被廣泛用于計(jì)算機(jī)視覺(jué)任務(wù)中。首先,通過(guò)卷積核進(jìn)行圖像特征的提取,從而獲得輸入圖像的局部特征。在這一過(guò)程中,卷積核選擇某一特征或尺度(邊緣、紋理)的理由是未知的,這些特征之間存在何種關(guān)系與聯(lián)系,包括其中所蘊(yùn)含的具體含義都是難以被解釋的;其次,為了縮減卷積層提取的特性大小和參數(shù)數(shù)量,以達(dá)到方便計(jì)算的目的,需要使用池化層進(jìn)行特征下采樣。盡管這一操作的目的是明確的,但這一輸出結(jié)果將會(huì)對(duì)神經(jīng)網(wǎng)絡(luò)的全局決策產(chǎn)生何種影響,往往難以解釋;最后,使用全連接層進(jìn)行最終的決策和分類。全連接層通常涉及處理大量的權(quán)重和節(jié)點(diǎn),每個(gè)節(jié)點(diǎn)都基于前一層的輸出進(jìn)行計(jì)算。如何從這么多權(quán)重中解釋單個(gè)決策、每個(gè)權(quán)重對(duì)決策的相對(duì)重要性,以及節(jié)點(diǎn)間的交互,都是困難的。
(二)“黑盒”挑戰(zhàn)對(duì)數(shù)據(jù)安全風(fēng)險(xiǎn)識(shí)別的影響
隨著數(shù)據(jù)價(jià)值的不斷提升,社會(huì)各界不僅關(guān)注如何最大限度地將其激發(fā)、激活,對(duì)數(shù)據(jù)進(jìn)行全生命周期保護(hù)的理論研究和現(xiàn)實(shí)探索也在與日俱增,如利用隱私保護(hù)機(jī)器學(xué)習(xí)使用同態(tài)加密、安全多方計(jì)算、差分隱私等技術(shù)保護(hù)數(shù)據(jù)安全。機(jī)密計(jì)算利用可信執(zhí)行環(huán)境工具,從系統(tǒng)領(lǐng)域出發(fā),聚焦數(shù)據(jù)處理中必須經(jīng)歷的計(jì)算、存儲(chǔ)、傳輸?shù)汝P(guān)鍵過(guò)程開展研究。機(jī)器學(xué)習(xí)算法的自身脆弱性,使其可能成為安全鏈中最薄弱的環(huán)節(jié)。已有研究表明,攻擊者可以通過(guò)攻擊其中的漏洞來(lái)破壞整個(gè)基礎(chǔ)架構(gòu),也可以注入惡意數(shù)據(jù)破壞學(xué)習(xí)過(guò)程,或者在測(cè)試時(shí)操作數(shù)據(jù),利用算法的弱點(diǎn)和盲點(diǎn)逃避檢測(cè)[4]。仍以卷積神經(jīng)網(wǎng)絡(luò)為例,其深層次的內(nèi)部特征和參數(shù)難以被直觀解釋,導(dǎo)致誤差的源頭及產(chǎn)生原因在很多時(shí)候不易被定位。在此基礎(chǔ)上,惡意攻擊者可以通過(guò)微調(diào)輸入或投毒攻擊,導(dǎo)致該模型在卷積和池化過(guò)程中提取錯(cuò)誤的特征或丟失重要信息。在風(fēng)險(xiǎn)數(shù)據(jù)的影響下,當(dāng)應(yīng)用模型的計(jì)算機(jī)視覺(jué)系統(tǒng)出現(xiàn)錯(cuò)誤的判斷時(shí),盡管人類可以發(fā)現(xiàn)這一錯(cuò)誤的結(jié)果,然而卻不知從何角度對(duì)其進(jìn)行修正,并對(duì)此產(chǎn)生關(guān)于未來(lái)的深層次憂慮——該系統(tǒng)是否會(huì)在未來(lái)某個(gè)更重要的時(shí)刻產(chǎn)生更嚴(yán)重的錯(cuò)誤。
三、數(shù)據(jù)安全風(fēng)險(xiǎn)識(shí)別領(lǐng)域中的可解釋性分析
在人工智能治理的理論研究與現(xiàn)實(shí)實(shí)踐中,各國(guó)政府與相關(guān)行業(yè)已在立法層面、行業(yè)準(zhǔn)入層面逐步加強(qiáng)和落實(shí)實(shí)施。在《阿西洛馬人工智能原則》《人工智能北京共識(shí)》《經(jīng)合組織人工智能原則》以及歐盟的《人工智能法案》等比較重要和有影響力的政策文件中,皆在透明度、可問(wèn)責(zé)性、算法偏見(jiàn)、隱私保護(hù)與非歧視等領(lǐng)域提出了共同的價(jià)值取向。統(tǒng)合上述要求,其最終目的是實(shí)現(xiàn)一種能夠合理解釋其決策機(jī)制與過(guò)程的人工智能系統(tǒng),即實(shí)現(xiàn)可信任的人工智能。為此,有必要從人工智能模型訓(xùn)練的核心要素——數(shù)據(jù)出發(fā),探討模型的可解釋性對(duì)數(shù)據(jù)安全風(fēng)險(xiǎn)治理的基本概念和重要意義。
(一)可解釋人工智能的基本概念
作為當(dāng)前人工智能前沿研究領(lǐng)域中的一個(gè)火熱議題,可解釋人工智能(Explainable AI,簡(jiǎn)稱XAI)是指智能體以一種可解釋、可理解、人機(jī)互動(dòng)的方式,與人工智能系統(tǒng)的使用者、受影響者、決策者、開發(fā)者等達(dá)成清晰有效的交流溝通,以獲得人類信任,同時(shí)滿足各類應(yīng)用場(chǎng)景對(duì)智能體決策機(jī)制的監(jiān)管要求[5]。在該語(yǔ)境下,“可解釋性”涉及三個(gè)重要的概念——解釋、理解和信任。首先,“解釋”是人與人之間建立聯(lián)系、形成社會(huì)關(guān)系的基本方法。智能體也必須通過(guò)為其決策提供與人類認(rèn)知邏輯相一致的描述,最終達(dá)到被人類所信任的目的。這一過(guò)程不僅涉及對(duì)輸出結(jié)果的解釋,也應(yīng)包含對(duì)模型的內(nèi)部工作機(jī)制,特別是對(duì)結(jié)果產(chǎn)生關(guān)鍵影響部分的解釋;其次,“理解”強(qiáng)調(diào)了“解釋”的效能,即人類對(duì)解釋內(nèi)容的消化、把握程度。這不僅能夠衡量解釋的精確度和完整度,還涉及其直觀性和方便性的內(nèi)在尺度。作為解釋與信任之間的途徑,“理解”將促使人類與模型之間的交互更加透明,使之能夠更加全面地解釋模型的行為;最后,“信任”是可解釋人工智能的最終目標(biāo),即用戶、開發(fā)者或決策者基于對(duì)智能體功能和行為的理解后,愿意信賴并采納其建議或決策的心理過(guò)程。如評(píng)估模型是否按照預(yù)期的方式工作,是否符合倫理、法律和社會(huì)規(guī)范等,從而推動(dòng)人工智能在更廣泛領(lǐng)域的應(yīng)用。
(二)可解釋性是提高識(shí)別數(shù)據(jù)安全風(fēng)險(xiǎn)效率的基礎(chǔ)需求
數(shù)據(jù)是人工智能發(fā)展的前提與應(yīng)用的核心。早有研究指出,將數(shù)據(jù)集的規(guī)模增加兩到三個(gè)數(shù)量級(jí)所獲得的性能提升會(huì)超過(guò)調(diào)整算法帶來(lái)的性能提升(Banko and Brill,2001)[6]。實(shí)踐也印證了這一點(diǎn),以算力為核心的驅(qū)動(dòng)模式正逐漸向以數(shù)據(jù)為核心的驅(qū)動(dòng)模式轉(zhuǎn)變。從數(shù)據(jù)安全風(fēng)險(xiǎn)的角度來(lái)看,一方面,通過(guò)刷題式學(xué)習(xí)得到的人工智能模型往往存在著一系列被公認(rèn)的安全風(fēng)險(xiǎn):算法偏見(jiàn) 、低級(jí)錯(cuò)誤和欠解釋性,致使其很難被大規(guī)模地部署和應(yīng)用,即“AI Safety”問(wèn)題;另一方面,深度神經(jīng)網(wǎng)絡(luò)被人工智能算法所尋找的對(duì)抗樣本(一種經(jīng)過(guò)精心設(shè)計(jì)的輸入數(shù)據(jù))所誤導(dǎo),進(jìn)而產(chǎn)生錯(cuò)誤決策,即“AI Security”問(wèn)題。而且,在特定的情境下,“AI Security”問(wèn)題可以發(fā)展為“AI Safety”問(wèn)題。由此可見(jiàn),從數(shù)據(jù)要素出發(fā)探討“AI Security”問(wèn)題,是提高識(shí)別人工智能安全風(fēng)險(xiǎn)效率的基礎(chǔ)需求。與基于聯(lián)邦學(xué)習(xí)、安全多方計(jì)算以及可信執(zhí)行環(huán)境等圍繞處理數(shù)據(jù)的關(guān)鍵過(guò)程而提出的隱私保護(hù)方案與技術(shù)不同,基于可解釋性的人工智能數(shù)據(jù)安全風(fēng)險(xiǎn)研究是從模型構(gòu)建的原則出發(fā),關(guān)注確保數(shù)據(jù)完整性、機(jī)密性及代碼完整性的解釋路徑。
(三)基于數(shù)據(jù)安全風(fēng)險(xiǎn)溝通的可解釋人工智能范式
從識(shí)別數(shù)據(jù)安全風(fēng)險(xiǎn)出發(fā),構(gòu)建可解釋的人工智能范式需要參照用戶群體的實(shí)際需要,設(shè)置所提供解釋的傾向性與差異性。根據(jù)主要不同群體的具體期望與知識(shí)背景,分為以下三類:第一,面向開發(fā)者的層次。此類用戶常具備計(jì)算機(jī)、數(shù)學(xué)、統(tǒng)計(jì)學(xué)或相關(guān)學(xué)科背景,對(duì)數(shù)據(jù)的處理、存儲(chǔ)、傳輸和加密技術(shù)具有深入的了解。他們需要明確模型訓(xùn)練、測(cè)試和部署過(guò)程中所有潛在的安全隱患和脆弱性,確保訓(xùn)練數(shù)據(jù)的安全性,避免數(shù)據(jù)泄露、篡改或非授權(quán)訪問(wèn)。識(shí)別和防御對(duì)抗攻擊,確保模型在受到惡意輸入時(shí)仍然具有穩(wěn)健性,對(duì)于模型中任何不可解釋的部分,判斷其是否受到了惡意數(shù)據(jù)的影響;第二,面向使用者、受影響者的層次。此類用戶可能對(duì)數(shù)據(jù)安全有基本的理解和關(guān)注,更在意人工智能所做出的決策或預(yù)測(cè)是否符合自身利益。為此,他們需要確信自身提供給人工智能系統(tǒng)的數(shù)據(jù)是安全的,且不會(huì)因非法利用或泄露造成損失。當(dāng)系統(tǒng)為其提供建議或決策時(shí),希望上述建議沒(méi)有受到惡意數(shù)據(jù)的影響。把握人工智能系統(tǒng)使用其個(gè)人數(shù)據(jù)的方式和目的,確保沒(méi)有違反法律及道德原則;第三,面向決策者的層次。此類用戶可能對(duì)技術(shù)細(xì)節(jié)不太熟悉,但對(duì)國(guó)家安全政策、法規(guī)和人工智能風(fēng)險(xiǎn)治理有深入了解。在此基礎(chǔ)上,他們的工作往往聚焦于從宏觀角度評(píng)估人工智能系統(tǒng)引入的安全風(fēng)險(xiǎn)和潛在的法律責(zé)任,獲取關(guān)于模型性能和風(fēng)險(xiǎn)指數(shù)的未來(lái)圖景,為做出長(zhǎng)遠(yuǎn)的決策提供依據(jù),確保模型和算法的決策符合所在群體的目標(biāo)與價(jià)值觀。圖2展現(xiàn)了基于數(shù)據(jù)安全風(fēng)險(xiǎn)溝通的可解釋人工智能的不同層次。
四、可解釋人工智能在數(shù)據(jù)安全風(fēng)險(xiǎn)識(shí)別中的應(yīng)用方法
需要承認(rèn),部分機(jī)器學(xué)習(xí)模型本身具備較好的可解釋性,根本原因在于其往往是按照可解釋性進(jìn)行建構(gòu)的。如決策樹模型、線性回歸模型、樸素貝葉斯、K近鄰等算法具有較強(qiáng)的可解釋性。然而,當(dāng)前階段所廣泛應(yīng)用的大部分深度學(xué)習(xí)算法是很難被解釋的,即算法自身的不可解構(gòu)性。但是,算法的不可解構(gòu)性并不等同于完全不能被解釋。面對(duì)深度神經(jīng)網(wǎng)絡(luò)的“黑盒”特性,除了選取可解釋強(qiáng)的模型,還可以通過(guò)評(píng)估兩個(gè)或多個(gè)獨(dú)立訓(xùn)練的神經(jīng)網(wǎng)絡(luò)對(duì)相似或相同知識(shí)表征的建模程度的方法。
(一)選取可解釋性強(qiáng)的深度學(xué)習(xí)模型
相較于從事后的角度對(duì)深度學(xué)習(xí)模型的決策或預(yù)測(cè)結(jié)果進(jìn)行非直接闡釋,“可解釋的神經(jīng)網(wǎng)絡(luò)”是以可解釋性為學(xué)習(xí)目標(biāo)的神經(jīng)網(wǎng)絡(luò),即在從底層向頂層的訓(xùn)練過(guò)程中增強(qiáng)模型的可解釋性。為實(shí)現(xiàn)有效識(shí)別數(shù)據(jù)安全風(fēng)險(xiǎn)的目的,可以采取可解釋的卷積神經(jīng)網(wǎng)絡(luò)[7]、膠囊網(wǎng)絡(luò)[8]、神經(jīng)網(wǎng)絡(luò)決策樹[9]等方法。以可解釋的卷積神經(jīng)網(wǎng)絡(luò)在圖像方面的應(yīng)用為例,傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)中的參數(shù)是在訓(xùn)練過(guò)程中自動(dòng)生成的,而可解釋的卷積神經(jīng)網(wǎng)絡(luò)在被設(shè)計(jì)和訓(xùn)練時(shí),被賦予了特殊設(shè)計(jì)的卷積核,以便于神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)到的特征是具有明確結(jié)構(gòu)的視覺(jué)語(yǔ)義信息,包括不符合常規(guī)模式的數(shù)據(jù)、隱藏信息等風(fēng)險(xiǎn)跡象。再如膠囊網(wǎng)絡(luò),由多層表示特定類型的實(shí)體屬性的神經(jīng)元組成,其激活向量的幅度表示實(shí)體存在的概率,而方向意味著實(shí)體的屬性。膠囊網(wǎng)絡(luò)通過(guò)引入動(dòng)態(tài)路由機(jī)制,將較低層次的膠囊輸出發(fā)送到適合的高層膠囊,以此捕捉層次化的特征和空間關(guān)系。由于膠囊網(wǎng)絡(luò)能夠捕捉不同層次的特征和關(guān)聯(lián),因此在面對(duì)一些常見(jiàn)的攻擊(如對(duì)抗樣本攻擊)時(shí)具有更高的魯棒性。更重要的是,膠囊網(wǎng)絡(luò)的層次化特性使得其能夠進(jìn)行更細(xì)粒度的分析,如在入侵檢測(cè)系統(tǒng)中識(shí)別攻擊的不同階段和特點(diǎn)。
(二)基于表征一致性技術(shù)的解釋方法
運(yùn)用在深度神經(jīng)網(wǎng)絡(luò)中的表征一致性技術(shù)在比較和分析同一任務(wù)中不同神經(jīng)網(wǎng)絡(luò)中層特征的基礎(chǔ)上,對(duì)表現(xiàn)一致或不一致的特征分量進(jìn)行識(shí)別與提取。例如,通過(guò)給定兩個(gè)獨(dú)立訓(xùn)練的神經(jīng)網(wǎng)絡(luò)A和B,表征一致性技術(shù)旨在判斷上述兩個(gè)網(wǎng)絡(luò)是否具有相同或相似的中層特征表征,即使用A神經(jīng)網(wǎng)絡(luò)的中層特征重現(xiàn)B神經(jīng)網(wǎng)絡(luò)的中層特征。具體而言,假設(shè)ha和hb分別表示神經(jīng)網(wǎng)絡(luò)A和B的中層特征,可以通過(guò)一個(gè)度量?jī)蓚€(gè)表征之間一致性的函數(shù)尋找誤差最小的重現(xiàn)過(guò)程:minimize?∥hb-f(ha)∥22。在數(shù)據(jù)安全風(fēng)險(xiǎn)識(shí)別的背景下,需要更關(guān)注被識(shí)別為不一致的特征,因?yàn)椴灰恢碌奶卣骺赡芤馕吨窠?jīng)網(wǎng)絡(luò)被某些特定的數(shù)據(jù)或噪聲誤導(dǎo)。例如,攻擊者試圖通過(guò)在訓(xùn)練數(shù)據(jù)中注入惡意數(shù)據(jù)干擾網(wǎng)絡(luò),表征一致性可以幫助識(shí)別這些異常特征。在上述公式的基礎(chǔ)上,期望神經(jīng)網(wǎng)絡(luò)A和B對(duì)正常數(shù)據(jù)產(chǎn)生相似的中間表示,對(duì)于給定的輸入x,它們的中間特征表示分別為ha(x)和hb(x),可得出如下公式:Consistency Loss =∥hb(x)-f(ha(x))∥22。其中,f是一個(gè)變換,嘗試將一個(gè)模型的中層特征映射到另一個(gè)模型。當(dāng)該值超過(guò)某一閾值時(shí),即可以懷疑數(shù)據(jù)x可能是風(fēng)險(xiǎn)數(shù)據(jù),因?yàn)樗鼘?dǎo)致了兩個(gè)模型的顯著差異性。此外,還可以對(duì)每個(gè)訓(xùn)練樣本x引入一個(gè)額外的一致性正則項(xiàng),以鼓勵(lì)模型在對(duì)抗性攻擊(如FGSM或PGD)下的中間表示保持一致,即Robustness Loss =∥h(x)-h(x+δ)∥22。其中,δ是一個(gè)通常由對(duì)抗性攻擊生成的、對(duì)輸入x的小擾動(dòng)。
五、結(jié)語(yǔ)
隨著深度神經(jīng)網(wǎng)絡(luò)的廣泛應(yīng)用,如何確保數(shù)據(jù)的安全已經(jīng)成為學(xué)界和業(yè)界關(guān)注的焦點(diǎn)。從“黑盒”挑戰(zhàn)到識(shí)別數(shù)據(jù)安全風(fēng)險(xiǎn)的各種問(wèn)題,都凸顯了可解釋性在人工智能研究中的重要意義。本文通過(guò)對(duì)可解釋人工智能的深入剖析,闡明了可解釋性是確保數(shù)據(jù)安全的關(guān)鍵。為了應(yīng)對(duì)“黑盒”挑戰(zhàn),強(qiáng)化模型的可解釋性顯得尤為關(guān)鍵。一個(gè)可以被理解和解釋的深度學(xué)習(xí)模型,意味著可以更加明確地知道模型為什么做出某個(gè)決策,進(jìn)而確保數(shù)據(jù)安全并及時(shí)響應(yīng)潛在的風(fēng)險(xiǎn)。本文還探討了如何運(yùn)用表征一致性技術(shù)提高數(shù)據(jù)安全風(fēng)險(xiǎn)識(shí)別的效率,確保數(shù)據(jù)的完整與安全。
參考文獻(xiàn)
[1]中國(guó)信息通信研究所.全球數(shù)字經(jīng)濟(jì)白皮書(2022)[R].http://www.caict.ac.cn/english/research/whitepapers/202303/P020230316619916462600.pdf?eqid=a12c38b10015ecc1000000026488df4e.
[2]中共中央.中共中央關(guān)于堅(jiān)持和完善中國(guó)特色社會(huì)主義制度 推進(jìn)國(guó)家治理體系和治理能力現(xiàn)代化若干重大問(wèn)題的決定[M].北京:人民出版社,2019:19.
[3]Krizhevsky A,Sutskever I,Hinton G.E.ImageNet classification with deep convolutional neural networks[J].Communications of the ACM,2017,Vol.60(6):87.
[4]西科斯.基于人工智能方法的網(wǎng)絡(luò)空間安全[M].北京:機(jī)械工業(yè)出版社,2021:46.
[5]楊強(qiáng),范力欣,朱軍,等.可解釋人工智能導(dǎo)論[M].北京:電子工業(yè)出版社,2022:8.
[6]Michele Banko,Eric Brill.Scaling to Very Very Large Corpora for Natural Language Disambiguation [A].Association for Computational Linguistics 39th Annual Meeting and 10th Conference of the European Chapter[C].2001.
[7]Haoyu Liang,Zhihao Ouyang,Yuyuan Zeng,Hang Su,Zihao He,Shu-Tao Xia,Jun Zhu,Bo Zhang.Training Interpretable Convolutional Neural Networks by Differentiating Class-Specific Filters[J].Computer Vision – ECCV 2020,2020,Vol.12347:622-638.
[8]Sara Sabour, Nicholas Frosst, Geoffrey E. Hinton. Dynamic Routing Between Capsules [A]. 31st Conference on Neural Information Processing Systems (NIPS 2017) [C].2017:1-11.
[9]Yongxin Yang, Irene Garcia Morillo, Timothy M. Hospedales. Deep Neural Decision Trees [A]. 2018 ICML Workshop on Human Interpretability in Machine Learning (WHI 2018) [C].2018:34-40.
基金項(xiàng)目:教育部產(chǎn)學(xué)合作協(xié)同育人項(xiàng)目(課題編號(hào):220505402254146)
作者單位:哈爾濱工業(yè)大學(xué)應(yīng)用思想政治教育研究所
責(zé)任編輯:尚丹