關(guān) 慧,曹同洲
(1.沈陽化工大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,遼寧 沈陽 110142;2.遼寧省化工過程工業(yè)智能化技術(shù)重點(diǎn)實(shí)驗(yàn)室,遼寧 沈陽 110142)
當(dāng)前,隨著互聯(lián)網(wǎng)的快速發(fā)展,基于Web的應(yīng)用也變得越來越普及。然而,互聯(lián)網(wǎng)在帶給人們便利的同時(shí),也給不法分子提供了違法犯罪的機(jī)會(huì),這嚴(yán)重危害到互聯(lián)網(wǎng)用戶的切身利益,給整個(gè)社會(huì)帶來了極大的安全隱患。當(dāng)下,跨站腳本(cross-site scripting,XSS)隨著互聯(lián)網(wǎng)的發(fā)展變得越來越普遍,攻擊者可以通過XSS攻擊進(jìn)行網(wǎng)絡(luò)釣魚、會(huì)話劫持、盜取受害者的cookie等非法活動(dòng)。根據(jù)國家信息安全漏洞庫(CNNVD)統(tǒng)計(jì),2020年4月新增安全漏洞共2 155個(gè),從漏洞類型看,跨站腳本漏洞占比達(dá)10.53%,僅次于緩沖區(qū)錯(cuò)誤[1],因此,當(dāng)下對(duì)于XSS攻擊的檢測與防范尤為重要。XSS檢測方法主要有靜態(tài)分析方法、動(dòng)態(tài)分析方法、機(jī)器學(xué)習(xí)方法等,由于深度學(xué)習(xí)具有自動(dòng)提取特征、識(shí)別準(zhǔn)確率高等優(yōu)點(diǎn),近些年人們開始把目光轉(zhuǎn)向深度學(xué)習(xí),并利用深度學(xué)習(xí)技術(shù)對(duì)XSS攻擊進(jìn)行檢測。基于上述情況,該文研究并構(gòu)建針對(duì)XSS攻擊的深度學(xué)習(xí)模型。
Mohammadi等[2]提出了一種基于單元測試的方法自動(dòng)檢測XSS漏洞;曹黎波等[3]先提交合法向量以確定輸出點(diǎn)的所在頁面與具體位置,然后對(duì)輸出點(diǎn)分類并使用不同類型的攻擊向量,有效提高了檢測效率;李潔等[4]在構(gòu)造DOM模型與修改Firefox Spider Monkey腳本引擎的基礎(chǔ)上,設(shè)計(jì)了一種動(dòng)態(tài)的、基于bytecode的污點(diǎn)分析的檢測算法以對(duì)DOM-Based XSS進(jìn)行檢測;Wang R等[5]提出了一個(gè)檢測DOM-XSS的框架TT-XSS;谷家騰等[6]設(shè)計(jì)了一種基于動(dòng)態(tài)分析的XSS漏洞檢測模型,通過試探載荷測試及載荷單元的組合測試與單獨(dú)測試判斷是否存在XSS漏洞。
當(dāng)下,隨著機(jī)器學(xué)習(xí)的發(fā)展,網(wǎng)絡(luò)安全領(lǐng)域開始引入機(jī)器學(xué)習(xí)來進(jìn)行惡意攻擊的檢測與防范。Rathore等[7]根據(jù)SNSs網(wǎng)頁的特性與前人的經(jīng)驗(yàn),共提取了25個(gè)XSS特征,并使用ADTree等分類器進(jìn)行XSS攻擊檢測;趙澄等[8]提出了一種基于SVM的XSS攻擊檢測方案;王培超等[9]利用貝葉斯網(wǎng)絡(luò)對(duì)XSS攻擊進(jìn)行檢測,并搜集惡意IP信息和惡意域名改善模型的準(zhǔn)確性。
深度學(xué)習(xí)能夠自動(dòng)提取特征,這有效解決了人工提取特征存在的特征選取具有主觀性、不全面等問題,因此,近些年深度學(xué)習(xí)開始被應(yīng)用在XSS攻擊檢測等領(lǐng)域中,并逐漸成為這些領(lǐng)域的主流方法。Li Zhen等[10]將深度學(xué)習(xí)引入到漏洞檢測領(lǐng)域;Fang Y等[11]使用word2vec模型將樣本轉(zhuǎn)換為由詞向量構(gòu)成的序列,然后利用長短時(shí)記憶網(wǎng)絡(luò)(LSTM)自動(dòng)提取特征并進(jìn)行分類;Wu F等[12]將CNN、LSTM、CNN+LSTM模型運(yùn)用到漏洞檢測領(lǐng)域;方忠慶[13]構(gòu)建了CNN+LSTM模型對(duì)XSS攻擊進(jìn)行檢測;程琪芩等[14]使用BiLSTM模型提取樣本的特征;林雍博等[15]構(gòu)建殘差網(wǎng)絡(luò)與GRU結(jié)合的模型檢測XSS攻擊。以上方法都取得了良好的效果,但是都沒有解決普通深度學(xué)習(xí)模型難以區(qū)分?jǐn)?shù)據(jù)中重要信息與非重要信息的問題。
自從Bahdanau等[16]提出注意力機(jī)制,它便引起學(xué)界的關(guān)注,并開始被廣泛運(yùn)用在各個(gè)領(lǐng)域。注意力機(jī)制能夠幫助模型區(qū)分出重要特征與非重要特征,從而提升模型的整體性能。汪嘉偉等[17]利用卷積神經(jīng)網(wǎng)絡(luò)提取局部特征,并引入自注意力機(jī)制捕捉序列的長距離依賴特征;趙宇軒等[18]將注意力機(jī)制引入到深度學(xué)習(xí)模型,完成垃圾郵件的檢測任務(wù);陳莉媛等[19]在短文本情感分析的任務(wù)中引入自注意力機(jī)制,利用其捕獲關(guān)鍵信息的特點(diǎn)提升模型性能;桂文明等[20]在歌聲檢測任務(wù)中應(yīng)用點(diǎn)積自注意力模塊使模型能夠區(qū)分特征間的重要性差異;劉學(xué)平等[21]將通道注意力模塊SENet結(jié)構(gòu)嵌入到Y(jié)OLOV3結(jié)構(gòu),以提升目標(biāo)識(shí)別的查準(zhǔn)率;康雁等[22]在文本情感分類任務(wù)中融合了SENet模塊,提高了模型對(duì)深層次文本特征的抽取與分類能力;邱寧佳等[23]在文本主題識(shí)別任務(wù)中引入通道注意力模塊SENet,強(qiáng)化重要的通道信息以提升模型性能。
以上方法大多數(shù)是單獨(dú)使用自注意力機(jī)制或通道注意力機(jī)制,雖然實(shí)驗(yàn)證明這些注意力機(jī)制的加入能夠提升模型性能,但單獨(dú)使用其中一種還是會(huì)存在關(guān)注維度單一的問題。自注意力模塊以序列中各位置的詞向量作為單位,根據(jù)相應(yīng)位置上的單位與其他單位之間的相關(guān)性,確定該位置的最終結(jié)果,顯然,它沒有從通道的維度考慮各通道特征圖的重要程度;而通道注意力模塊則是從通道維度計(jì)算各特征圖的注意力權(quán)重,并通過加權(quán)的方式確定各通道特征圖的最終結(jié)果,但它并沒有從序列的維度探究各詞向量間的相關(guān)性。因此,該文根據(jù)上述分析提出了卷積神經(jīng)網(wǎng)絡(luò)與多注意力機(jī)制相結(jié)合的模型,并以此對(duì)XSS攻擊進(jìn)行檢測。
跨站腳本攻擊主要分為3類[24]:反射型XSS(reflected XSS)、存儲(chǔ)型XSS(stored XSS)及基于DOM的XSS(DOM-based XSS)。反射型XSS是現(xiàn)在最普遍的一種XSS,攻擊者將惡意代碼放在URL中,并誘使受害者點(diǎn)擊,一旦受害者點(diǎn)擊了該URL,惡意腳本便會(huì)被服務(wù)器發(fā)送給受害者,在其被解析和執(zhí)行后,攻擊者便實(shí)現(xiàn)了對(duì)受害者的XSS攻擊;存儲(chǔ)型XSS是一種持久性的XSS,與反射型XSS不同,存儲(chǔ)型XSS是將惡意腳本存儲(chǔ)在服務(wù)器端的數(shù)據(jù)庫中,一旦有用戶訪問相應(yīng)網(wǎng)站,攻擊代碼便會(huì)從服務(wù)器端數(shù)據(jù)庫響應(yīng)給受害者,該類型的XSS漏洞通常存在于留言板等能夠進(jìn)行交互的地方,并常被用于編寫危害性更大的XSS蠕蟲[25];基于DOM的XSS的請(qǐng)求不會(huì)被發(fā)送到服務(wù)器,而是在用戶瀏覽器本地執(zhí)行,因此,其威脅相較反射型XSS更大,防御難度也更高[4]。
近些年,自注意力機(jī)制[26]被廣泛運(yùn)用在文本處理等領(lǐng)域。在處理文本類型數(shù)據(jù)時(shí),人們希望模型在關(guān)注全局信息的同時(shí),能更加關(guān)注序列中的重點(diǎn)信息,自注意力機(jī)制則可輔助模型達(dá)到這一目的。其總體框架如圖1所示。自注意力機(jī)制的核心思想是通過計(jì)算單個(gè)詞向量與序列中其他詞向量的相似度來判定其在序列中的重要程度,它在訓(xùn)練時(shí)只關(guān)注自身信息,并且可以無視詞向量之間的距離,在序列中的任意兩個(gè)詞向量之間建立聯(lián)系,因此,自注意力機(jī)制具有提取長距離依賴特征的功能[19]?;谏鲜龇治?該文在深度學(xué)習(xí)模型中加入自注意力模塊以提高模型對(duì)長距離依賴特征的學(xué)習(xí)能力以及對(duì)序列中重點(diǎn)信息的關(guān)注能力。
圖1 自注意力框架
通道注意力機(jī)制能夠?yàn)楦魍ǖ捞卣饔?jì)算權(quán)值,常被用于輔助深度學(xué)習(xí)模型以提升其性能。Jie H等[27]提出通道注意力模塊SENet(squeeze-and-ex-citation networks),這是一種最初應(yīng)用在計(jì)算機(jī)視覺領(lǐng)域的輕量級(jí)模塊,近些年在文本分類領(lǐng)域也開始被人們應(yīng)用。SENet的原理是通過加權(quán)的方式強(qiáng)化與分類相關(guān)性更強(qiáng)的通道特征圖以提升模型的分類性能[28],其結(jié)構(gòu)如圖2所示。
圖2 SENet結(jié)構(gòu)
SENet模塊首先通過全局平均池化層(GAP)獲取各特征圖的信息,然后依次經(jīng)過全連接層(FC)、ReLU激活函數(shù)、全連接層(FC),最后經(jīng)由Sigmoid激活函數(shù)得到通道權(quán)值。
Woo S等[29]提出了輕量級(jí)注意力模塊CBAM,該模塊中通道注意力子模塊的結(jié)構(gòu)如圖3所示,該子模塊與SENet模塊的不同之處在于它在獲取通道信息時(shí)分別使用了全局平均池化層和全局最大池化層(GMP),全局平均池化與全局最大池化相配合能夠生成更為合理的通道注意力權(quán)值。CBAM模塊的提出者對(duì)其中的通道注意力子模塊進(jìn)行了實(shí)驗(yàn),并證明了同時(shí)使用全局平均池化和全局最大池化比單獨(dú)使用一種全局池化的效果更好。因此,該文參考了CBAM中通道注意力子模塊的結(jié)構(gòu)構(gòu)建適用于文本類型數(shù)據(jù)的通道注意力模塊。
圖3 CBAM通道注意力子模塊結(jié)構(gòu)
基于上一節(jié)的分析,該文提出了一種卷積神經(jīng)網(wǎng)絡(luò)與多注意力機(jī)制相結(jié)合的模型,它由兩個(gè)卷積層、一個(gè)自注意力模塊、通道注意力模塊、最大池化層、Dropout層、全局平均池化層和softmax分類器構(gòu)成。該模型結(jié)構(gòu)如圖4所示。
圖4 深度學(xué)習(xí)模型整體結(jié)構(gòu)
模型的核心部分由卷積層、自注意力模塊以及通道注意力模塊構(gòu)成。其中,卷積層能夠?qū)颖镜木植刻卣鬟M(jìn)行提取,然而,卷積神經(jīng)網(wǎng)絡(luò)存在提取長距離依賴特征的能力不足以及難以識(shí)別重要信息的缺陷,因此,在此基礎(chǔ)上,加入了自注意力模塊。自注意力模塊能夠在序列中的各個(gè)詞向量之間建立聯(lián)系,有效解決了卷積神經(jīng)網(wǎng)絡(luò)對(duì)長距離依賴特征提取能力不足的問題,并且能夠使模型更加關(guān)注序列中的重要信息,自注意力機(jī)制的工作原理如圖5所示。
圖5 自注意力機(jī)制工作原理
(1)
從自注意力機(jī)制的工作原理可以看出,自注意力機(jī)制能夠通過注意力權(quán)重矩陣在序列維度上各個(gè)位置得到新的向量,但它并沒有從通道維度分析各通道特征圖之間存在的重要性差異。為了解決該問題,引入通道注意力模塊。通道注意力的作用原理如圖6所示。
圖6 通道注意力作用原理
通道注意力模塊接收由n個(gè)通道特征圖構(gòu)成的輸入c={c1,c2,…,cn},各個(gè)通道特征圖沿著通道維度(channel dimension)依次分布,通道注意力模塊可以根據(jù)輸入c分析出這n個(gè)通道的注意力權(quán)重a1,a2,…,an,并利用它們?yōu)橄鄳?yīng)的通道特征圖加權(quán)得到新的特征C={C1,C2,…,Cn},其加權(quán)公式如下所示:
(2)
在注意力模塊完成對(duì)特征圖的處理后,便將優(yōu)化后的特征送入最大池化層進(jìn)行下采樣,與此同時(shí)加入Dropout層提高模型的泛化能力,最后經(jīng)過全局平均池化層和softmax分類器對(duì)樣本進(jìn)行分類。
在實(shí)驗(yàn)開始前,需要對(duì)數(shù)據(jù)集中的數(shù)據(jù)進(jìn)行預(yù)處理。由于攻擊者在構(gòu)造XSS攻擊向量時(shí)會(huì)通過惡意混淆的方式來躲避檢測,因此,首先需要對(duì)數(shù)據(jù)集中的樣本進(jìn)行解碼操作,以提高樣本數(shù)據(jù)的可讀性;其次,將樣本中的數(shù)字用“0”替換,并將超鏈接用“http://u”替換;最后進(jìn)行分詞操作,從而將樣本分割為由單詞組成的序列。
完成預(yù)處理的工作后,就可以利用詞向量模型word2vec將原數(shù)據(jù)轉(zhuǎn)換為由詞向量構(gòu)成的語句序列,并將其作為深度學(xué)習(xí)模型的標(biāo)準(zhǔn)輸入。
完成詞向量轉(zhuǎn)換的工作后,就可以利用構(gòu)建的深度學(xué)習(xí)模型提取樣本的特征并對(duì)樣本進(jìn)行分類。在深度學(xué)習(xí)模型中,卷積神經(jīng)網(wǎng)絡(luò)負(fù)責(zé)提取樣本的局部特征,自注意力模塊負(fù)責(zé)提高模型對(duì)長距離依賴特征的學(xué)習(xí)能力以及對(duì)重要序列特征的關(guān)注能力,通道注意力模塊則負(fù)責(zé)加強(qiáng)模型對(duì)重要通道特征的關(guān)注度。提取完特征后,經(jīng)由最大池化層以及Drouout層進(jìn)行下采樣及泛化處理,并通過全局平均池化層及分類器完成樣本的分類工作。
在訓(xùn)練模型之前需要對(duì)訓(xùn)練樣本以及測試樣本進(jìn)行預(yù)處理及詞向量轉(zhuǎn)換等操作以得到適應(yīng)深度學(xué)習(xí)模型的標(biāo)準(zhǔn)訓(xùn)練集Train_set以及標(biāo)準(zhǔn)測試集Test_set。文中模型的算法設(shè)計(jì)如下所示:
輸入:訓(xùn)練集Train_set與測試集Test_set。
輸出:經(jīng)分類器預(yù)測得到的結(jié)果。
構(gòu)建深度學(xué)習(xí)模型并初始化參數(shù)。
訓(xùn)練模塊:
Fori in epochs:
將訓(xùn)練集Train_set的數(shù)據(jù)送入輸入層得到result1;
將result1送入卷積神經(jīng)網(wǎng)絡(luò)提取特征得到result2;
將result2送入自注意力模塊進(jìn)行處理得到result3;
將result3送入通道注意力模塊,從通道維度對(duì)特征圖加權(quán)得到result4;
將result4送入最大池化層進(jìn)行下采樣,然后再利用Dropout層進(jìn)行泛化得到result5;
將result5送入全局平均池化層,然后輸入到soft-max分類器中進(jìn)行預(yù)測得到分類結(jié)果result;
將分類結(jié)果與實(shí)際類別進(jìn)行對(duì)比,并根據(jù)誤差進(jìn)行反向傳播以調(diào)整參數(shù);
更新深度學(xué)習(xí)模型各層的參數(shù);
end for;
測試模塊:
將測試集Test_set中的數(shù)據(jù)送入訓(xùn)練好的模型中進(jìn)行預(yù)測,并將預(yù)測結(jié)果與實(shí)際類別進(jìn)行對(duì)比,判定模型的檢測性能。
將攻擊樣本設(shè)置為正樣本,將正常樣本設(shè)置為負(fù)樣本。為了驗(yàn)證文中所提模型的性能,使用準(zhǔn)確率(accuracy)、精確率(precision)、召回率(recall)、和F1值作為模型的評(píng)價(jià)指標(biāo)。其中,準(zhǔn)確率表示被正確預(yù)測的樣本數(shù)占總樣本數(shù)的比例;精確率表示被正確預(yù)測的正樣本數(shù)占所有被預(yù)測為正樣本的樣本數(shù)的比例;召回率表示被正確預(yù)測的正樣本數(shù)占所有正樣本的樣本數(shù)的比例;F1值是綜合精確率和召回率的評(píng)價(jià)指標(biāo),它們的公式如下所示:
(3)
(4)
(5)
(6)
其中,TN是指被正確預(yù)測的負(fù)樣本數(shù)量,FP是被預(yù)測為正樣本的負(fù)樣本數(shù)量,FN是被預(yù)測為負(fù)樣本的正樣本數(shù)量,TP是被正確預(yù)測的正樣本數(shù)量。
實(shí)驗(yàn)的硬件環(huán)境為:處理器Intel(R) Core(TM) i5-10300H、內(nèi)存8 GB;軟件環(huán)境為:Win10(64位)操作系統(tǒng)、Python3.5、TensorFlow1.8.0、Keras2.2.0。
實(shí)驗(yàn)使用從Github收集到的24 687個(gè)XSS攻擊樣本以及24 818個(gè)正常樣本,兩類樣本的總數(shù)為49 505。按照7∶3的比例將樣本劃分為訓(xùn)練集與測試集。樣本的分布情況如表1所示。
表1 樣本分布情況
由于深度學(xué)習(xí)模型要求所有輸入數(shù)據(jù)的序列長度和詞向量維度保持一致,因此,該文需要統(tǒng)一輸入數(shù)據(jù)的形狀。為了確定輸入數(shù)據(jù)的序列長度,對(duì)分詞后樣本序列長度的分布情況進(jìn)行了統(tǒng)計(jì),結(jié)果顯示,序列長度小于等于100的樣本數(shù)量超過總樣本數(shù)量的99%,因此將所有輸入樣本的序列長度統(tǒng)一為100,對(duì)于長度超過100的樣本進(jìn)行截?cái)嗵幚?并對(duì)長度小于100的樣本使用零向量進(jìn)行填補(bǔ)。為了確定epoch值,對(duì)模型的性能與epoch之間的關(guān)系進(jìn)行了探究,模型在測試集的準(zhǔn)確率曲線及F1值曲線如圖7和圖8所示。從圖中可以看出,當(dāng)訓(xùn)練輪數(shù)到達(dá)3的時(shí)候,模型的準(zhǔn)確率與F1值都達(dá)到了高位水平,當(dāng)繼續(xù)增加訓(xùn)練輪數(shù)時(shí)可以發(fā)現(xiàn),模型的性能并沒有明顯的提升,曲線趨向平穩(wěn),因此,將epoch設(shè)置為3。
圖7 模型測試集準(zhǔn)確率曲線
圖8 模型測試集F1值曲線
實(shí)驗(yàn)參數(shù)如表2所示。
表2 實(shí)驗(yàn)參數(shù)
在實(shí)驗(yàn)訓(xùn)練階段與測試階段所用的數(shù)據(jù)集均為經(jīng)過預(yù)處理及詞向量轉(zhuǎn)換處理的標(biāo)準(zhǔn)數(shù)據(jù)集。首先使用標(biāo)準(zhǔn)訓(xùn)練集訓(xùn)練文中提出的模型,并在該模型訓(xùn)練完成后將其應(yīng)用在標(biāo)準(zhǔn)測試集中。為了探究注意力機(jī)制對(duì)模型性能的影響,進(jìn)行了消融實(shí)驗(yàn),對(duì)文中提出的模型進(jìn)行了拆解。實(shí)驗(yàn)的結(jié)果如表3所示,其中基準(zhǔn)模型為在文中模型基礎(chǔ)上去掉所有注意力模塊的模型,方法1為基準(zhǔn)模型加通道注意力模塊的模型,方法2為基準(zhǔn)模型加自注意力模塊的模型。從實(shí)驗(yàn)結(jié)果可以看出,加入通道注意力模塊或者加入自注意力模塊都能提高卷積神經(jīng)網(wǎng)絡(luò)的性能,而文中模型的準(zhǔn)確率與F1值分別為99.02%與99.01%,明顯高于其他3個(gè)對(duì)照組。與基準(zhǔn)模型相比,文中模型的準(zhǔn)確率提升了1.07百分點(diǎn),召回率提升了2.09百分點(diǎn),F1值提升了1.09百分點(diǎn),其相對(duì)于基準(zhǔn)模型的提升幅度大于單獨(dú)使用一種注意力機(jī)制的方法1和方法2。
表3 消融實(shí)驗(yàn)結(jié)果 %
為了繼續(xù)驗(yàn)證該模型的性能,還將其與深度學(xué)習(xí)中常用的RNN模型和LSTM模型進(jìn)行了對(duì)比。此外,由于數(shù)據(jù)集及預(yù)處理等方面存在差異,根據(jù)文獻(xiàn)[13]、文獻(xiàn)[30]、文獻(xiàn)[14]中所提供的信息構(gòu)建了相應(yīng)的CNN+LSTM、LSTM-Attention、BiLSTM模型進(jìn)行實(shí)驗(yàn),因?yàn)槲疵鞔_文獻(xiàn)[30]中L-STM的units參數(shù),所以,在進(jìn)行對(duì)照實(shí)驗(yàn)時(shí)將該參數(shù)設(shè)置為128。對(duì)照實(shí)驗(yàn)依舊使用表3實(shí)驗(yàn)所用的標(biāo)準(zhǔn)數(shù)據(jù)集,其中,對(duì)照實(shí)驗(yàn)的batch_size、epoch均依照表3設(shè)置。模型主要性能指標(biāo)的對(duì)比結(jié)果如表4所示。
表4 文中模型與其他深度學(xué)習(xí)模型對(duì)比結(jié)果 %
從表4可以看出,RNN模型、LSTM模型、CNN+LSTM模型、LSTM-Attention模型、BiLSTM模型的準(zhǔn)確率分別為93.53%、98.22%、98.69%、98.65%、98.62%,F1值分別為93.34%、98.21%、98.68%、98.65%、98.61%。相比RNN模型,文中方法在準(zhǔn)確率與F1值方面均提升了超過5百分點(diǎn),召回率提升了接近8百分點(diǎn),除此之外,其他幾個(gè)對(duì)照模型均取得了不錯(cuò)的檢測效果,但是,相比之下文中提出的模型在準(zhǔn)確率、精確率與F1值這些指標(biāo)上都表現(xiàn)得更加優(yōu)秀。因此,通過對(duì)照實(shí)驗(yàn)可以得出結(jié)論,文中提出的模型在XSS攻擊檢測方面有著良好的表現(xiàn)。
如今,隨著Web應(yīng)用的普及,XSS攻擊的威脅也變得越來越大,如何有效地檢測XSS攻擊成為當(dāng)前一項(xiàng)重要的任務(wù)。針對(duì)這一情況,構(gòu)建了基于卷積神經(jīng)網(wǎng)絡(luò)和多注意力機(jī)制的XSS攻擊檢測模型。在卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上,引入了自注意力模塊及通道注意力模塊,從序列與通道兩個(gè)維度對(duì)特征進(jìn)行優(yōu)化處理。首先,對(duì)輸入數(shù)據(jù)進(jìn)行解碼、替換、分詞等預(yù)處理工作;然后,使用word2vec模型進(jìn)行詞向量的轉(zhuǎn)換工作,并利用提出的模型進(jìn)行特征提取等工作;最后,根據(jù)提取到的特征進(jìn)行分類。為了驗(yàn)證文中所提模型的性能,進(jìn)行了消融實(shí)驗(yàn),并將該模型與其他深度學(xué)習(xí)模型進(jìn)行了對(duì)比。下一步,可以繼續(xù)收集樣本構(gòu)建數(shù)據(jù)集以觀察該模型的效果,并繼續(xù)嘗試改進(jìn)模型,以提高檢測的性能,應(yīng)對(duì)日益復(fù)雜的XSS攻擊。