黃 瑤,潘麗麗,熊思宇,蔣湘輝,馬俊勇
(中南林業(yè)科技大學(xué)計(jì)算機(jī)與信息工程學(xué)院,湖南 長(zhǎng)沙 410004)
香農(nóng)將整個(gè)網(wǎng)絡(luò)空間的信息安全系統(tǒng)分為加密系統(tǒng)、隱私系統(tǒng)和隱藏系統(tǒng)。在保護(hù)信息安全的同時(shí),加密系統(tǒng)和隱私系統(tǒng)也暴露了信息的存在性和重要性,這使得目標(biāo)暴露給潛在的攻擊者,從而容易受到有針對(duì)性的攻擊。隱藏系統(tǒng)將秘密信息嵌入到特定的載體中,以確保信息安全。隱藏系統(tǒng)作為一種非常獨(dú)特的信息安全系統(tǒng),在保障網(wǎng)絡(luò)空間安全方面發(fā)揮著重要作用。
在網(wǎng)絡(luò)空間中,有不同的載體可以用于信息隱藏,包括圖像[1,2]、音頻[3,4]、視頻[5,6]和文本[7-11]等,其中,文本作為人類(lèi)交流最常用的一種載體,表達(dá)的信息非常豐富且使用頻率很高,很適合進(jìn)行信息隱藏。因此,文本隱寫(xiě)術(shù)的研究具有很高的實(shí)用價(jià)值。然而,由于文本的冗余信息量較少,隱藏文本中的信息具有一定的挑戰(zhàn)性。目前,文本隱寫(xiě)術(shù)可以分為2種:基于文本修改的[9-11]隱寫(xiě)術(shù)和基于文本生成的[7,8]隱寫(xiě)術(shù)?;谖谋拘薷牡碾[寫(xiě)術(shù)主要是通過(guò)修改和替換不同粒度的文本內(nèi)容來(lái)嵌入秘密信息,如采用同義詞替換來(lái)實(shí)現(xiàn)秘密信息嵌入,其特點(diǎn)是文字變化少,因此可以達(dá)到較高的隱蔽性。然而,由于文本信息的冗余度很小,基于文本修改的隱寫(xiě)術(shù)難以達(dá)到很高的隱藏容量?;谖谋旧傻碾[寫(xiě)術(shù)可以根據(jù)秘密信息自動(dòng)生成隱寫(xiě)文本,具有更高的信息隱藏能力。然而,如何生成高質(zhì)量的自然文本是基于生成的文本隱寫(xiě)術(shù)面臨的一個(gè)關(guān)鍵問(wèn)題。文獻(xiàn)[7]提出一種基于循環(huán)神經(jīng)網(wǎng)絡(luò)的隱寫(xiě)文本自動(dòng)生成模型,首先從大量的正常文本中學(xué)習(xí)統(tǒng)計(jì)語(yǔ)言分布模型,然后生成符合這種統(tǒng)計(jì)模式的文本;在句子生成過(guò)程中,利用二叉樹(shù)對(duì)每個(gè)單詞的條件概率分布進(jìn)行編碼,實(shí)現(xiàn)秘密信息隱藏,但該模型忽略了句子間的相關(guān)性,并且存在暴露偏差的問(wèn)題,影響隱寫(xiě)系統(tǒng)的安全性。
本文提出一種基于生成對(duì)抗網(wǎng)絡(luò)與多頭注意力的文本隱寫(xiě)術(shù)TS-GANMA(Text Steganography based on Generative Adversarial Networks and Multi-head Attention)。在生成對(duì)抗網(wǎng)絡(luò)的對(duì)抗訓(xùn)練中,多頭注意力得分參與計(jì)算獎(jiǎng)勵(lì),以?xún)?yōu)化文本生成器,解決隱寫(xiě)過(guò)程中暴露偏差的問(wèn)題,使生成的隱寫(xiě)文本具有更好的隱蔽性。
在早期階段,有些研究人員研究了基于規(guī)則的文本隱寫(xiě)術(shù)。然而,這些方法遵循簡(jiǎn)單的模式,難以保證生成的隱寫(xiě)文本的語(yǔ)法正確性和語(yǔ)義流暢性?;谖谋旧傻碾[寫(xiě)術(shù)通常具有很高的隱藏容量,被認(rèn)為是文本隱寫(xiě)領(lǐng)域一個(gè)重要的研究方向?;谖谋旧傻碾[寫(xiě)術(shù)經(jīng)歷了2個(gè)發(fā)展階段:基于馬爾可夫鏈的隱寫(xiě)術(shù)和基于神經(jīng)網(wǎng)絡(luò)的隱寫(xiě)術(shù)。與基于文本修改的隱寫(xiě)術(shù)不同,基于文本生成的隱寫(xiě)術(shù)不需要預(yù)先給定載體,而是根據(jù)需要傳輸?shù)拿孛苄畔⒅苯由呻[寫(xiě)文本。基于馬爾可夫鏈的文本隱寫(xiě)術(shù)主要利用馬爾可夫鏈的無(wú)記憶性和不變性對(duì)隨機(jī)過(guò)程建模,通過(guò)不同的狀態(tài)轉(zhuǎn)移映射成不同的秘密信息,實(shí)現(xiàn)秘密信息的隱藏[12,13]。然而,基于馬爾可夫鏈的隱寫(xiě)術(shù)對(duì)長(zhǎng)序列依賴(lài)不敏感,而這種不敏感會(huì)降低隱寫(xiě)文本的生成質(zhì)量。近年來(lái)隨著自然語(yǔ)言處理的發(fā)展,出現(xiàn)了越來(lái)越多的自動(dòng)文本生成模型?;谏窠?jīng)網(wǎng)絡(luò)的文本隱寫(xiě)術(shù)常用的語(yǔ)言模型有基于循環(huán)神經(jīng)網(wǎng)絡(luò)RNN(Recurrent Neural Network)的生成模型[7]、基于變分自編碼器VAE(Variational Auto-Encoder)的生成模型[14]和基于Transformer的生成模型[15]等。Hochreiter等[16]提出的長(zhǎng)短期記憶LSTM(Long Short-Term Memory)網(wǎng)絡(luò)可以很好地捕捉序列長(zhǎng)期依賴(lài)。實(shí)驗(yàn)表明LSTM隱寫(xiě)術(shù)取得了更好的隱寫(xiě)文本生成效果。Fang等[8]采用LSTM網(wǎng)絡(luò)作為語(yǔ)言模型,使用塊狀編碼對(duì)候選詞提前分塊,使得生成詞與秘密信息建立映射關(guān)系。
基于文本生成的隱寫(xiě)術(shù)的性能很大程度取決于文本生成方法本身。生成自然、流暢、無(wú)偏見(jiàn)的文本是保證隱寫(xiě)術(shù)安全性的前提。目前,大多數(shù)方法都使用最大似然估計(jì)MLE(Maximum Likelihood Estimation)訓(xùn)練文本生成模型[7,17,18]。最大似然估計(jì)是一種常用的參數(shù)估計(jì)方法,其基本思想是在已知概率分布函數(shù)的情況下,通過(guò)觀測(cè)到的樣本數(shù)據(jù),求解出該概率分布函數(shù)的未知參數(shù)的最優(yōu)值。但是,這種訓(xùn)練方法存在偏差暴露的問(wèn)題,影響隱寫(xiě)文本的生成質(zhì)量。針對(duì)以上問(wèn)題,本文提出了基于生成對(duì)抗網(wǎng)絡(luò)與多頭注意力的文本隱寫(xiě)術(shù)TS-GANMA,在TS-GANMA對(duì)抗訓(xùn)練中多頭注意力參與計(jì)算獎(jiǎng)勵(lì),將得到的獎(jiǎng)勵(lì)信號(hào)用于更新生成器。通過(guò)該模型得到的文本生成器能夠生成高質(zhì)量的隱寫(xiě)文本。
本節(jié)首先展示所提出的基于生成對(duì)抗網(wǎng)絡(luò)與多頭注意力的文本隱寫(xiě)術(shù)TS-GANMA的總體結(jié)構(gòu)。該方法包括1個(gè)基于雙層LSTM的生成器和1個(gè)基于Transformer的鑒別器;然后給出了生成器和鑒別器的詳細(xì)設(shè)計(jì);最后介紹訓(xùn)練過(guò)程中獎(jiǎng)懲模塊和多頭注意力的作用。
本文提出的基于生成對(duì)抗網(wǎng)絡(luò)的TS-GANMA結(jié)構(gòu)主要包括1個(gè)生成器和1個(gè)鑒別器,如圖1所示。由于長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)對(duì)于時(shí)序信號(hào)具有較強(qiáng)的建模能力,本文選擇雙層LSTM作為生成器來(lái)增強(qiáng)整個(gè)網(wǎng)絡(luò)的建模能力。LSTM可以獲取每個(gè)時(shí)間步長(zhǎng)的單詞概率,并將當(dāng)前時(shí)間步長(zhǎng)的輸出作為下一時(shí)間步長(zhǎng)的輸入。訓(xùn)練過(guò)程中,生成器生成大量生成文本,然后利用生成文本與真實(shí)文本對(duì)鑒別器進(jìn)行訓(xùn)練。因?yàn)門(mén)ransformer具有強(qiáng)文本特征提取能力,本文使用基于Transformer的網(wǎng)絡(luò)作為鑒別器。在生成器訓(xùn)練時(shí)預(yù)先設(shè)置訓(xùn)練步數(shù),通過(guò)生成器生成批量生成文本,再將生成文本送到鑒別器中,以獲得它們與真實(shí)文本的接近程度。然后使用分類(lèi)概率和文本通過(guò)Transformer鑒別器得到的多頭注意力分?jǐn)?shù)共同計(jì)算獎(jiǎng)勵(lì)值,引導(dǎo)生成器繼續(xù)訓(xùn)練。通過(guò)生成器和鑒別器對(duì)抗訓(xùn)練,使兩者共同得到提升。算法1中給出了訓(xùn)練的整個(gè)過(guò)程,圖2為算法1的流程圖。
Figure 1 Structure of TS-GANMA model
Figure 2 Flow chart of TS-GANMA model training
算法1TS-GANMA模型訓(xùn)練
輸出:生成器G。
步驟1隨機(jī)初始化生成器G和鑒別器D;
步驟2輸入T,使用最大似然估計(jì)的方法預(yù)訓(xùn)練生成器G;
步驟4輸入T和S,使用最小化交叉熵預(yù)訓(xùn)練鑒別器D;
步驟5 forepochdo/*epoch表示訓(xùn)練的總輪次*/
步驟6forg-epochdo/*g-epoch表示對(duì)抗學(xué)習(xí)時(shí)生成器訓(xùn)練的輪次*/
步驟7將生成序列輸入到鑒別器D;
步驟8在每個(gè)時(shí)間步驟上,應(yīng)用蒙特卡洛搜索抽樣,得到完整序列;
步驟9根據(jù)鑒別器D計(jì)算每個(gè)序列的對(duì)應(yīng)的獎(jiǎng)勵(lì){D1,D2,D3,…,D|T|};
步驟10通過(guò)鑒別器D得到序列的多頭注意力得分和分類(lèi)結(jié)果,輸入到獎(jiǎng)懲模塊對(duì)獎(jiǎng)勵(lì)再次更新,得到最終的獎(jiǎng)勵(lì);
步驟11根據(jù)最終的獎(jiǎng)勵(lì)更新生成器G參數(shù);
步驟12endfor
步驟13ford-epochdo/*d-epoch表示對(duì)抗學(xué)習(xí)時(shí)鑒別器訓(xùn)練的輪次*/
步驟14使用當(dāng)前的生成器G生成負(fù)樣本S和正樣本訓(xùn)練鑒別器D;
步驟15endfor
步驟16endfor
步驟17returnG;
TS-GANMA運(yùn)行模式如下:首先,通過(guò)生成對(duì)抗網(wǎng)絡(luò)訓(xùn)練大量真實(shí)文本樣本,優(yōu)化生成器;其次,利用訓(xùn)練好的生成器自動(dòng)生成文本,在生成過(guò)程中,通過(guò)對(duì)每個(gè)詞的條件概率分布進(jìn)行編碼,嵌入秘密信息。
文本生成的結(jié)果可以建模為序列X=(x1,x2,…,xn)。本文主要利用LSTM對(duì)序列信號(hào)進(jìn)行特征提取和建模,增加LSTM層以加強(qiáng)生成器對(duì)文本的序列信號(hào)的建模能力。生成器依次讀取序列的每個(gè)單詞,通過(guò)詞嵌入將單詞轉(zhuǎn)換為固定長(zhǎng)度的單詞向量,并將其提供給雙層LSTM。對(duì)于LSTM層,輸入為當(dāng)前t時(shí)刻單詞向量xt和t-1時(shí)刻的隱藏層狀態(tài)ht-1,輸出為Ot,基于雙層LSTM的生成器工作原理如式(1)所示:
(1)
其中,It表示輸入門(mén),Ft表示遺忘門(mén),Ot表示輸出門(mén),Ct表示細(xì)胞狀態(tài),ht表示隱藏狀態(tài),W和b分別表示學(xué)習(xí)的權(quán)重和偏差;[·,·]表示矩陣連接,tanh(·)表示激活函數(shù)。
t時(shí)刻的輸出為ht和Ot,ht作為t+1時(shí)刻的隱藏狀態(tài)繼續(xù)參與下一個(gè)操作,Ot作為輸出發(fā)送到生成器的下一個(gè)全連接層。全連接層的Softmax可以將概率進(jìn)行投影得到向量St=(St1,St2,…,Stq),其中,Stj(1≤j≤q,q表示訓(xùn)練集文本中獨(dú)一無(wú)二單詞的數(shù)量)表示單詞uj出現(xiàn)在序列中t時(shí)刻位置的條件概率,具體如式(2)所示:
Stj=S(uj|u1,u2,…,uj-1)
(2)
TS-GANMA會(huì)以一定的概率抽樣結(jié)果或選擇概率最高的值作為文本序列的下一個(gè)元素,迭代完成整個(gè)文本序列的生成。
鑒別器的主要作用是判斷輸入文本是真實(shí)的文本還是生成的文本。由于Transformer可以從不同的粒度提取文本的特征,本文采用Transformer的編碼器作為鑒別器,以增強(qiáng)網(wǎng)絡(luò)的鑒別能力。通過(guò)Transformer中的多頭注意力機(jī)制得到鑒別序列更豐富的文本數(shù)據(jù)特征,將得到的多頭注意力分?jǐn)?shù)運(yùn)用到后續(xù)的獎(jiǎng)勵(lì)計(jì)算。鑒別器的輸入是由n個(gè)單詞組成的完整文本序列X=(x1,x2,…,xn),序列從生成器生成的文本或者真實(shí)文本中獲得。鑒別器的第1層為嵌入層,將序列中的每個(gè)單詞轉(zhuǎn)換為1個(gè)單詞向量,從而形成1個(gè)單詞向量矩陣x,然后將單詞向量矩陣x輸入到Transformer層,輸出通過(guò)全連接層和激活函數(shù)生成,最后可以得到正常文本的預(yù)測(cè)概率。鑒別器的損失函數(shù)如式(3)所示:
(3)
本文在鑒別器中加入了的Dropout機(jī)制,防止網(wǎng)絡(luò)過(guò)擬合。
生成對(duì)抗網(wǎng)絡(luò)是用來(lái)生成實(shí)值連續(xù)數(shù)據(jù)的,不能直接生成離散的標(biāo)記序列。TS-GANMA模型通過(guò)損失梯度指導(dǎo)生成器參數(shù)進(jìn)行“輕微變化”,使得生成的實(shí)值連續(xù)數(shù)據(jù)具有離散的效果,與真實(shí)數(shù)據(jù)的相似度更高。如果生成的數(shù)據(jù)是基于離散標(biāo)記的,鑒別器的“輕微變化”指導(dǎo)就沒(méi)有意義。這是因?yàn)樵谟邢薜淖值淇臻g中可能沒(méi)有對(duì)應(yīng)的標(biāo)記表示這種“輕微變化”,不能使用損失函數(shù)直接更新生成網(wǎng)絡(luò)參數(shù)。因此,本文使用強(qiáng)化學(xué)習(xí)的方法,并使用獎(jiǎng)勵(lì)作為生成網(wǎng)絡(luò)損失函數(shù)來(lái)更新生成網(wǎng)絡(luò)。目標(biāo)函數(shù)定義如式(4)所示:
(4)
(5)
其中,F(·)表示獎(jiǎng)懲函數(shù),Z表示由鑒別器得到的分類(lèi)概率,W表示多頭注意力得分權(quán)重。
生成器的訓(xùn)練目的是最大化目標(biāo)函數(shù),使得鑒別器判別生成器生成的文本為真實(shí)文本。但是,鑒別器通常只能為一個(gè)完整的序列進(jìn)行鑒別。因此,在獎(jiǎng)懲函數(shù)計(jì)算中需要關(guān)注的是一個(gè)長(zhǎng)期的累積獎(jiǎng)勵(lì),在每個(gè)時(shí)間步驟上,應(yīng)用蒙特卡洛搜索抽樣未知的后續(xù)單詞。搜索過(guò)程如式(6)所示:
(6)
其中,x1:|T|表示搜索出的整個(gè)文本序列,cl表示當(dāng)前序列的長(zhǎng)度,N表示搜索的次數(shù)。
對(duì)于一個(gè)不完整的序列,本文選擇一個(gè)與生成器共享參數(shù)的網(wǎng)絡(luò)進(jìn)行采樣搜索;通過(guò)采樣補(bǔ)充序列的后續(xù)部分,形成一個(gè)完整的序列,然后通過(guò)鑒別器進(jìn)行鑒別得到分類(lèi)概率。當(dāng)前序列長(zhǎng)度為cl時(shí),鑒別器得到的分類(lèi)概率的計(jì)算方法如式(7)所示:
(7)
其中,|T|表示完整序列的長(zhǎng)度。
使用鑒別器估計(jì)的概率作為獎(jiǎng)懲模塊的一個(gè)基本獎(jiǎng)勵(lì)。通過(guò)鑒別器得到的一個(gè)基本獎(jiǎng)勵(lì)輸入到獎(jiǎng)勵(lì)函數(shù)中,并將多頭注意力的得分和序列分類(lèi)結(jié)果輸入到獎(jiǎng)勵(lì)函數(shù),得到最終的獎(jiǎng)勵(lì)。由于序列的長(zhǎng)度會(huì)使得注意力得分過(guò)大或過(guò)小,通過(guò)數(shù)學(xué)縮放的方法,可以在不改變數(shù)據(jù)之間大小關(guān)系的情況下縮放數(shù)據(jù)。因此,本文采用數(shù)學(xué)縮放方法對(duì)多頭注意力得分進(jìn)行縮放,得到的結(jié)果為多頭注意力得分權(quán)重W如式(8)所示:
(8)
其中,AS表示多頭注意力得分,down表示區(qū)間的大小,up表示區(qū)間的下限。
鑒別器得到的分類(lèi)概率Z和多頭注意力得分權(quán)重W傳入到獎(jiǎng)懲模塊,應(yīng)用獎(jiǎng)勵(lì)函數(shù)F(·)得到最終的獎(jiǎng)勵(lì),如式(9)所示:
(9)
其中,CR表示完整序列的分類(lèi)概率。
最后得到的獎(jiǎng)勵(lì)為最終獎(jiǎng)勵(lì),通過(guò)獎(jiǎng)勵(lì)對(duì)生成器反饋進(jìn)行參數(shù)更新。設(shè)置學(xué)習(xí)率為a,生成器的參數(shù)更新如式(10)所示:
θ←θ+a?θJ(θ)
(10)
目標(biāo)函數(shù)的J(θ)梯度可以導(dǎo)出式(11):
?J(θ)=
(11)
本文實(shí)驗(yàn)基于TensorFlow和Python進(jìn)行,使用NVIDIA?GeForce?GTXTM2070 GPU和CUDA10.0加快模型訓(xùn)練。詞向量的維度設(shè)置為32,生成器的隱藏單元數(shù)目設(shè)置為32,學(xué)習(xí)率設(shè)置為0.001。本文選擇Adam優(yōu)化器,Dropout設(shè)置為0.5。生成器的預(yù)訓(xùn)練使用最大似然的方法訓(xùn)練,訓(xùn)練輪次為80,鑒別器預(yù)訓(xùn)練輪次為80,對(duì)抗學(xué)習(xí)輪次為100。
本文使用Image COCO和EMNLP WAMT17文本數(shù)據(jù)集作為真實(shí)文本樣本。Image COCO是用于圖像字幕的文本數(shù)據(jù)集,本文去掉句子長(zhǎng)度小于10的樣本,然后隨機(jī)選取10 000個(gè)樣本作為訓(xùn)練數(shù)據(jù)。EMNLP WMT17是一個(gè)用于機(jī)器翻譯的文本數(shù)據(jù)集,本文選取其中的英語(yǔ)新聞數(shù)據(jù),去除長(zhǎng)度小于15的句子和低頻詞,并隨機(jī)選取10 000個(gè)樣本作為訓(xùn)練數(shù)據(jù)。
隱寫(xiě)術(shù)的目的是隱藏信息,以保證重要信息的安全。因此,嵌入容量是一個(gè)隱寫(xiě)系統(tǒng)的重要評(píng)估標(biāo)準(zhǔn)。嵌入容量用嵌入率來(lái)衡量,嵌入率定義為每個(gè)單詞可嵌入的秘密比特的平均數(shù)量,具體計(jì)算方法如式(12)所示:
(12)
其中,Num表示生成句子的數(shù)量,Kdi表示第di個(gè)句子嵌入的比特?cái)?shù),Ldi表示第di個(gè)句子的長(zhǎng)度。
為了測(cè)試TS-GANMA模型的對(duì)抗學(xué)習(xí)對(duì)生成文本質(zhì)量的提升效果,本文定義一個(gè)隨機(jī)初始化的LSTM網(wǎng)絡(luò)作為樣本生成器,模型訓(xùn)練的目的是使生成器生成的樣本盡可能接近樣本生成器生成的樣本。本文采用似然損失作為衡量它們相似性的指標(biāo),具體計(jì)算方法如式(13)所示:
NLLoracle=
(13)
其中,Goracle(·)表示樣本生成器,Gθ(·)表示目標(biāo)生成器。
BLUE評(píng)分作為評(píng)分標(biāo)準(zhǔn)來(lái)衡量生成文本和人工文本之間的相似程度[19]。BLUE分?jǐn)?shù)越高說(shuō)明生成文本與真實(shí)文本越相似。高階的n-gram用于衡量句子的流暢性,NN表示n-gram的階數(shù),通常取2~5,具體計(jì)算方法如式(14)所示:
(14)
其中,BP(Brevity Penalty)表示過(guò)短懲罰,句子越短,BP越接近0;Wdn表示權(quán)重;Pdn表示n-gram的精度。
為了保證隱寫(xiě)文本的隱蔽性,隱寫(xiě)文本分布與真實(shí)數(shù)據(jù)分布的統(tǒng)計(jì)差異要更小。本文使用自然語(yǔ)言處理中的句子質(zhì)量測(cè)試標(biāo)準(zhǔn)度量困惑度ppl(perplexity)作為評(píng)價(jià)指標(biāo),值越小表示生成的文本質(zhì)量越高,具體計(jì)算方法如式(15)所示:
(15)
其中,Num表示生成句子的數(shù)量,pci(x1,x2,…,xn)ci表示第ci個(gè)句子中的單詞概率。
為了驗(yàn)證TS-GANMA模型的有效性,本節(jié)從文本質(zhì)量、嵌入率等方面將其與主流隱寫(xiě)模型進(jìn)行比較。本文隨機(jī)初始化LSTM網(wǎng)絡(luò)為Oracle,作為真實(shí)模型。通過(guò)Oracle生成10 000個(gè)長(zhǎng)度為20的序列作為真實(shí)樣本,分別使用最大似然估計(jì)MLE訓(xùn)練生成器Gα和使用基于TS-GANMA的方法訓(xùn)練生成器Gβ,其中Gα和Gβ的網(wǎng)絡(luò)結(jié)構(gòu)完全相同,兩者學(xué)習(xí)曲線如圖3所示。
Figure 3 TS-GANMA and MLE training loss
圖3前80個(gè)輪次兩者都是使用最大似然估計(jì)的方法訓(xùn)練生成器,因此損失值很接近,穩(wěn)定在9.85左右。從第81個(gè)輪次開(kāi)始,TS-GANMA模型進(jìn)行100個(gè)輪次的對(duì)抗訓(xùn)練,損失值明顯減少,最終穩(wěn)定在9.30左右。而MLE的方法損失還是保持在9.85左右。說(shuō)明TS-GANMA模型能生成更符合Oracle樣本概率空間的序列,提高了生成文本的質(zhì)量。
本文還在真實(shí)數(shù)據(jù)上測(cè)試TS-GANMA模型的性能,對(duì)比TS-GANMA模型與SeqGAN (Sequence Generative Adversarial Nets)模型[20]在Image COCO文本數(shù)據(jù)集上的BLUE分?jǐn)?shù),結(jié)果如表1所示。
Table 1 Comparison of BLUE fractions of different models
根據(jù)表1得知,TS-GANMA模型的BLUE2~BLUE5分?jǐn)?shù)優(yōu)于SeqGAN模型的。高階BLUE分?jǐn)?shù)能體現(xiàn)整個(gè)文本的質(zhì)量,TS-GANMA模型的BLUE4分?jǐn)?shù)和BLUE5分?jǐn)?shù)相較于SeqGAN分別提高了0.06和0.05,表明本文模型能夠提升生成文本的質(zhì)量。TS-GANMA模型通過(guò)多頭注意力提取了更豐富的文本特征,并且將多頭注意力得分參與獎(jiǎng)勵(lì)的計(jì)算,得到更利于生成器的反饋信息,優(yōu)化文本生成器。因此,TS-GANMA模型生成的句子質(zhì)量更高,更接近真實(shí)文本。
將本文提出的隱寫(xiě)術(shù)TS-GANMA與主流隱寫(xiě)術(shù)進(jìn)行對(duì)比,包括LSTM-block[12]、LSTM-vlc[11]和ADG(Adaptive Dynamic Grouping)[21]。本文模型主要通過(guò)在生成文本的過(guò)程中對(duì)每個(gè)詞的條件概率分布進(jìn)行編碼來(lái)實(shí)現(xiàn)信息隱藏。本文采用一種非定長(zhǎng)編碼[7],首先對(duì)生成的候選詞的條件概率進(jìn)行非定長(zhǎng)編碼;然后根據(jù)秘密信息的二進(jìn)制序列選擇對(duì)應(yīng)的編碼候選詞,生成隱寫(xiě)文本?;诿總€(gè)文本數(shù)據(jù)集分別訓(xùn)練生成器,使用每個(gè)生成器生成500個(gè)句子,通過(guò)隨機(jī)生成的0、1比特流指導(dǎo)生成不同嵌入率的隱寫(xiě)文本。不同隱寫(xiě)模型獲得的困惑度的均值和標(biāo)準(zhǔn)差如表2所示。在表2的ppl列中,當(dāng)ER=1.82時(shí),TS-GANMA隱寫(xiě)術(shù)在數(shù)據(jù)集Image COCO上的均值和標(biāo)準(zhǔn)差分別為15.15和15.15±2.43。
Table 2 Mean and standard deviation of confusion degree of different steganographic models
由表2可知,對(duì)于每個(gè)文本數(shù)據(jù)集,隨著嵌入率ER的增加,困惑度均值逐漸增加,文本質(zhì)量降低。因?yàn)榍度氲谋忍財(cái)?shù)增加會(huì)使得候選詞增加,影響詞的選擇,導(dǎo)致生成的詞不連貫。從實(shí)驗(yàn)結(jié)果可知,在不同嵌入率下,TS-GANMA隱寫(xiě)術(shù)的困惑度相比其它隱寫(xiě)術(shù)的困惑度都低。在相同嵌入率,對(duì)比基于LSTM的經(jīng)典隱寫(xiě)術(shù)LSTM-block和LSTM-vlc,TS-GANMA的困惑度分別下降50%~60%和7%~10%;對(duì)比ADG,TS-GANMA的困惑度下降了20%左右。從表2可以發(fā)現(xiàn),LSTM-block隱寫(xiě)術(shù)的困惑度較高,這主要是因?yàn)樵摲椒[寫(xiě)生成的文本不連貫。TS-GANMA隱寫(xiě)術(shù)雖然與LSTM-vlc隱寫(xiě)術(shù)采用了相同的編碼方法,但是TS-GANMA相比LSTM-vlc更進(jìn)一步降低了隱寫(xiě)文本的困惑度,這是因?yàn)門(mén)S-GANMA利用生成對(duì)抗網(wǎng)絡(luò)有效地解決了暴露偏差的問(wèn)題。此外,TS-GANMA隱寫(xiě)術(shù)利用多頭注意力得分參與獎(jiǎng)勵(lì)計(jì)算,優(yōu)化了文本生成模型,使得生成的文本分布更接近真實(shí)的文本分布,從而進(jìn)一步提升了隱寫(xiě)文本的質(zhì)量。
本文提出了一種基于生成對(duì)抗網(wǎng)絡(luò)與多頭注意力的文本隱寫(xiě)模型,該模型能夠自動(dòng)生成高質(zhì)量的隱寫(xiě)文本。在對(duì)抗訓(xùn)練過(guò)程中,將鑒別器得到的獎(jiǎng)勵(lì)信息反饋給生成器,引導(dǎo)生成器生成與真實(shí)文本一致的文本,能夠解決文本隱寫(xiě)過(guò)程中暴露偏差的問(wèn)題。同時(shí),本文將多頭注意力得分參與獎(jiǎng)勵(lì)計(jì)算,得到的文本生成模型能夠生成高質(zhì)量的隱寫(xiě)文本。實(shí)驗(yàn)表明,TS-GANMA模型可以進(jìn)一步減少在最大似然估計(jì)訓(xùn)練下已經(jīng)收斂的生成器的損失,優(yōu)化文本生成模型。通過(guò)對(duì)比主流隱寫(xiě)模型生成的句子的困惑度,驗(yàn)證了在不同隱寫(xiě)嵌入率下生成隱寫(xiě)文本時(shí),TS-GANMA模型生成的隱寫(xiě)文本更擬合真實(shí)文本的分布,可以保證隱寫(xiě)任務(wù)的隱蔽性和安全性。