楊忠鵬,李啟南
(蘭州交通大學(xué) 電子與信息工程學(xué)院,蘭州 730070)
在信息安全隱藏領(lǐng)域中,隱寫技術(shù)作為提高通信過程中安全性的最主要方式,已成為了近年來在網(wǎng)絡(luò)安全領(lǐng)域的熱點(diǎn)研發(fā)方向之一.傳統(tǒng)的自適應(yīng)隱寫術(shù)算法可以使嵌入信息對(duì)載體圖像中的統(tǒng)計(jì)性特征所產(chǎn)生的失真盡可能的較小,但也無法減少在人為設(shè)計(jì)隱寫術(shù)算法時(shí)嵌入信息對(duì)載體圖像產(chǎn)生的改動(dòng)痕跡,所以在隱寫術(shù)計(jì)算仍未可知的情形下,隱寫技術(shù)分析可以通過反復(fù)檢查,測(cè)試隱寫圖像中是否存在著秘密信號(hào).在這樣的過程中,隱寫技術(shù)和隱寫分析技術(shù)的相互競(jìng)爭(zhēng)、互補(bǔ),直接驅(qū)動(dòng)了信息隱藏技術(shù)的發(fā)展.
隨著計(jì)算機(jī)硬件的進(jìn)步,計(jì)算機(jī)性能逐年提高,而基于計(jì)算機(jī)性能的深度學(xué)習(xí)近年來也得到了迅速發(fā)展,出現(xiàn)了各式各樣的深度學(xué)習(xí)模型,如卷積神經(jīng)網(wǎng)絡(luò)、生成對(duì)抗網(wǎng)絡(luò)等各種神經(jīng)網(wǎng)絡(luò)模型,并在很多領(lǐng)域進(jìn)行應(yīng)用,諸如計(jì)算機(jī)視覺、機(jī)器翻譯、數(shù)據(jù)挖掘等領(lǐng)域都取得了很多成果,解決了很多傳統(tǒng)方法無法處理的問題.因此,研究者們將信息隱寫理論與深度學(xué)習(xí)相關(guān)技術(shù)結(jié)合起來,使得信息隱寫相關(guān)理論技術(shù)更為快速地發(fā)展,其中與生成對(duì)抗網(wǎng)絡(luò)的結(jié)合尤為密切,其生成對(duì)抗的特點(diǎn)與信息隱寫和隱寫分析的對(duì)立思想十分相似,這為兩者的結(jié)合提供了思路[1].
文獻(xiàn)[2]首次提出了SGAN(steganographic generative adversarial networks)模型,將GAN(generative adversarial networks)應(yīng)用于圖像隱寫,通過輸入隨機(jī)噪聲,生成盡可能真實(shí)的載體圖像,嵌入方法使用傳統(tǒng)的1算法實(shí)現(xiàn),最后對(duì)載密圖像進(jìn)行隱寫分析.文獻(xiàn)[3]提出的隱寫生成對(duì)抗網(wǎng)絡(luò)(steganography generative adversarial network,SteGAN)將編碼-解碼網(wǎng)絡(luò)應(yīng)用到隱寫領(lǐng)域,編碼器負(fù)責(zé)嵌入信息,解碼器則提取嵌入的信息,并判斷提取信息的準(zhǔn)確性,隱寫分析器則對(duì)載密圖像的安全性做出評(píng)估,但生成圖像使用DCGAN,使得載密圖像生成質(zhì)量較差.文獻(xiàn)[4]提出使用無載體的隱寫方法來嵌入秘密信息,通過建立一種嵌入信息與圖像類別標(biāo)簽之間的映射關(guān)系,將載體圖像與類別標(biāo)簽融合,由ACGAN(auxiliary classifier GAN)中的生成器生成載密圖像,而重構(gòu)秘密信息通過提取載密圖像中的類別標(biāo)簽來完成,但該方法因其類別標(biāo)簽數(shù)量較少,導(dǎo)致模型的隱寫容量較低.文獻(xiàn)[5]通過將秘密信息映射成噪聲向量,從DCGAN(deep convolution generative adversarial networks)生成的載密圖像中提取輸入噪聲,從而恢復(fù)秘密消息,但模型訓(xùn)練消耗時(shí)間與成本大幅增加.文獻(xiàn)[6]在SGAN基礎(chǔ)上,用WGAN(wasserstein GAN)將DCGAN 替換,相較于原始的SGAN,生成的載體圖像質(zhì)量更好,抗隱寫分析的能力增強(qiáng),但未對(duì)隱寫容量做出提高.文獻(xiàn)[7]將灰度圖像隱藏在彩色圖像中,通過引入對(duì)抗模型和新的隱藏位置來提高隱蔽性和安全性,對(duì)隱寫信息做出了改變,有效地緩解了梯度消失問題.文獻(xiàn)[8]提出了可以抵抗噪聲等攻擊的隱寫模型HiDDeN(hiding data with deep networks),使用卷積網(wǎng)絡(luò)來構(gòu)造編碼-解碼結(jié)構(gòu),并且考慮到載密圖像在通信傳輸過程中的安全性問題,在編碼-解碼結(jié)構(gòu)中加入噪聲層進(jìn)行噪聲訓(xùn)練,以抵抗噪聲攻擊,但是,將秘密信息轉(zhuǎn)換成數(shù)據(jù)時(shí)存在維數(shù)過大的問題,從而導(dǎo)致隱寫容量最高只能達(dá)到0.2位/像素左右.
為解決SteGAN訓(xùn)練時(shí)圖像特征信息丟失,生成的載密圖像質(zhì)量較差的問題,本文提出基于改進(jìn)SteGAN的圖像隱寫模型(improved steganography generation adversarial network,ISteGAN),該模型使用密集連接改變SteGAN網(wǎng)絡(luò)內(nèi)的連接方式,加強(qiáng)特征的傳遞,引入注意力機(jī)制來獲取圖像深層特征,并在判別器中引入譜歸一化的方法,以此提高模型訓(xùn)練的穩(wěn)定性,使得生成的載密圖像更加接近載體圖像.
圖1為SteGAN模型圖,SteGAN是一個(gè)由生成器(Alice)、判別器(Bob)和隱寫分析(Eve)組成的三方對(duì)抗模型.生成器Alice通過融合載體圖像與隨機(jī)二進(jìn)制序列的秘密消息,生成載密圖像,并傳遞給判別器Bob,使其從載密圖像中提取出秘密信息;而Eve則作為隱寫分析器進(jìn)行竊聽,并判斷接收到的圖像中是否有秘密消息的存在,從而評(píng)價(jià)隱寫安全性.
圖1 SteGAN模型圖Fig.1 SteGAN model diagram
在不斷的對(duì)抗學(xué)習(xí)中,Alice學(xué)會(huì)了在任意的載體圖像中隱藏秘密信息,Bob通過解析Alice的載密圖像使隱寫算法更加成熟,所以它可以準(zhǔn)確地恢復(fù)信息;而Eve不斷的優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu),更容易判斷兩種類型的圖像是載體圖像還是隱寫圖像,通過對(duì)抗博弈反作用于Alice和bob,使其學(xué)習(xí)能力不斷提高,在雙方之間達(dá)一個(gè)納什均衡[9].
SteGAN的信息嵌入過程在訓(xùn)練生成器網(wǎng)絡(luò)時(shí)完成,秘密信息的提取過程在訓(xùn)練判別器網(wǎng)絡(luò)時(shí)實(shí)現(xiàn),它們各自的損失函數(shù)可寫為:
隱寫分析器在模型中起著鑒別分類的作用,它接收載體圖像和載密圖像作為輸入,并從這兩種類型的圖像中判斷該圖像是載體圖像還是載密圖像.
密集連接網(wǎng)絡(luò)DenseNet(densely connected convolutional networks)的出現(xiàn),加強(qiáng)了網(wǎng)絡(luò)中特征的流動(dòng),從而緩解網(wǎng)絡(luò)中梯度消失和網(wǎng)絡(luò)退化的問題.DenseNet并不是復(fù)雜的公式和模型,它只是簡(jiǎn)單的與CNN(convolutional neural networks)連接方式有所不同.CNN采用的是一對(duì)一的連接方式,網(wǎng)絡(luò)中某層的輸入是前一層網(wǎng)絡(luò)的輸出;密集連接則是將之前網(wǎng)絡(luò)層輸出的特征圖通過在通道上的連接操作,連接在一起作為該層的輸入,再進(jìn)行網(wǎng)絡(luò)中的操作.密集連接塊將每層網(wǎng)絡(luò)提取到的不同程度的特征緊密的連接在一起,使得數(shù)據(jù)的特征完整的保留下來,使模型學(xué)習(xí)到更豐富的數(shù)據(jù)特征[10].密集連接過程如圖2所示,其中:BN(batch normalization)代表批量歸一化層;ReLU(rectified linear unit,ReLU)為激活函數(shù);Conv2D代表卷積層.
圖2 密集連接塊Fig.2 Dense connection module
基于GAN的深度學(xué)習(xí)模型訓(xùn)練較為困難,主要體現(xiàn)在:1)模式坍塌,即最后生成的對(duì)象僅有少數(shù)幾個(gè)模式;2)不收斂,即在訓(xùn)練過程中,判別器較早就進(jìn)入了收斂狀態(tài),能很容易地分辨出真假,所以無法使生成器網(wǎng)絡(luò)梯度更新而導(dǎo)致訓(xùn)練無法進(jìn)行.譜歸一化技術(shù)在不破壞矩陣結(jié)構(gòu)的情況下,只需讓每層網(wǎng)絡(luò)的網(wǎng)絡(luò)參數(shù)除以該層參數(shù)矩陣的譜范數(shù)即可滿足Lipschitz的約束[11].
為了穩(wěn)定判別網(wǎng)絡(luò)的訓(xùn)練,使其映射函數(shù)滿足Lipschitz的約束,引入譜歸一化技術(shù),通常使用SN(spectral normalization)代表譜歸一化,它在計(jì)算上既輕便又有效.如式(5)所示,W表示神經(jīng)網(wǎng)絡(luò)的權(quán)值,σ(W)是權(quán)矩陣W 的譜范數(shù),用它規(guī)范判別器網(wǎng)絡(luò)的每一層,它等于W 的最大奇異值.
為了提升模型對(duì)載體圖像與秘密信息的關(guān)注能力,在網(wǎng)絡(luò)結(jié)構(gòu)中結(jié)合卷積注意力模塊[11],即通道注意力模塊和空間注意力模塊以串聯(lián)的方式組合,使其特征傳遞的過程中,加強(qiáng)對(duì)圖像樣本紋理細(xì)節(jié)的處理能力.
如圖3所示的通道注意力模塊,在圖像特征到達(dá)后,通過全局兩個(gè)不同的池化操作,分別為最大池化和平均池化對(duì)輸入的特征進(jìn)行壓縮,此時(shí)壓縮的特征屬于空間維度上的特征,通過該操作得到兩個(gè)不同的描述符;接著經(jīng)過共享的兩層全連接層的處理,將兩個(gè)輸出值進(jìn)行疊加,經(jīng)過激活函數(shù)處理就得0~1之間的權(quán)重系數(shù);將最初的輸入特征圖與權(quán)重系數(shù)逐元素相乘,完成通道注意力的操作.
圖3 通道注意力模塊Fig.3 Channel attention module
空間注意力模塊結(jié)構(gòu)如圖4所示.在圖4中,與通道注意力相似,依然使用全局兩個(gè)池化操作,不同之處在于此時(shí)壓縮通道維度上的特征,通過該操作將兩個(gè)不同的全局特征描述拼接在一起,同樣的使用卷積將拼接的描述符進(jìn)行處理,使用激活函數(shù)得到空間權(quán)重系數(shù);將初始輸入特征圖與空間權(quán)重系數(shù)相乘,得到新的特征圖,此時(shí)的特征圖含有空間注意力.
圖4 空間注意力模塊Fig.4 Spatial attention module
本文改進(jìn)的模型如圖5所示,使用密集連接來改變SteGAN網(wǎng)絡(luò)中生成器與判別器的連接方式,保護(hù)圖像信息固有特征的完整性;在網(wǎng)絡(luò)之間加入卷積注意力模塊來獲取圖像的深層次特征,減少特征的丟失[12];在判別器中引入譜歸一化的方法,以此提高模型訓(xùn)練的穩(wěn)定性.
圖5 ISteGAN模型圖Fig.5 ISteGAN model diagram
生成器Alice通過學(xué)習(xí)來獲取真實(shí)樣本的分布,使輸入載體圖像與秘密信息能夠通過微步卷積的方式生成真實(shí)樣本.Alice的網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示,Alice接受載體圖像與秘密信息作為輸入,將圖像與信息融合,先使用BN層對(duì)數(shù)據(jù)進(jìn)行歸一化處理,接著連續(xù)應(yīng)用五個(gè)具有相同網(wǎng)絡(luò)結(jié)構(gòu)層的組.每個(gè)組包含密集連接與卷積神經(jīng)網(wǎng)絡(luò)構(gòu)成的連續(xù)卷積層;每個(gè)卷積層后面都跟著一個(gè)LReLU(leaky-ReLU)激活函數(shù),通過結(jié)合密集連接的方式,加強(qiáng)特征傳遞,加速網(wǎng)絡(luò)訓(xùn)練,進(jìn)一步增強(qiáng)生成器對(duì)真實(shí)圖像深層次特征的提取能力;而卷積注意力模塊使得網(wǎng)絡(luò)獲取到真實(shí)圖像的復(fù)雜紋理區(qū)域特征,從而生成高質(zhì)量的載密圖像.
圖6 Alice網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.6 Alice′s network structure diagram
本文所使用圖像為3×H×W的載體圖像,Alice接受載體圖像與秘密信息后,通過第一層卷積將載體圖像與秘密信息融合,利用網(wǎng)絡(luò)第二層中的卷積注意力模塊提取復(fù)雜紋理區(qū)域特征,而引入密集連接可以保留前面網(wǎng)絡(luò)提取到的特征與后面提取到的特征相結(jié)合,這樣可以更有效利用圖像特征,得到3×H×W的隱寫圖像.生成器Alice的具體網(wǎng)絡(luò)結(jié)構(gòu)見表1.
表1 生成器Alice具體網(wǎng)絡(luò)結(jié)構(gòu)Tab.1 Generator concrete network structure
判別器Bob接受來自生成器Alice的載密圖像.圖7Bob網(wǎng)絡(luò)使用4個(gè)C2D-SN-LR(Conv2D-spectral normalization-leaky ReLU)卷積網(wǎng)絡(luò)組合與注意力機(jī)制提取圖像特征,并且通過構(gòu)造譜歸一化的卷積層,使得判別器參數(shù)更新更加穩(wěn)定,減緩了判別器的收斂速度,從而提升了網(wǎng)絡(luò)訓(xùn)練的穩(wěn)定性.Bob不斷學(xué)習(xí)優(yōu)化自己的神經(jīng)網(wǎng)絡(luò)[13],準(zhǔn)確的從載密圖像中解析出消息M′,通過與原始秘密信息M比較來判斷Bob的學(xué)習(xí)能力.
圖7 Bob網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.7 Bob′s network structure diagram
隱寫圖像通過Bob的多層卷積后獲得一個(gè)與秘密消息M相同大小的M′,同時(shí)判別器網(wǎng)絡(luò)采用與生成器網(wǎng)絡(luò)相同的結(jié)構(gòu),引入密集連接網(wǎng)絡(luò),保留圖像特征.判別器產(chǎn)生M′,試圖恢復(fù)秘密信息M.判別器Bob的具體網(wǎng)絡(luò)結(jié)構(gòu)見表2.
表2 判別器Bob具體網(wǎng)絡(luò)結(jié)構(gòu)Tab.2 Discriminator Bob concrete network structure
隱寫分析器Eve的網(wǎng)絡(luò)結(jié)構(gòu)如圖8所示,將載體圖像與載密圖像均輸入到該網(wǎng)絡(luò)結(jié)構(gòu)中,經(jīng)過每層的卷積操作(共四層),得到一個(gè)判斷該類圖像的概率值.因此隱寫分析網(wǎng)絡(luò)的最后一層是含有一個(gè)輸出通道的卷積層,其分類任務(wù)由Alice影響,不需要加入密集連接與注意力機(jī)制,這樣就降低了內(nèi)存的消耗.隱寫分析器Eve的具體網(wǎng)絡(luò)結(jié)構(gòu)見表3.
表3 隱寫分析器Eve具體網(wǎng)絡(luò)結(jié)構(gòu)Tab.3 Concrete network structure of the steganography analyzer Eve
圖8 Eve網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.8 Eve′s network structure diagram
信息的嵌入過程包含在生成器的訓(xùn)練中,生成模型由兩部分內(nèi)容組成:一部分是預(yù)處理,另一部分為編碼.預(yù)處理部分將嵌入的秘密信息進(jìn)行轉(zhuǎn)換,以便與載體圖像進(jìn)行融合.首先,將載體圖像與秘密信息融合后,利用卷積網(wǎng)絡(luò)第一層擴(kuò)充為三維張量,最后得到32×H×W的特征圖;其次,在嵌入過程中,將每一層的特征向量與預(yù)處理后的秘密信息進(jìn)行拼接,將新得到的張量輸入到下一層的多層編碼網(wǎng)絡(luò),實(shí)現(xiàn)載體圖像與秘密信息的融合.
提取模型是判別器模型對(duì)載密圖像中每個(gè)像素位中嵌入的秘密信息進(jìn)行提取,這個(gè)數(shù)據(jù)包含每個(gè)像素位中的所有數(shù)據(jù),并將數(shù)據(jù)進(jìn)行平均,得到重構(gòu)的秘密信息.判別網(wǎng)絡(luò)首先通過一個(gè)3×3卷積核的卷積層將載密圖像擴(kuò)充為通道數(shù)為32個(gè)的特征向量;通過預(yù)處理模塊對(duì)特征向量映射的數(shù)據(jù)進(jìn)行聚集,在空間維度上恢復(fù)嵌入數(shù)據(jù);最后通過模型的最后的平均池化層和線性層進(jìn)行映射,將恢復(fù)的數(shù)據(jù)轉(zhuǎn)換為嵌入的秘密信息.
運(yùn)行實(shí)驗(yàn)的設(shè)備為使用64 GB內(nèi)存的服務(wù)器,操作系統(tǒng)為NVIDIA Tesla T4 GPU和Ubuntu 16.04.本實(shí)驗(yàn)數(shù)據(jù)集采用公共數(shù)據(jù)集CelebA與Animals-10.CelebA數(shù)據(jù)集包含10 177個(gè)名人身份的202 599張圖像;Animals-10數(shù)據(jù)集包含10種動(dòng)物.本文優(yōu)化器采用Adam,學(xué)習(xí)率為0.000 2,批大小為32,迭代次數(shù)根據(jù)需求不同來設(shè)置.從四個(gè)方面分析載密圖像的性能:不可感知性、隱寫容量、解碼準(zhǔn)確率和隱寫安全性.
本文隱寫容量的計(jì)算公式如式(6)所示.
其中:Q為秘密信息(隨機(jī)信息)的位數(shù);N為圖像的像素值.
將Q位隨機(jī)消息與每個(gè)數(shù)據(jù)集的每個(gè)樣本連接起來,改變信息的大小Q,以測(cè)試可以有效隱藏在載體圖像中的信息量的極限.采用的數(shù)據(jù)集由32像素×32像素的圖像組成,當(dāng)將Q設(shè)置為100位到700位時(shí),相當(dāng)于隱寫容量大約在0.1位/像素到0.7位/像素之間.
ISteGAN與其他模型隱寫容量對(duì)比結(jié)果見表4.以95%的準(zhǔn)確率為閾值,ISteGAN最大容量可以達(dá)到0.6位/像素,其他隱寫模型最大容量為0.4位/像素,也就是說,ISteGAN模型嵌入容量相較于其他模型能夠提高50%.
表4 模型容量比較Tab.4 Model capacity comparison
不可感知性是隱寫術(shù)最基本和最直觀的指標(biāo),采用均方誤差(mean square error,MSE)反應(yīng)圖像變化的整體質(zhì)量,峰值信噪比(peak signal to noise ratio,PSNR)用來比較圖像的壓縮質(zhì)量,結(jié)構(gòu)相似性(structural similarity index,SSIM)顯示兩個(gè)圖像相似性的指標(biāo),結(jié)合這三種指標(biāo)來評(píng)估圖像質(zhì)量.MSE越低越好,而PSNR與SSIM越高越好[14],結(jié)果見表5.
表5 不同模型的圖像質(zhì)量評(píng)估Tab.5 Image quality assessment based on different models
為了便于與原模型進(jìn)行比較,使用與原模型相同的迭代次數(shù),均采用500次.從表5可以看出:橫向比較來看,ISteGAN模型在CelebA數(shù)據(jù)集上表現(xiàn)的更好,尤其是MSE指標(biāo),遠(yuǎn)小于在Animals-10數(shù)據(jù)集上的值;縱向比較來看,改進(jìn)模型的MSE均小于其他模型,ISteGAN模型的PSNR與SSIM均大于其他模型,特別是MSE指標(biāo),改進(jìn)的模型遠(yuǎn)低于其他模型,說明了改進(jìn)模型的有效性.
如圖9所示,隨機(jī)選取載體圖像,將其訓(xùn)練后生成載密圖像,嵌入容量分別為0.4位/像素、0.5位/像素、0.6位/像素和0.7位/像素.
觀察圖9可知:0.7位/像素嵌入容量的載密圖像出現(xiàn)明顯失真,已經(jīng)沒有使用價(jià)值;從0.4位/像素到0.6位/像素圖像不能通過人類的感知系統(tǒng)直接區(qū)分載體圖像和載密圖像,說明圖像質(zhì)量都具有很好的不可感知性,可以選擇0.6位/像素作為嵌入容量的閾值.
圖9 ISteGAN在不同嵌入容量下的載密圖像Fig.9 Dense load image of ISteGAN under different embedding rates
為了進(jìn)一步定量確定嵌入容量的閾值,對(duì)ISteGAN模型在不同的嵌入容量下進(jìn)行質(zhì)量評(píng)估,結(jié)果見表6.從表6可以看出:和定性分析一致,嵌入容量為0.7位/像素時(shí),圖像的各個(gè)指標(biāo)表現(xiàn)差,說明此時(shí)的載密圖像已經(jīng)沒有使用價(jià)值;當(dāng)嵌入容量為0.6位/像素時(shí),圖像的質(zhì)量有所降低,但載密圖像依然具有使用價(jià)值.因此ISteGAN模型圖像的容量在嵌入容量達(dá)到0.6位/像素時(shí)達(dá)到最大.
表6 ISteGAN模型圖像質(zhì)量評(píng)估Tab.6 Improved SteGAN model for image quality assessment
ISteGAN與SteGAN比較結(jié)果見圖10與表7,雙方的模型均在CelebA數(shù)據(jù)集上生成載密圖像.通過人類的感知系統(tǒng)來看,ISteGAN在嵌入隱寫信息更多的情況下與SteGAN生成的載密圖像沒有區(qū)別.
圖10 在CelebA數(shù)據(jù)集生成的圖像Fig.10 The image generated in the CelebA dataset
進(jìn)一步通過數(shù)據(jù)對(duì)比來看(見表7),ISteGAN在高嵌入容量的情況下,不可感知性均優(yōu)于SteGAN,進(jìn)一步證明改進(jìn)模型的有效性.
表7 在CelebA數(shù)據(jù)集上圖像質(zhì)量評(píng)估Tab.7 Image quality assessment on CelebA dataset
從圖11與表8可以看出:在Animals-10數(shù)據(jù)集上,ISteGAN模型依然可以生成大容量的載密圖像,但是在不可感知性上效果略差于CelebA數(shù)據(jù)集,這是因?yàn)锳nimals-10數(shù)據(jù)集使用的均為全身動(dòng)物圖像,圖像特征分布過多,難以提取,而CelebA數(shù)據(jù)集均為人臉圖像,圖像特征更容易提取.
表8 在Animals-10數(shù)據(jù)集上圖像質(zhì)量評(píng)估Tab.8 Image quality assessment on Animals-10 dataset
圖11 在Animals-10數(shù)據(jù)集上生成的圖像Fig.11 Image generated in the Animals-10 dataset
圖像隱寫的最終目的就是為了安全準(zhǔn)確的傳輸信息,所以對(duì)于秘密信息接收方來說,信息的準(zhǔn)確率尤為重要,ISteGAN在不同的嵌入容量下,Bob解碼準(zhǔn)確率如圖12所示.
由圖12可知:隨著訓(xùn)練次數(shù)增加,Bob解碼準(zhǔn)確率能夠達(dá)到95%以上的準(zhǔn)確率閾值,滿足隱寫信息的要求,達(dá)到了提高嵌入容量的目標(biāo);而且嵌入容量由0.4位/像素增加到0.5位/像素.
圖12 不同Q值下Bob解碼成功率Fig.12 Success rate of Bob decoding under different Q values
在實(shí)際應(yīng)用中,應(yīng)根據(jù)不同應(yīng)用場(chǎng)景選擇不同的嵌入容量:在秘密通信應(yīng)用場(chǎng)景,應(yīng)選取嵌入容量為0.5位/像素的載密圖像,以降低嵌入容量換取秘密通信100%的安全性;而在圖像隱寫應(yīng)用場(chǎng)景,則可以選擇嵌入容量為0.6位/像素的載密圖像,通過提高嵌入容量來完成隱寫任務(wù).
傳統(tǒng)的自適應(yīng)隱寫算法大多通過人為經(jīng)驗(yàn)來設(shè)計(jì)最小嵌入失真代價(jià),去尋找載體圖像中最優(yōu)的嵌入位置,不僅需要花費(fèi)大量的時(shí)間精力,而且涉及到嵌入后的圖像失真及安全性問題,載體圖像中可選嵌入位置有限[15].現(xiàn)階段基于深度學(xué)習(xí)的圖像隱寫模型,將秘密信息嵌入到噪聲或紋理復(fù)雜區(qū)域,使得 隱寫圖像的隱蔽性更強(qiáng),隱寫分析更加困難.
為了驗(yàn)證SteGAN生成的隱寫圖像抗隱寫分析性能,本文使用一種開源的隱寫分析工具StegExpose.從CelebA,Animals-10兩個(gè)測(cè)試集中分別隨機(jī)選擇1 000張載體圖像,使用嵌入容量分別為0.4位/像素、0.5位/像素、0.6位/像素的載密圖像,檢測(cè)后的結(jié)果見表9.
從表9可以看出:使用StegExpose工具僅僅比隨機(jī)猜測(cè)出隱寫圖像略微有效,這表明ISteGAN模型在進(jìn)行隱寫安全檢測(cè)時(shí)可以成功達(dá)到檢測(cè)標(biāo)準(zhǔn),滿足信息隱寫算法的可行性,但是在最大的嵌入容量0.6位/像素下檢測(cè)率已超過60%,可見本文提出的網(wǎng)絡(luò)的抗隱寫分析能力仍然不足.
表9 StegExpose在不同嵌入容量下的檢測(cè)率Tab.9 Detection rates of StegExpose at different embedded capacities
本文利用密集連接來改變SteGAN網(wǎng)絡(luò)內(nèi)的連接方式,加強(qiáng)圖像特征傳遞,并使用卷積注意力模塊獲取圖像的深層次特征,保證載密圖像的質(zhì)量,并在判別器中引入譜歸一化方法來緩解SteGAN訓(xùn)練的不穩(wěn)定性.將原始模型與改進(jìn)模型進(jìn)行比較,仿真實(shí)驗(yàn)結(jié)果表明:在保證傳輸信息準(zhǔn)確性的情況下,載密圖像的不可感知性和隱寫容量均有所提升,隱寫容量從0.4位/像素提高到0.6位/像素,并能有效地抵抗隱寫分析器的檢測(cè);然而,ISteGAN在嵌入容量為0.6位/像素時(shí),解碼成功率僅達(dá)到95%,還需要進(jìn)一步改進(jìn),并且隨著圖像隱寫容量提高,圖像的不可感知性與抗隱寫分析性能并沒有提高很多.在今后的工作中,將進(jìn)一步研究對(duì)于載密圖像不可感知性以及抗隱寫分析性能的提高.