曹寅 潘子宇
摘? 要:信息作為互聯(lián)網(wǎng)絡的基礎,信息安全是其中的重要環(huán)節(jié)。隱寫技術將信息隱藏在圖片中,相比其他技術具有更高的隱蔽性和安全性。文章提出了一種具有抗隱寫分析、高隱寫容量的信息隱藏模型,其將神經(jīng)網(wǎng)絡與秘密信息耦合,編碼輸出隱寫圖像。在此基礎上又分別結合殘差網(wǎng)絡、密集連接網(wǎng)絡對編碼器進行優(yōu)化,設計出兩種具有更優(yōu)性能的模型。實驗結果表明,本文提出的改進模型比現(xiàn)有方法具有更高的相對載荷,同時能有效規(guī)避檢測。
關鍵詞:信息安全;信息隱藏;圖像隱寫;深度學習
中圖分類號:TP309? ? ? 文獻標識碼:A 文章編號:2096-4706(2020)16-0137-05
A Modified Information Hiding Model Based on
Generative Countermeasure Network
CAO Yin,PAN Ziyu
(School of Information and Communication Engineering,Nanjing Institute of Technology,Nanjing? 211167,China)
Abstract:Information as the basis of the internet,information security is an important part. Steganography can hide information in the image,which has higher concealment and security than other technologies. In this paper,an information hiding model with anti-steganalysis and high steganalysis capacity is proposed. The neural network is coupled with secret information to encode the steganographic image. On this basis,the encoder is optimized with residual network and dense connection network,and two models with better performance are designed. The experimental results show that the improved model has higher relative load than the existing methods,and can effectively avoid detection.
Keywords:information security;information hiding;image steganography;deep learning
0? 引? 言
21世紀以來,隨著計算機網(wǎng)絡和通信技術的蓬勃發(fā)展,整個網(wǎng)絡空間環(huán)境逐漸變得復雜多樣,網(wǎng)絡空間安全問題引起越來越多專家學者的關注。實際上,網(wǎng)絡空間安全的歸根結底就是信息的安全。作為互聯(lián)網(wǎng)絡的基礎,信息安全是網(wǎng)絡空間安全的重要一環(huán),所以信息應該得到更多網(wǎng)絡空間安全技術、管理人員的關注。在這樣的背景下,信息隱藏技術應運而生。
研究人員提出了可保持圖像的特定統(tǒng)計特征無變化的信息隱藏方法,但其安全性仍不盡人意。例如,LSB匹配方法規(guī)避了基于對稱性的統(tǒng)計特征異常和直方圖異常,但檢測者可根據(jù)直方圖頻域質心區(qū)域變化[1],基于模型的信息隱藏方法可以保持模型的原始分布[2],其本意是分布與理想模型相同以規(guī)避檢測,但卻適得其反過度相似反而會引起第三方懷疑[3]。
在理想情況下,隱寫載體被信息隱藏后在整個載體空間分布應和原始載體分布完全相同。學界普遍采用相對熵來評價信息隱藏方案的安全性[4]。然而,在信息隱藏方案中載體空間異常巨大,通常在將數(shù)據(jù)統(tǒng)計模型簡化后再對安全性進行討論,如將載體樣本數(shù)據(jù)理想化服從獨立同分布[5]或把載體數(shù)據(jù)映射到統(tǒng)計特征[6]。通過Fisher信息量[7]計算嵌入秘密信息的安全容量[8]并對其進行優(yōu)化[9]。然而,信息隱藏不可避免地會在一定程度上引起載體數(shù)據(jù)層面的變化,如選用其他基于統(tǒng)計特征的隱寫分析方案進行檢測,仍可檢測出隱寫信息的存在。
本文在深入研究基于深度學習的信息隱藏技術的基礎上首先提出了一種基于生成對抗網(wǎng)絡的信息隱藏模型,即高容量隱寫生成對抗網(wǎng)絡(High Capacity Steganography GAN,HCSGAN)模型。該模型相較于主流隱寫方案具有更優(yōu)的性能表現(xiàn),但其在訓練、測試中仍存在梯度消失、退化問題以及圖片隱寫處理耗時較長、質量較差等問題。然后具體介紹對HCSGAN模型的改進思路及所做的改進,詳細說明所采用的變體模型,展示模型架構并描述訓練過程。本文對HCSGAN架構的兩個變體進行了實驗,結果證明了本文提出的模型比現(xiàn)有方法具有更高的相對載荷,同時仍能有效規(guī)避檢測。
1? 模型及改進思路
1.1? HCSGAN模型
本文提出了HCSGAN模型,并將其應用于圖像隱寫。這是一種全新的基于深度學習最新成果的端到端圖像隱寫方案。我們還在對抗訓練框架下使用多損失函數(shù)以達到同時優(yōu)化編碼器、解碼器和指導網(wǎng)絡的目的。此方案能夠在多種自然場景下成功將二進制數(shù)據(jù)嵌入載體圖像中,并能在規(guī)避標準隱寫分析工具檢測的情況下達到目前最高水平的每個像素4比特的嵌入率。
1.2? 殘差網(wǎng)絡及密集網(wǎng)絡
殘差網(wǎng)絡(ResNet)的提出是深度學習領域的一場革命。在2015年的ILSVRC上,來自微軟團隊的4位學者提出了ResNet。
在深度神經(jīng)網(wǎng)絡中,單純增加網(wǎng)絡的深度會導致梯度消失或爆炸以及準確率退化等問題。而ResNet能較好的解決這些問題。通常,構造深層網(wǎng)絡采用通過對所增加的網(wǎng)絡進行恒等映射的方法。該方法的前提是加深后的網(wǎng)絡模型訓練誤差應低于其淺層模型,然而很少能出現(xiàn)滿足這一條件的情況。
微軟團隊提出的ResNet模型通過多層網(wǎng)絡將直接擬合復雜映射x→H(x)轉化為間接擬合簡單映射x→F(x)=H(x)-x。在這種情況下,模型學習F(x)=0相較于H(x)=0自然容易得多。當殘差F(x)足夠小時,轉化后的映射逼近恒等映射,即解決了準確率退化的問題,同時網(wǎng)絡深度增加,精度隨之提高。
部分連接前后層以優(yōu)化反向傳播,從而訓練深層網(wǎng)絡,這是ResNet模型的核心思想。DenseNet與之類似,但不同的是DenseNet通過建立全連接而非ResNet的部分連接。特征復用由特征相連接實現(xiàn),這是其另一特點?;谏鲜鎏攸c,DenseNet能夠實現(xiàn)更優(yōu)性能,同時所需的參數(shù)和計算成本更少。
無論是ResNet還是DenseNet,核心的思想都是連接,不加選擇地讓某些輸入進入之后的網(wǎng)絡層,以實現(xiàn)信息流的整合,避免了信息在層間傳遞的丟失和梯度消失的問題,同時還抑制了某些噪聲的產生。
2? 變體模型設計
2.1? 變體模型參數(shù)和符號
本文用C和S分別表示寬度和高度相同的RGB通道載體圖像和隱寫圖像,M∈{0,1}D×W×H代表被隱藏在載體圖像中的二進制信息。D代表最大信息深度,W表示寬度,H表示高度,實際信息深度是能可靠解碼的比特數(shù)(1-2p)D,其中p∈[0,1]是錯誤概率。
載體圖像C是從所有自然圖像?C的概率分布中采樣得到的。隱寫圖像S由一個完成學習的編碼器ε(C,M)生成的,其中M為隱寫到載體圖像中的秘密信息。最終獲取的秘密信息的估計值? 是由一個完成學習的解碼器ζ(S)提取得到的。優(yōu)化的任務是通過一個給定的混合信息分布,來訓練編碼器ε和解碼器ζ以使解碼錯誤率p和自然圖像與隱寫圖像間分布間的距離dis(?C,?S)最小化。因此,為了優(yōu)化編碼器和解碼器,我們也需要訓練一個評估網(wǎng)絡C(·)來估計dis(?C,?S)。令參數(shù)X∈?D×W×H以及Y∈?D′×W×H是兩個寬度和高度相同的感知器,但深度可能是D和D′兩個不相同值,然后Cat:(X,Y)→Φ∈?(D+D′)×W×H是沿深度軸方向的兩個張量的級聯(lián)。令ConvD→D′:X∈?D×W×H→Φ∈ ?D′×W×H是將輸入?yún)?shù)X映射到寬度和高度、深度可能不同的特征圖Φ的卷積塊。這個卷積塊包含了一個內核大小為3、步幅為1、填充為“相同”的卷積層,其后是一個leaky ReLU激活函數(shù)以及批標準化。如果卷積塊是網(wǎng)絡中的最后一個塊,則激活函數(shù)和批標準化操作可省略。
令Mean:X∈?D×W×H→?D代表表示自適應平均空間池化操作,該操作計算張量X的每個特征圖中的W×H的平均值。
2.2? 變體模型體系結構
本節(jié)節(jié)展示了一種生成對抗網(wǎng)絡HCSGAN模型用以在載體圖像中隱藏任意位向量。改進的神經(jīng)網(wǎng)絡結構如圖1所示,包括三個模塊:
(1)一個編碼器(Encoder),用于獲取載體圖像(Image)和數(shù)據(jù)信息(Data)并生成隱寫圖像;
(2)一個解碼器(Decoder),用于獲取隱寫圖像并嘗試恢復數(shù)據(jù)信息;
(3)一個判別網(wǎng)絡(Critic),用以評估載體圖像和隱寫圖像的質量,得出評分(Score)。
卷積運算在圖1中以梯形圖標表示。
2.2.1? 編碼器
編碼器網(wǎng)絡含有一張載體圖像和需要加載到載體圖像中的秘密信息M∈{0,1}D×W×H。因此,M是一個形狀為D×W×H的二進制數(shù)據(jù)張量,其中D是我們試圖隱藏在載體圖片每個像素中的比特數(shù),即信息深度。
我們嘗試了兩種具有不同連接模式的編碼器體系結構的變體模型。三種變體模型都采用以下操作開始:
(1)使用卷積塊處理載體圖像C以獲得張量a:
a=Conv3→32(C)
(2)將秘密信息M連接到張量a,然后用卷積塊處理結果以獲得張量b:
b=Conv32+D→32(Cat(a,M))
基礎模型(HCSGAN):我們依次將兩個卷積塊應用于張量b并生成隱寫圖像,基礎模型編碼器εb如圖2所示。
其可以表示為:
εb(C,M)=Conv32+D→21(Cat(a,M))
這個方法類似于Baluja方案[1],隱寫圖像只是最后一個卷積塊的輸出。
殘差變體模型(HCSGAN-ResNet):殘差網(wǎng)絡的使用已被證明可以改善模型的穩(wěn)定性和收斂性[2],因此我們嘗試使用殘差網(wǎng)絡來提高隱寫圖像的質量。為此,我們通過將載體圖像C添加到其輸出中來修改基本模型的編碼器,以使編碼器學習生成如圖3所示的殘差圖像。
殘差變體模型編碼器εr可以表示為:
εr(C,M)=C+εb(C,M)
密集變體模型(HCSGAN-DenseNet):在密集模型變體
中,我們嘗試在卷積塊之間引入了其他連接,以便將較早的塊生成的特征圖連接到由較后的塊生成的特征圖,如圖4所示。
這種連接模式受到DenseNet網(wǎng)絡的啟發(fā),該網(wǎng)絡已被證明可以優(yōu)化功能復用和緩解消失的梯度問題[3]。因此,我們嘗試使用密集連接將提高嵌入率。它可以表示為:
最后,各種變體模型的輸出是一個與載體圖像C分辨率、和深度相同的隱寫圖像S=ε{b,r,d}(C,M)。
2.2.2? 解碼器
解碼器接收由編碼器產生的隱寫圖像S。它可以表示為:
解碼器生成輸出秘密信息的估計值 =ζ(S),換言之,它試圖恢復秘密信息M。
2.2.3? 判別網(wǎng)絡
為了提供有關編碼器性能的反饋并生成更逼真的圖像,我們引入了對抗性判別網(wǎng)絡。判別網(wǎng)絡由三個卷積塊組成,后接一個具有一個輸出通道的卷積層。為了生成標量分數(shù),我們將自適應均值池應用于卷積層的輸出。它可以表示為:
3? 訓練過程
我們采用迭代的方法優(yōu)化編-解碼器網(wǎng)絡和判別網(wǎng)絡。為了優(yōu)化編-解碼器網(wǎng)絡,我們聯(lián)合優(yōu)化三個損失:
(1)使用交叉熵損失的解碼精度?d:
min?d=CrossEntropy(ζ(ε(X,M)),M)
(2)均方誤差下隱寫圖像與載體圖像的相似度?S:
min?S=
(3)判別網(wǎng)絡隱寫圖像的真實性?r:
min?r=C(ε(X,M))
為了訓練判別網(wǎng)絡,要使Wasserstein損失?C最小化:
min?C=C(X)-C(ε(C,M))
上述公式中,表示數(shù)學期望。
在每次迭代中,將每一個載體圖像C與數(shù)據(jù)張量M進行匹配,其中數(shù)據(jù)張量M是由伯努利分布M~Ber(0.5)采樣隨機生成的形狀為D×W×H比特序列。除此以外,在預處理流程中,對于載體圖像C,應用了包括水平翻轉和隨機裁剪在內的標準數(shù)據(jù)增強程序進行優(yōu)化。本文使用了學習率為le-4的Adam優(yōu)化器,剪裁梯度均方為0.25,剪裁判別系數(shù)為[-0.1,0.1],訓練32輪。
4? 性能評估及分析
4.1? 數(shù)據(jù)集測試
本文使用Div2k和COCO數(shù)據(jù)集對模型進行訓練和測試。實驗對象為第3節(jié)所述的三種模型變體,對其以六種不同深度D進行訓練。數(shù)據(jù)深度D代表每像素的目標比特數(shù),則隨機生成的數(shù)據(jù)張量尺寸為D×W×H。
實驗中,使用了Div2K和COCO數(shù)據(jù)集的創(chuàng)建者提議的默認訓練/測試拆分方法,并且在表1中展示了該測試集的平均準確率、RS-BPP、峰值信噪比和結構相似性指數(shù)。準確率表示恢復出正確隱藏信息的概率;RS-BPP表示Reed-Solomon每像素比特數(shù),體現(xiàn)了載體圖像的相對荷載;峰值信噪比用于測量圖像質量;結構相似性指數(shù)衡量載體圖像和隱寫圖像之間的結構相似度,相似度越高則表明秘密信息越不容易被發(fā)現(xiàn)。本文提出的的模型在GeForce GTX 1080的GPU上進行了訓練。對于Div2K,每輪訓練時間約為10分鐘;對于COCO,則為2小時。
訓練結束模型后,在保留的測試集上計算期望的準確率,并使用前文討論的Reed-Solomon編碼方案對其進行調整,以產生上文所述的每像素位指標,Div2K和COCO數(shù)據(jù)集測試結果分別如表1和表2所示。
在表1和表2中,每個指標都是根據(jù)訓練過程中未對模型顯示的保留圖像測試集計算得出的。需要注意的是,相對載荷和圖像質量之間不可避免地存在權衡取舍;假設我們已經(jīng)在Pareto邊界上,那么相對載荷的增加將導致相似度下降。可以觀察到,模型的所有變體在COCO數(shù)據(jù)集上的表現(xiàn)都優(yōu)于Div2K數(shù)據(jù)集。此現(xiàn)象可以歸因于兩個數(shù)據(jù)集內容類型的差異。Div2K數(shù)據(jù)集中的圖像傾向于開闊的風景,而COCO數(shù)據(jù)集中的圖像傾向于更加雜亂且包含多個對象,這種特性為本文所述的模型提供了更多的表面和紋理,從而可以成功地嵌入數(shù)據(jù)。
此外,還可以發(fā)現(xiàn),密集變體模型在相對載荷和圖像質量上均表現(xiàn)出最佳性能,殘差變體模型排在第二位,其顯示出可較好的圖像質量,但相對載荷較低。基本模型在所有指標上的表現(xiàn)都最差,相對荷載和圖像質量得分比密集模型低15%~25%。
最后,盡管本文提出的基于深度學習的信息隱藏方案的相對載荷較其他方案有所增加,但圖像相似性(根據(jù)載體圖像和隱寫圖像之間的平均峰值信噪比測得)仍與文獻[4]中所述方法的結果相當。
5? 結? 論
本文提出了一種高容量隱寫生成對抗網(wǎng)絡HCSGAN模型以及兩種基于HCSGAN的變體HCSGAN-ResNet和HCSGAN- DenseNet。本文對HCSGAN架構的兩個變體進行了實驗,并證明了本文提出的的模型比現(xiàn)有方法具有更高的相對載荷,同時仍能有效規(guī)避檢測。
參考文獻:
[1] XIA Z H,WANG X H,SUN X M,et al. Steganalysis of LSB Matching Using Differences Between Nonadjacent Pixels [J].Multimedia Tools and Applications,2016,75(4):1947-1962.
[2] YANG C,LUO X,LIU F. Embedding Ratio Estimating for Each Bit Plane of Image [C]//Information Hiding,11th International Workshop,IH 2009.Heidelberg:Springer-Verlag Berlin Heidelberg,2009:59-72.
[3] QIAN Y L,DONG J,WANG W,et al. Deep Learning for Steganalysis Via Convolutional Neural Networks [C]//Media Watermarking,Security,and Forensics 2015.San Francisco:Society of Photo-Optical Instrumentation Engineers(SPIE),2015.https://www.spiedigitallibrary.org/conference-proceedings-of-spie/9409.toc#FrontMatterVolume9409.DOI:10.1117/12.2083479.
[4] KER A D. The Ultimate Steganalysis Benchmark? [C]// Proceedings of the 9th workshop on Multimedia & security. New York:Association for Computing Machinery,2007:141-148.
[5] SHIH F Y. Digital Watermarking and Steganography:Fundamentals and Techniques:Second edition [M].Boca Raton:CRC press,2017.
[6] KER A D. Estimating Steganographic Fisher Information in Real Images [C]// Information Hiding,11th International Workshop,IH 2009.Heidelberg:Springer-Verlag Berlin Heidelberg,2009:73-88.
[7] KER A D. Estimating the Information Theoretic Optimal Stego Noise [C]//Proceedings of The 8th Interntaional Workshop,IWDW 2009.Heidelberg:Springer-Verlag Berlin Heidelberg 2009:184-198.
[8] OU D H,SUN W. High Payload Image Steganography With Minimum Distortion based on Absolute Moment Block Truncation Coding [J].Multimedia Tools and Applications,2015,74(21):9117-9139.
[9] CHAKRABORTY S,JALAL A S,BHATNAGAR C. LSB based Non Blind Predictive Edge Adaptive Image Steganography [J].Multimedia Tools and Applications,2017,76(6):7973-7987.
作者簡介:曹寅(1997—),男,漢族,江蘇南京人,本科,研究方向:網(wǎng)絡空間安全;潘子宇(1984—),男,漢族,江蘇姜堰人,博士,副教授,研究方向:無線通信、5G安全技術等。