国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于圖像分類的無(wú)載體信息隱藏方法

2019-01-10 07:31吳建斌康子陽(yáng)劉逸雯雙奎吳建平
關(guān)鍵詞:圖像分類深度學(xué)習(xí)

吳建斌 康子陽(yáng) 劉逸雯 雙奎 吳建平

摘? ?要:為提高無(wú)載體信息隱藏的數(shù)據(jù)嵌入容量和通信效率,注意到半構(gòu)造式無(wú)載體信息隱藏算法所具有的優(yōu)勢(shì),在仔細(xì)分析幾種社交平臺(tái)的用戶行為習(xí)慣后,提出了一種以社交平臺(tái)的行為習(xí)慣為構(gòu)造原則的半構(gòu)造式無(wú)載體信息隱藏算法. 該算法的具體思想通過(guò)構(gòu)建小圖標(biāo)庫(kù)中的圖標(biāo)與秘密消息的一一映射關(guān)系,將小圖標(biāo)按照一定的原則拼接,完成秘密消息的圖像表達(dá),通過(guò)傳遞拼接好的圖片,實(shí)現(xiàn)秘密消息的傳遞. 為了提高小圖標(biāo)的識(shí)別率和整個(gè)隱蔽通信系統(tǒng)的抗干擾能力,算法還引入了卷積神經(jīng)網(wǎng)絡(luò)對(duì)圖標(biāo)庫(kù)中的圖標(biāo)進(jìn)行訓(xùn)練和分類,同時(shí)在訓(xùn)練時(shí)特意引入經(jīng)過(guò)多種攻擊方式處理過(guò)的小圖標(biāo)作為干擾樣本. 實(shí)驗(yàn)和仿真結(jié)果表明,該隱藏方法具備良好的抗攻擊能力,隱藏容量和通信效率得到了實(shí)質(zhì)性的提高,可用于實(shí)際的隱蔽通信系統(tǒng).

關(guān)鍵詞:深度學(xué)習(xí);圖像分類;社交習(xí)慣;隱寫;無(wú)載體信息隱藏

中圖分類號(hào):TP309.7? ? ? ? ? ? ? ? ? ? ? ? ?文獻(xiàn)標(biāo)志碼:A

Coverless Information Hiding Algorithm Based on Image Classification

WU Jianbin1,KANG Ziyang1?,LIU Yiwen1,GE Shuangkui2,WU Jianping3

(1. School of Physics and Technology,Central China Normal University,Wuhan 430079,China;

2. Beijing Institute of Electronic Technology Application,Beijing 100008,China;

3. Hubei Preschool Teachers College,Wuhan 430223,China)

Abstract:In order to improve the data embedding capacity and the communication efficiency of coverless information hiding algorithm, addressing the advantages of semi-structured coverless information hiding algorithm,this paper introduces a semi-structured coverless information hiding algorithm based on the behavioral habits of social platforms. The specific idea of the algorithm is to build a one-to-one mapping relationship between icons and secret messages in a small icon library. According to certain principles,some small icons are montaged a picture, the secret information can be expressed by the splicing picture, and the transmission of secret messages is realized by delivering the spliced pictures. In order to improve the recognition rate of small icons and the anti-interference ability of the whole hidden communication system, convolutional neural network is also introduced to train and classify the icons in the icon library, and the interference samples are introduced as training samples set. The experimental results show that the algorithm has good anti-attack ability and the hiding capacity can be improved, and therefore, the algorithm can be used in covert communication.

Key words:deep learning;image classification;behavioral habits;steganography;coverless information hiding

信息隱藏是將秘密信息隱藏于載體信號(hào)中,并在需要時(shí)將秘密信息提取出來(lái),以實(shí)現(xiàn)隱蔽通信和版權(quán)保護(hù)等目的[1].由于數(shù)字圖像冗余度大且使用廣泛,常被作為信息隱藏載體. 傳統(tǒng)的嵌入式信息隱藏方法是通過(guò)對(duì)載體數(shù)據(jù)的修改,將秘密消息嵌入載體中,這必然會(huì)導(dǎo)致含密載體與原始載體間存在一定的差異,難以抵抗隱寫分析檢測(cè)[2]. 為提高隱蔽通信的安全性,無(wú)載體信息隱藏[3]受到了廣泛關(guān)注.

“無(wú)載體”并不是指不需要載體,而是直接以秘密信息為驅(qū)動(dòng)來(lái)“生成”或者“獲取”含密載體. 從本質(zhì)上來(lái)說(shuō),基于圖像的無(wú)載體信息隱藏是一種圖像特征的編碼方法. 目前所見(jiàn)的無(wú)載體隱藏算法大多都存在數(shù)據(jù)嵌入容量不高的問(wèn)題,離實(shí)用化還存在一定的距離.

為解決上述問(wèn)題,本文提出了一種基于社交習(xí)慣的半構(gòu)造式無(wú)載體信息隱藏算法[4],其思路是通過(guò)挖掘人們的社交行為習(xí)慣,以社交行為習(xí)慣為構(gòu)造原則,設(shè)計(jì)不同的拼接模板,從圖標(biāo)庫(kù)中選取圖標(biāo),構(gòu)造出一幅具有實(shí)際意義的圖像并在社交平臺(tái)中傳輸,達(dá)到隱蔽傳輸秘密消息的目的. 其中,小圖標(biāo)庫(kù)是在利用深度學(xué)習(xí)的方法對(duì)小圖標(biāo)進(jìn)行訓(xùn)練、分類和識(shí)別的基礎(chǔ)上所建立起來(lái)的. 具體來(lái)講,是利用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional neural network,CNN)[5]提取圖像特征并輸入到該模型中進(jìn)行訓(xùn)練,根據(jù)圖像的高維特征對(duì)小圖標(biāo)進(jìn)行識(shí)別和分類,考慮到傳輸過(guò)程中的圖像可能會(huì)被攻擊者攻擊,用于訓(xùn)練的圖像數(shù)據(jù)集應(yīng)含有各種干擾樣本. 干擾樣本來(lái)之于特殊處理過(guò)的圖像數(shù)據(jù),包含有干擾樣本的訓(xùn)練集可以保證訓(xùn)練好的CNN網(wǎng)絡(luò)能夠在含密圖像遭受攻擊后也能對(duì)圖標(biāo)內(nèi)容進(jìn)行正確分類,確保算法的魯棒性.

1? ?利用AlexNet進(jìn)行遷移學(xué)習(xí)

1.1? ?深度卷積神經(jīng)網(wǎng)絡(luò) AlexNet 模型

卷積神經(jīng)網(wǎng)絡(luò)具有低網(wǎng)絡(luò)模型復(fù)雜度,可減少權(quán)值數(shù)目等優(yōu)點(diǎn),被廣泛用于深度學(xué)習(xí). 采用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行深度學(xué)習(xí),將圖像直接輸入網(wǎng)絡(luò),可以避免傳統(tǒng)算法中的數(shù)據(jù)重建和復(fù)雜的特征提取過(guò)程,能提高算法的運(yùn)行效率. Krizhevsky等[6]提出的卷積神經(jīng)網(wǎng)絡(luò)AlexNet在圖像分類和物體檢測(cè)方面的性能優(yōu)于傳統(tǒng)方法,雖然GoogleNet[7]和VGG[8]的性能相比AlexNet 網(wǎng)絡(luò)性能更好,但其網(wǎng)絡(luò)復(fù)雜,訓(xùn)練耗時(shí). 綜合考慮訓(xùn)練及識(shí)別效率等因素,本文選用AlexNet 網(wǎng)絡(luò)進(jìn)行圖像識(shí)別與分類,其網(wǎng)絡(luò)相對(duì)簡(jiǎn)單且易于訓(xùn)練,可通過(guò)修改神經(jīng)網(wǎng)絡(luò)中的某些參數(shù)提高網(wǎng)絡(luò)性能. 本文所采用的卷積神經(jīng)網(wǎng)絡(luò)AlexNet網(wǎng)絡(luò)層次結(jié)構(gòu)圖如圖 1所示.

不計(jì)輸入層,該模型共8大層,25小層結(jié)構(gòu),前5層是卷積層,接著3層為全連接層[5],全連接的結(jié)果通過(guò)Softmax分類器[9]產(chǎn)生1 000個(gè)分類輸出. 在前5層中,每一層都包含有卷積子層[5],縮寫為 Conv1 到 Conv5,每一個(gè)卷積操作后緊跟的是激活函數(shù)reLu處理. 采用reLu激活函數(shù)[10]的作用是使學(xué)習(xí)周期大大縮短,提高運(yùn)算速度和效率. Norm1和Norm2表示歸一化操作. 最后是池化操作,相比平均池化,該神經(jīng)網(wǎng)絡(luò)采用的最大池化(max pooling)[11]可以讓特征參數(shù)減少,使更多的紋理特征信息保留下來(lái). Dropout[6]操作是在兩個(gè)全連接層中,其作用是為了防止訓(xùn)練樣本較少的時(shí)候模型過(guò)擬合,最后通過(guò) Softmax 分類器產(chǎn)生多維分類輸出.

1.2? ?AlexNet結(jié)構(gòu)的修改

由于受時(shí)間和設(shè)備的計(jì)算能力所限,考慮到主要是做模型驗(yàn)證,因此本文在建立圖標(biāo)庫(kù)時(shí)只選擇了32種小圖標(biāo). 為獲得較好的分類性能,共享AlexNet的模型訓(xùn)練參數(shù),達(dá)到遷移學(xué)習(xí)的目的[12], 本文改造了部分網(wǎng)絡(luò)結(jié)構(gòu):首先凍結(jié)AlexNet的前7大層,即前23小層,去掉Layer8并在后面加上自己的網(wǎng)絡(luò)輸出層. 本文在新的Layer8中先加一層輸出為64的全連接層,然后接一層relu激活層精簡(jiǎn)特征參數(shù),再接一層全連接層(Fullconnection)并接上一層softmax分類器和一層分類輸出層(Output)共輸出32個(gè)類別,改造后的網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示.

2? ?信息隱藏算法

由于受時(shí)間和具體計(jì)算設(shè)備的計(jì)算能力所限,為兼顧隱藏容量、誤碼率、魯棒性以及拼接圖像內(nèi)容的合理性等要求,同時(shí),本文旨在驗(yàn)證算法的可行性,因此,圖標(biāo)庫(kù)只構(gòu)建了32種小圖標(biāo),每一個(gè)圖標(biāo)的類別標(biāo)簽對(duì)應(yīng)一段5 bit的二進(jìn)制序列.

2.1? ?題目規(guī)則的設(shè)計(jì)

為了避免被第三方懷疑,在社交網(wǎng)絡(luò)上傳播的含密載體應(yīng)當(dāng)符合人們的社交習(xí)慣. 為此,利用數(shù)據(jù)挖掘的方法,對(duì)社交平臺(tái)上的各種數(shù)據(jù)進(jìn)行挖掘并進(jìn)行數(shù)據(jù)分析以尋求使用較為廣泛的大眾行為習(xí)慣,按照這種行為習(xí)慣設(shè)計(jì)圖片的拼接原則和思考題的題目規(guī)則. 以將圖片處理成一些有趣味性的智力題目為例,目前設(shè)計(jì)了5種規(guī)則拼接生成含密載體圖像,如:“算價(jià)格”,“分類別”,“編故事”,“找最長(zhǎng)”和“找相同”.

2.2? ?隱藏算法

隱藏秘密信息的流程示意圖如圖3所示,其具體的實(shí)現(xiàn)步驟如下:

步驟 1? ?輸入一段秘密信息S(信息內(nèi)容可以是中文漢字,英文單詞,二進(jìn)制或者是十進(jìn)制數(shù),也可以選擇生成一段80 bit長(zhǎng)度的隨機(jī)二進(jìn)制序列,輸入類型K用2 bit二進(jìn)制數(shù)表示),將待隱藏的信息轉(zhuǎn)換為二進(jìn)制序列E,根據(jù)O的長(zhǎng)度判斷需要X張圖片將秘密隱藏完全表達(dá). 將X分為若干段,每段計(jì)算其長(zhǎng)度L作為標(biāo)志位一,每張圖像的順序序號(hào)N作為標(biāo)志位二,接著選擇相應(yīng)的輸入類型K作為標(biāo)志位三,這樣最多可構(gòu)成一個(gè)13 bit的二進(jìn)制序列作為標(biāo)志位.

步驟 2? ?將標(biāo)志位加在含密序列E的前端,得到最終的含密二進(jìn)制序列C. 對(duì)C進(jìn)行分段,每5位為一段,每一段根據(jù)二進(jìn)制序列與自建圖像庫(kù)中32種物體標(biāo)簽的映射關(guān)系進(jìn)行查詢,映射為相應(yīng)的類別標(biāo)簽并獲得相應(yīng)的物體圖像,按從左至右、從上往下的順序?qū)⑦@些子圖像拼接起來(lái).

步驟 3? ?拼接圖像的大小根據(jù)E的長(zhǎng)度L相應(yīng)有2×2、3×3、4×4、5×5、6×6共5種模板. 在每個(gè)模板能表達(dá)的位數(shù)區(qū)間內(nèi),不足區(qū)間上限的補(bǔ)隨機(jī)數(shù)至區(qū)間上限值.

步驟 4? ?對(duì)圖片內(nèi)容的題目描述類型目前設(shè)計(jì)了5種:“算價(jià)格”,“分類別”,“編故事”,“找最長(zhǎng)”和“找相同”,其中“找相同”只有拼接圖片為6×6形式的時(shí)候才可能出現(xiàn),因?yàn)閳D像數(shù)據(jù)庫(kù)中一共只有32種不同的類別,而6×6的拼接圖片中36張圖片必然有相同的類別. 可以自行指定4種題目類型之一,也可以設(shè)置為隨機(jī)選擇.

步驟 5? ?為了確認(rèn)發(fā)送的題目圖片是發(fā)送方發(fā)出的含密圖片,也為了防止被攻擊者篡改,主要是防止被攻擊者交換題目中各子圖位置甚至替換圖中的子圖,需要設(shè)計(jì)一種獨(dú)特的、不易被改變能檢測(cè)的水印. 本文采用的水印為一個(gè)根據(jù)題目圖片的各拼接子圖的信息熵和權(quán)值加權(quán)計(jì)算出的特征值.

E = Mn? ? ? ? ? ? (1)

式中:M為每一子圖的信息熵;m為小圖標(biāo)的個(gè)數(shù);n為小圖標(biāo)自上而下、由左向右的順序序號(hào).

Shannon提出的信息熵用于圖像領(lǐng)域可以表征圖像的紋理復(fù)雜度和灰度的密度分布特性.對(duì)一整幅256 級(jí)的灰度圖像而言,其信息熵為:

S(I) = -p(xj)log p(xj)? ? ? ? ? ? (2)

式中:p(xj)表示圖像I中灰度值為j的像素出現(xiàn)的概率.

步驟 6? ?將驟計(jì)5算出的特征值作為水印,采用基于DCT變換的算法[14]嵌入到題目規(guī)則引導(dǎo)圖像中,再將完成拼接的含密圖片與嵌入了特征水印的題目規(guī)則圖片拼接、合成為一張題目圖像,作為最終的含密圖像供發(fā)送方在社交網(wǎng)絡(luò)上進(jìn)行傳遞.

2.3? ?提取算法

提取秘密信息的流程示意圖如圖4所示,其具體的實(shí)現(xiàn)步驟如下:

步驟 1? ?對(duì)含密圖片的題目規(guī)則部分進(jìn)行截取并檢測(cè)特征水印是否存在,若存在則證明此圖是發(fā)送方發(fā)出的含密圖片,且未被攻擊者所攻擊,可以進(jìn)行接下來(lái)的提取步驟. 若不存在則說(shuō)明此圖不是發(fā)送方發(fā)出的圖片或含密圖片已經(jīng)遭受了某種攻擊被破壞,可以選擇不繼續(xù)進(jìn)行提取操作.

步驟 2? ?對(duì)檢測(cè)通過(guò)的每一張含密圖片的拼接部分的每一張子圖進(jìn)行預(yù)處理,處理后得到227×227大小的圖片按自上而下、由左向右的順序依次輸入到訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò)中進(jìn)行識(shí)別分類得到物體的類別標(biāo)簽,由類別標(biāo)簽和映射關(guān)系得到二進(jìn)制序列R.

步驟 3? ?將二進(jìn)制序列R的的標(biāo)志位取出,得到轉(zhuǎn)換為二進(jìn)制序列的秘密信息的長(zhǎng)度L、輸入類型K和圖像的順序序號(hào)N. 由截取R的前L長(zhǎng)度bit作為含密二進(jìn)制序列,最后將若干秘密信息按照其對(duì)應(yīng)的順序序號(hào)N1、N2、N3按順序連接得到秘密信息,再由輸入類型K直接轉(zhuǎn)換得到原秘密信息.

3? ?實(shí)驗(yàn)結(jié)果與分析

3.1? ?訓(xùn)練神經(jīng)網(wǎng)絡(luò)

3.1.1? ?數(shù)據(jù)集的建立

為提高識(shí)別率和抗攻擊性,訓(xùn)練數(shù)據(jù)集中包含了32種物體的圖片和這32種物體經(jīng)過(guò)各種攻擊后的圖片,如采用高斯噪聲、椒鹽噪聲、均值濾波、中值濾波、JPEG壓縮和灰度化等攻擊手段生成的攻擊樣本. 其中高斯白噪聲的均值為零,方差從0.001變化到1,單位間隔為0.001,方差越大,噪聲強(qiáng)度越大;椒鹽噪聲的均值為零,方差從0.001變化到1,單位間隔為0.001,噪聲強(qiáng)度隨著方差越來(lái)越大;濾波攻擊的濾波器尺寸參數(shù)從1×1到9×9,單位間隔為1×1,濾波器尺寸越大,濾波攻擊強(qiáng)度越大;JPEG壓縮質(zhì)量因子從1變化到99,單位間隔為0.1;32種類

別每種都包含6 041張圖片,整個(gè)訓(xùn)練數(shù)據(jù)集包含193 312張圖片.

3.1.2? ?訓(xùn)練參數(shù)的初始化及微調(diào)

對(duì)第8層中的25小層即全連接層的學(xué)習(xí)率進(jìn)行設(shè)置:參數(shù)的學(xué)習(xí)率的大小直接影響該參數(shù)的變化快慢,考慮權(quán)重和偏置的變化快慢適中的需求,權(quán)重因子學(xué)習(xí)率被設(shè)置為10,權(quán)重因子初始值設(shè)置為1,偏置學(xué)習(xí)率因子設(shè)置為20時(shí),權(quán)重因子設(shè)置為0. 在基本訓(xùn)練參數(shù)中,MaxEpoch是計(jì)算的輪數(shù),它的值越大越容易收斂,此處設(shè)置為30;InitialLearRate是學(xué)習(xí)率,太大模型可能不會(huì)收斂,太小則收斂的太慢,本文設(shè)置為0.000 1. MiniBatchSize是每次處理的數(shù)據(jù)的個(gè)數(shù),設(shè)置為8;訓(xùn)練網(wǎng)絡(luò)環(huán)境用GPU進(jìn)行訓(xùn)練以極大的提高運(yùn)行速度,參數(shù)中設(shè)置訓(xùn)練方式為隨機(jī)梯度下降法(sgdm)[15].

3.2? ?魯棒性分析

本實(shí)驗(yàn)分別采用高斯噪聲、椒鹽噪聲、JPEG壓縮、均值濾波和中值濾波以及灰度化手段對(duì)構(gòu)造的含密圖像進(jìn)行攻擊,然后對(duì)受到攻擊的含密圖像進(jìn)行解密以提取秘密信息,并通過(guò)計(jì)算其誤碼率來(lái)判斷算法的魯棒性. 誤碼率(Bit Error Rate,BER)為傳輸中錯(cuò)誤信息的碼數(shù)p與傳輸?shù)拿孛苄畔⒌目偞a數(shù)q的比值.

BER = p/q × 100%? ? ? ? ? ? ? ? (3)

3.2.1? ?抗噪聲測(cè)試

在抗高斯噪聲攻擊實(shí)驗(yàn)中,噪聲均值μ為 0,方差σ2從 0變化到 1, σ2 = 1 時(shí),噪聲強(qiáng)度最高. 在本測(cè)試中,σ2從 0.1 遞增到 1,間隔為 0.1. 圖5為本文算法誤碼率在不同強(qiáng)度的高斯噪聲攻擊下的誤碼率的變化折線圖. 表1展示了本文算法與CSD(chaotic sequences and image DCT algorithm)算法[16]、CBZS(chaos based zero-steganography)算法[17]的抗高斯白噪聲攻擊能力的比較. 通過(guò)20次重復(fù)實(shí)驗(yàn),結(jié)果證明,隨著高斯噪聲方差的增加,誤碼率始終為零,因而本算法具備良好的抗高斯噪聲攻擊的能力,性能優(yōu)于CBZS、CSD算法.

圖6給出了算法在不同強(qiáng)度的椒鹽噪聲攻擊下的誤碼率折線圖,椒鹽噪聲強(qiáng)度從 0.01遞增到 1,單位距離為 0.01. 由圖6可知,在噪聲強(qiáng)度低于0.7時(shí),BER始終為零,在噪聲強(qiáng)度為0.7至0.83之間時(shí)BER不超過(guò)3.2%. 當(dāng)噪聲強(qiáng)度高于0.84時(shí)BER才基本沿直線上升,但此時(shí)圖像已經(jīng)不具有實(shí)際的意義,人類視覺(jué)系統(tǒng)基本完全無(wú)法識(shí)別其內(nèi)容. 由表2可知在噪聲強(qiáng)度較低時(shí)BER基本為零,本文算法的抗椒鹽噪聲能力在低噪聲強(qiáng)度攻擊時(shí)優(yōu)于CBZS、CSD算法.

3.2.2? ?抗JPEG壓縮測(cè)試

JPEG 壓縮作為一種有損壓縮方法通常被第三方用來(lái)攻擊含密圖像. 本文選取的JPEG壓縮質(zhì)量因子的范圍從10遞增到90,單位間隔為10,通過(guò)對(duì)每個(gè)點(diǎn)的 BER的計(jì)算來(lái)算法抗JPEG壓縮的性能. 每個(gè)點(diǎn)的 BER取20次實(shí)驗(yàn)的平均值. 橫坐標(biāo)代表壓縮質(zhì)量因子,縱坐標(biāo)代表通過(guò)JPEG壓縮攻擊后,恢復(fù)秘密信息時(shí)的誤碼率.

測(cè)試結(jié)果如圖7所示. 由圖7可知,本文算法在壓縮質(zhì)量因子變化時(shí)能使誤碼率始終保持為零. 表3展示了本文算法與 CBD(Chaos based DCT steganography)算法[18]、CBZS算法、CSD算法在抗JPEG壓縮攻擊能力上的比較. 數(shù)據(jù)表明本文算法的抗JPEG壓縮攻擊的能力明顯優(yōu)于另外3種算法.

3.2.3? ?抗濾波器攻擊測(cè)試

對(duì)含密圖像分別用均值濾波器和中值濾波器進(jìn)行攻擊,計(jì)算其誤碼率來(lái)衡量算法抗濾波器攻擊的能力[19]. 濾波器尺寸范圍從1×1遞增至9×9,間隔為2×2. 測(cè)試結(jié)果如圖8、圖9所示. 從圖8和圖9可以看出,濾波器尺寸的增大并沒(méi)有增加誤碼率,本文算法的誤碼率始終為零,具有優(yōu)秀的抗濾波器攻擊能力.

3.3? ?抗檢測(cè)性和安全性

本文算法中以人們的社交習(xí)慣設(shè)計(jì)智力題規(guī)則,通過(guò)小圖標(biāo)拼接和文字引導(dǎo)使得處理后的拼接圖像變得有意義,在內(nèi)容上符合特定的邏輯表達(dá). 從圖10可以看出,最終生成的含密圖像,內(nèi)容上具備關(guān)聯(lián)性和合理性,符合人們的行為習(xí)慣,不容易被第三方所懷疑,故其安全性較高. 算法為含密圖像設(shè)計(jì)了專有的特征水印,水印中包含了子圖的信息熵特征和位置信息,故信息接收者可以據(jù)此判斷含密圖像是否為發(fā)送者發(fā)出,是否被攻擊者進(jìn)行替換、移位等篡改攻擊,進(jìn)一步提高了算法的安全性. 算法本身未對(duì)含密圖像作任何改變,故其抗檢測(cè)能力較強(qiáng).

3.4? ?容量

2n張圖像只能對(duì)應(yīng)n位二進(jìn)制編碼,因此若要單張圖像表示盡可能多的二進(jìn)制數(shù)則需要建立相當(dāng)龐大的圖像庫(kù)來(lái)滿足要求. 在本文算法中每張小圖標(biāo)圖像均編碼為5位二進(jìn)制數(shù),圖像庫(kù)中僅需要32張圖像. 在一般的編碼規(guī)則下單張52×52或312×312的圖像均代表5 bit信息. 而本文算法中將36張大小為52×52進(jìn)行拼接得到312×312大小的圖像則可單次表示180 bit信息,減去10 bit可表示170 bit信息;生成多張圖像時(shí)減去標(biāo)志位中占有的13 bit也能表示167 bit信息,而不用建立圖像數(shù)量為2167張的圖像庫(kù). 且本文算法考慮到實(shí)際傳輸?shù)拿孛苄畔㈤L(zhǎng)度需求更大,因而提供了最多可用7張拼接圖像作為載體以傳輸秘密信息,每段信息的順序已被處理并隱藏于標(biāo)志位中以保證能解出正確的原始秘密信息. 故本文算法最多一次性可傳輸167 × 7 = 1 169 bit信息,若秘密信息為漢字可傳輸77個(gè)漢字,在很多情況下,能用于實(shí)際的隱蔽通信. 用數(shù)據(jù)嵌入率來(lái)表示嵌入容量的大?。?/p>

C = B/D × 100%? ? ? ? ? ? ? ? (4)

式中:B為隱藏信息的長(zhǎng)度;D為宿主的長(zhǎng)度.

ICS(image coding and stitching)算法[20]的數(shù)據(jù)嵌入率只有0.01%,大小為1 024×1 024的單張圖片的最大容量為167 bit. GGCM(Grayscale Gradient Co-occurrence Matrix)的數(shù)據(jù)嵌入率只有0.01%,大小為256×256的單張圖片的最大容量為8 bit. 而本文提出的算法可達(dá)0.18%,單張圖片的最大容量可達(dá)170 bit,相比以上兩種無(wú)載體隱藏算法,數(shù)據(jù)嵌入率有了較大的提升,單張圖片的容量也有所提升.

4? ?結(jié)? ?論

為提高通信效率和隱藏容量,本文采用數(shù)據(jù)挖掘技術(shù)從社交平臺(tái)中提取社交行為習(xí)慣,并結(jié)合深度學(xué)習(xí)方法進(jìn)行訓(xùn)練、識(shí)別和分類,建立圖標(biāo)庫(kù),以行為習(xí)慣為構(gòu)造準(zhǔn)則構(gòu)造出含密圖像,實(shí)現(xiàn)秘密消息的隱蔽傳輸. 本文算法MATLAB 2017b環(huán)境下測(cè)試,從實(shí)驗(yàn)結(jié)果看,本文算法具有良好的隱蔽性和魯棒性,能抵抗高斯噪聲、抗椒鹽噪聲、抗JPEG壓縮、抗均值濾波器和抗中值濾波器的攻擊,有效地提高了通信效率和秘密消息的隱藏容量.

參考文獻(xiàn)

[1]? ? 沈昌祥,張煥國(guó),馮登國(guó). 信息安全綜述[J].中國(guó)科學(xué),2007,37(2):129—150.

SHEN C X,ZHANG H G,F(xiàn)ENG D G. Overview of cyber security [J].Science In China,2007,37(2):129—150.(In Chinese)

[2]? ? INAS J K,PRASHAN P,VIAL P,et al. Comprehensive survey of image steganography:techniques,evaluations,and trends in future research [J]. Neurocomputing,2018,335:299—326.

[3]? ? ZHOU Z L,SUN H Y,HARIT R,et al. Coverless image steganograph without embedding [C]// International Conference on Cloud Computing and Security. Springer,Cham:Springer,2015:123—132.

[4]? ? 張新鵬,錢振興,李晟.信息隱藏研究展望[J]. 應(yīng)用科學(xué)學(xué)報(bào),2016,34(5):476—484.

ZHANG X P,QIAN Z X,LI S .Prospect of digital steganographyresearch[J]. Journal of Applied Sciences,2016,34(5):476—484. (In Chinese)

[5]? ? 劉健,袁謙,吳廣,等.卷積神經(jīng)網(wǎng)絡(luò)綜述[J].計(jì)算機(jī)時(shí)代,2018,11:19—23.

LIU J,YUAN Q,WU G,et al. Review of convolutional neural networks [J].Computer Era,2018,11:19—23. (In Chinese)

[6]? ? KRIZHEVSKY A,SUTSKEVER I,HINTON G E. ImageNet classification with deep convolutional neural networks[J]. Communications of the ACM,2017,60(6):84—90.

[7]? ? ZEGEDY C,LIU W,JIA Y Q,et al. Going deeper with convolutions. [C]//Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston,MA: IEEE,2015:1—9.

[8]? ? SIMONYAN K,ZISSERMAN A. Very deep convolutional networks for large-scale image recognition [C]//The Hilton San Diego Resort & Spa. San Diego:ICLR,2015:1—14.

[9]? ? 冉鵬,王靈,李昕,等. 改進(jìn) Softmax 分類器的深度卷積神經(jīng)網(wǎng)絡(luò)及其在人臉識(shí)別中的應(yīng)用[J].上海大學(xué)學(xué)報(bào)(自然科學(xué)版),2018,24(3):353—366.

RAN P,WANG L,LI X,et al. Improved Softmax classifier for deep convolution neural networks and its application in face recognition [J]. Journal of Shanghai University(Natural Science),2018,24(3):353—366. (In Chinese)

[10]? 蔣昂波,王維維. ReLU激活函數(shù)優(yōu)化研究[J].傳感器與微系統(tǒng),2018,37(2):50—52.

JIANG A B,WANG W W. Research on optimization of ReLU activation function[J]. Transducer and Microsystem Technologies,2018,37(2):50—52. (In Chinese)

[11]? 周林勇,謝曉堯,劉志杰,等. 卷積神經(jīng)網(wǎng)絡(luò)池化方法研究[J].計(jì)算機(jī)工程,2019,45(4):211—216.

ZHOU L Y,XIE X Y,LIU Z J,et al. Research on pooling method of convolution neural network [J]. Computer Engineering,2019,45(4):211—216. (In Chinese)

[12]? 劉鑫鵬,欒悉,謝毓湘,等. 遷移學(xué)習(xí)研究和算法綜述[J].長(zhǎng)沙大學(xué)學(xué)報(bào),2018:32(5):29—36.

LIU X P,LUAN X,XIE Y X,et al. Transfer learning research and algorithm review[J]. Journal of Changsha University,2018,32(5):29—36. (In Chinese)

[13]? 譚耀麟. 圖像信息系統(tǒng)原理[M]. 北京:清華大學(xué)出版社,2006:326—335.

TAN Y L. Principle of image information system [M]. Beijing:Tsinghua University Press,2006:326—335. (In Chinese)

[14]? KEKRE H B,SARODE T K,THEPADE S D. Color-texture feature based image retrieval using DCT applied on Kekre's median codebook [J]. International Journal of Imaging & Robotics TM,2009,2(9):54—65.

[15]? 王功鵬,段萌,牛常勇. 基于卷積神經(jīng)網(wǎng)絡(luò)的隨機(jī)梯度下降算法[J].計(jì)算機(jī)工程與設(shè)計(jì),2018,39(2):442—462.

WANG G P,DUAN M,NIU C Y. Stochastic gradient descent algorithm based on convolution neural network [J].Computer Engineering and Desigh,2018,39(2):442—462. (In Chinese)

[16]? 吳建斌,費(fèi)瀟瀟,王年豐. 基于混沌序列和DCT變換的圖像零隱藏算法研究[J]. 電子測(cè)量技術(shù),2017,40(5):174—179.

WU J B,F(xiàn)EI X X,WANG N F. Zero-steganography algorithm research based on chaotic sequences and image DCT transform [J].Electronic Measurement Technology,2017,40(5):174—179. (In Chinese)

[17] BILAL M,IMTIAZ S,ABDUL W,et al. Chaos based Zero-steganography algorithm[J]. Multimedia Tools & Applications,2014,72(2):1073—1079.

[18]? SINGH S,SIDDIQUI T J. A security enhanced robust steganography algorithm for data hiding [J]. International Journal of Computer Science Issues,2012,9(3):131—139.

[19]? WU J B,LIU Y W,DAI Z Y,et al. A coverless information hiding algorithm based on grayscale gradient co-occurrence matrix [J]. IETE Technical Review,2018,35:23—33.

[20]? 吳建斌,賈炎柯,劉逸雯. 基于圖像編碼及拼接的無(wú)載體信息隱藏[J].華南理工大學(xué)學(xué)報(bào)(自然科學(xué)版),2018,46(5):32—39.

WU J B,JIA Y K,LIU Y W. Coverless information hiding algorithm based on image coding and stitching [J]. Journal of South China University of Technology(Nature Science Edition),2018,46(5):32—39. (In Chinese)

猜你喜歡
圖像分類深度學(xué)習(xí)
基于數(shù)據(jù)挖掘的圖像分類算法
基于云計(jì)算的圖像分類算法
基于錨點(diǎn)建圖的半監(jiān)督分類在遙感圖像中的應(yīng)用
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
一種基于引導(dǎo)濾波和MNF的高光譜遙感圖像分類方法
基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
北碚区| 宜川县| 仙游县| 山东省| SHOW| 军事| 商丘市| 珲春市| 石柱| 灵璧县| 咸丰县| 天全县| 游戏| 芷江| 含山县| 绩溪县| 萍乡市| 德清县| 政和县| 肥西县| 泊头市| 沙湾县| 兴仁县| 驻马店市| 铜陵市| 广宗县| 宕昌县| 柘城县| 库尔勒市| 田东县| 黔西| 彰武县| 嘉禾县| 桑日县| 平遥县| 宿松县| 望城县| 浏阳市| 南京市| 温州市| 五峰|