国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于隱式對(duì)稱(chēng)生成對(duì)抗網(wǎng)絡(luò)的圖像隱寫(xiě)與提取方案

2023-06-10 04:44:28屈夢(mèng)楠靳宇浩
信息安全研究 2023年6期
關(guān)鍵詞:魯棒性損失函數(shù)

屈夢(mèng)楠 靳宇浩 鄔 江

(中電長(zhǎng)城網(wǎng)際安全技術(shù)研究院(北京)有限公司 北京 100097)

隨著科學(xué)技術(shù)的發(fā)展,深度學(xué)習(xí)技術(shù)在越來(lái)越多領(lǐng)域取得了顯著的成果,基于深度學(xué)習(xí)的圖像隱寫(xiě)技術(shù)逐漸成為研究熱點(diǎn),其中基于生成對(duì)抗網(wǎng)絡(luò)(generative adversarial network, GAN)[1]的圖像隱寫(xiě)技術(shù)已經(jīng)得到廣泛關(guān)注.

GAN是一種深度學(xué)習(xí)模型,在圖像生成、圖像修復(fù)、圖像超分辨率等領(lǐng)域取得令人驚嘆的成果[2-3].在GAN應(yīng)用領(lǐng)域的研究中有諸多優(yōu)秀的模型研究,如DCGAN[4],WGAN[5],PGGAN[7]等,這些模型都具有強(qiáng)大的生成能力和學(xué)習(xí)能力,能夠生成高質(zhì)量的圖像[2],這些模型通過(guò)改寫(xiě)還能夠?qū)崿F(xiàn)對(duì)秘密信息的有效嵌入和提取.

相較于傳統(tǒng)的圖像隱寫(xiě)技術(shù)[7],基于GAN的圖像隱寫(xiě)技術(shù)具有更強(qiáng)的魯棒性和安全性,因?yàn)槠淝度氲姆绞礁訌?fù)雜、隱蔽,很難被攻擊者發(fā)現(xiàn)并破解[8].此外,基于GAN的圖像隱寫(xiě)技術(shù)還具有較好的可擴(kuò)展性,可以適用于不同領(lǐng)域的圖像隱寫(xiě)問(wèn)題[9].

雖然基于GAN的圖像隱寫(xiě)技術(shù)能夠得到很好的結(jié)果,但是在實(shí)際應(yīng)用中仍然存在一些明顯的問(wèn)題[8],例如,如何保證嵌入的秘密信息不會(huì)影響載體圖像的質(zhì)量,如何防止攻擊者通過(guò)某些方法識(shí)別出秘密信息,如何降低訓(xùn)練成本還能夠保證擁有相同的圖像質(zhì)量等,因此,現(xiàn)有基于GAN的圖像隱寫(xiě)技術(shù)仍需要在圖像質(zhì)量與安全性方面進(jìn)行探索與優(yōu)化.

同時(shí),基于深度學(xué)習(xí)如何將一張圖像隱寫(xiě)到另一張圖像中的研究還很欠缺.該領(lǐng)域的研究有著更大的研究?jī)r(jià)值,仍然需要更多的研究與探索.

本文所提出的方案是使用一種隱式對(duì)稱(chēng)生成對(duì)抗網(wǎng)絡(luò),旨在提高圖像質(zhì)量和隱蔽性,同時(shí)保證嵌入率和魯棒性.本文的主要貢獻(xiàn)包括:

1) 通過(guò)將圖像隱寫(xiě)與提取任務(wù)抽象為一個(gè)數(shù)學(xué)優(yōu)化問(wèn)題,簡(jiǎn)化了任務(wù)難度,為建立隱式對(duì)稱(chēng)生成對(duì)抗模型奠定了理論基礎(chǔ).

2) 根據(jù)優(yōu)化問(wèn)題提出一個(gè)隱式對(duì)稱(chēng)生成對(duì)抗網(wǎng)絡(luò)模型,該模型通過(guò)2個(gè)生成對(duì)抗子網(wǎng)絡(luò)相互博弈、互相優(yōu)化的方式進(jìn)行學(xué)習(xí),提高生成圖像的隱秘性與魯棒性.

3) 設(shè)計(jì)適用于該模型的損失函數(shù),損失函數(shù)引入了內(nèi)容損失和對(duì)抗損失,使模型學(xué)習(xí)速度提升,使生成圖像的質(zhì)量得到提高.

1 相關(guān)研究

1.1 傳統(tǒng)圖像隱寫(xiě)技術(shù)

圖像隱寫(xiě)作為一種重要的信息隱藏技術(shù),在過(guò)去幾十年中得到廣泛的研究和應(yīng)用.傳統(tǒng)的圖像隱寫(xiě)方法主要包括空域方法和變換域方法[10].其中,空域方法將秘密信息直接嵌入到原始圖像像素中,而變換域方法則通過(guò)對(duì)圖像進(jìn)行變換來(lái)實(shí)現(xiàn)秘密信息的嵌入[11].然而,這些傳統(tǒng)方法存在一些局限性,如嵌入率低、易受攻擊等[12].

1.2 基于深度學(xué)習(xí)的圖像隱寫(xiě)技術(shù)

近年來(lái),基于深度學(xué)習(xí)的圖像隱寫(xiě)方法逐漸成為研究熱點(diǎn)[13].其中,生成對(duì)抗網(wǎng)絡(luò)已經(jīng)被廣泛應(yīng)用于圖像隱寫(xiě)領(lǐng)域[14-15].GAN中的生成器將隨機(jī)向量轉(zhuǎn)換為逼真的圖像,而鑒別器負(fù)責(zé)區(qū)分生成圖像和真實(shí)圖像的差異,從而不斷優(yōu)化生成器[1].

2017年 Volkhonskiy等人[10]提出了一種稱(chēng)為隱寫(xiě)生成對(duì)抗網(wǎng)絡(luò)(steganographic generative adversarial network, SGAN)的模型,可以生成高質(zhì)量的隱寫(xiě)圖像,并且可以在保持圖像質(zhì)量的同時(shí)隱藏更多的信息.2018年SSGAN[16],將載體圖像的生成網(wǎng)絡(luò)替換成 Wasserstein GAN[5]生成更加符合真實(shí)分布的載體圖像.StegNet將深度卷積神經(jīng)網(wǎng)絡(luò)方法與圖像隱寫(xiě)術(shù)相結(jié)合,成功地隱藏了相同大小的圖像[17].Yang等人[18]提出了一種使用對(duì)抗訓(xùn)練的安全隱寫(xiě)算法,使用了一種基于 U-NET[19]的生成器.

然而,現(xiàn)有的基于GAN圖像隱寫(xiě)方法仍然存在一些局限性[8],如圖像質(zhì)量下降、顏色失真等,而目前生成對(duì)抗網(wǎng)絡(luò)研究的趨勢(shì)不斷向大型網(wǎng)絡(luò)偏移,造成算法對(duì)機(jī)器性能的依賴(lài)性增強(qiáng)[4].

1.3 基于深度學(xué)習(xí)的“以圖藏圖”

“以圖藏圖”意指將一張圖片隱藏在另一張圖片中,其方式包括圖像融合、圖像隱寫(xiě)等多種方式,目前圖像隱寫(xiě)方面的研究仍然較少,Baluja[20]與Zhang等人[21-22]首先將基于深度學(xué)習(xí)的圖像隱寫(xiě)算法應(yīng)用于“以圖藏圖”領(lǐng)域,成功將一幅全彩色圖像放置在另一幅相同尺寸的圖像中.這些方法雖然很好地將隱秘圖像隱寫(xiě)入載體圖像,但是仍然具有圖像質(zhì)量下降、顏色失真的問(wèn)題.

綜合上述問(wèn)題,本文提出的基于隱式對(duì)稱(chēng)生成對(duì)抗網(wǎng)絡(luò)的圖像隱寫(xiě)與提取方案通過(guò)引入隱式對(duì)稱(chēng)特征提取、2個(gè)生成對(duì)抗子網(wǎng)絡(luò)相互博弈機(jī)制來(lái)提高圖像質(zhì)量和隱蔽性,并通過(guò)優(yōu)化特定的損失函數(shù)提高嵌入率和安全性.與當(dāng)前的其他方法相比,本文方法具有更好的魯棒性和可靠性,能夠在不影響圖像質(zhì)量的情況下有效地隱藏秘密信息.

2 圖像隱寫(xiě)與提取方案設(shè)計(jì)

2.1 圖像隱寫(xiě)任務(wù)的描述

2.2 隱式對(duì)稱(chēng)生成對(duì)抗網(wǎng)絡(luò)

總體網(wǎng)絡(luò)結(jié)構(gòu)框架設(shè)計(jì)如圖1所示,生成器GA用于接收載體圖像與隱秘圖像,生成1張包含隱寫(xiě)信息的新圖像,判別器DA用于判斷生成器GA生成的包含隱寫(xiě)信息的新圖像是否與載體圖像相同;生成器GB用于從生成器GA生成的包含隱寫(xiě)信息的新圖像中提取出隱秘圖像,判別器DB用于判斷生成器GB提取出的隱秘圖像與原始隱秘圖像是否相同.

圖1 雙重交互生成對(duì)抗網(wǎng)絡(luò)結(jié)構(gòu)

判別器DA和判別器DB的結(jié)構(gòu)相同,用來(lái)提取圖像的特征,因?yàn)樯傻膱D像中包含隱寫(xiě)信息,所以從像素層面比較2張圖像是否相等是不正確的,在這里認(rèn)為當(dāng)2張圖像通過(guò)判別器提取出的特征相同,則認(rèn)為這2張圖像相同.

該判別器網(wǎng)絡(luò)結(jié)構(gòu)為全卷積網(wǎng)絡(luò),由4層帶有LeakyReLU激活函數(shù)的卷積層和1層Sigmod激活函數(shù)的卷積層.

圖2 隱式對(duì)稱(chēng)生成對(duì)抗網(wǎng)絡(luò)生成器GA與GB結(jié)構(gòu)

2.3 損失函數(shù)

生成器GA損失函數(shù)由2部分組成:內(nèi)容損失和對(duì)抗損失,其中,內(nèi)容損失用于衡量生成的圖像與原始輸入圖像之間的距離,對(duì)抗損失用于評(píng)估生成圖像的真實(shí)性,并鼓勵(lì)生成器生成更加真實(shí)的圖像.內(nèi)容損失的計(jì)算如式(1)所示,對(duì)抗損失的計(jì)算如式(2)所示.

(1)

(2)

其中,x表示輸入圖像,D(G(x))表示判別器對(duì)生成器生成的隱寫(xiě)圖像與原始圖像相似的概率值.

生成器GB損失函數(shù)也由內(nèi)容損失和對(duì)抗損失2部分組成,內(nèi)容損失的計(jì)算如式(3)所示,對(duì)抗損失的計(jì)算如式(4)所示.

(3)

(4)

設(shè)LGA為對(duì)生成器GA定義的損失函數(shù),如式(5)所示LGB為對(duì)生成器GB定義的損失函數(shù),如式(6)所示.

LGA=LAcontent+LAadversarial,

(5)

LGB=LBcontent+LBadversarial.

(6)

判別器的損失函數(shù)只包括對(duì)抗損失,用于評(píng)估輸入圖像的真實(shí)性和質(zhì)量,并指導(dǎo)優(yōu)化過(guò)程,LDA為對(duì)判別器DA定義的損失函數(shù),如式(7)所示:

(7)

LDB為對(duì)判別器DB定義的損失函數(shù),如式(8)所示:

(8)

3 實(shí)驗(yàn)及結(jié)果分析

3.1 數(shù)據(jù)集準(zhǔn)備

本文實(shí)驗(yàn)過(guò)程評(píng)估了隱式對(duì)稱(chēng)生成對(duì)抗網(wǎng)絡(luò)的性能,并選擇了適合該模型的數(shù)據(jù)集進(jìn)行訓(xùn)練和測(cè)試.由于隱式對(duì)稱(chēng)生成對(duì)抗網(wǎng)絡(luò)的特殊網(wǎng)絡(luò)結(jié)構(gòu),其具有不需要標(biāo)注數(shù)據(jù)、可使用任意圖像數(shù)據(jù)組成成對(duì)數(shù)據(jù)等特點(diǎn),因此本文實(shí)驗(yàn)采用了常用的圖像數(shù)據(jù)集Celeb-A[23]和MNIST[24]作為實(shí)驗(yàn)數(shù)據(jù)集.

Celeb-A數(shù)據(jù)集包含超過(guò)20萬(wàn)張名人面部圖像,并涵蓋了多種年齡、種族和性別.該數(shù)據(jù)集廣泛應(yīng)用于人臉識(shí)別、人臉檢測(cè)和人臉屬性分析等領(lǐng)域.MNIST數(shù)據(jù)集是一個(gè)手寫(xiě)數(shù)字圖像數(shù)據(jù)集,包含6萬(wàn)張訓(xùn)練圖像和1萬(wàn)張測(cè)試圖像.該數(shù)據(jù)集廣泛應(yīng)用于數(shù)字識(shí)別和基于圖像的機(jī)器學(xué)習(xí)任務(wù).

實(shí)驗(yàn)中,將Celeb-A和MNIST數(shù)據(jù)集隨機(jī)劃分成訓(xùn)練集和測(cè)試集,并使用訓(xùn)練集訓(xùn)練隱式對(duì)稱(chēng)生成對(duì)抗網(wǎng)絡(luò)模型,用測(cè)試集驗(yàn)證模型訓(xùn)練結(jié)果.采用常見(jiàn)的數(shù)據(jù)增強(qiáng)技術(shù),如隨機(jī)旋轉(zhuǎn)、翻轉(zhuǎn)和縮放等,以擴(kuò)充數(shù)據(jù)集并提高模型的魯棒性.

3.2 訓(xùn)練模型

本文使用Python和PyTorch框架進(jìn)行實(shí)驗(yàn),并在GeForce RTX 1050Ti GPU上運(yùn)行.將數(shù)據(jù)集分為訓(xùn)練集、驗(yàn)證集和測(cè)試集,其中訓(xùn)練集用于模型的訓(xùn)練,驗(yàn)證集用于調(diào)整模型參數(shù)和提前終止策略,測(cè)試集用于評(píng)估模型性能.

采用Adam優(yōu)化器對(duì)判別器的損失函數(shù)LDA和LDB分別進(jìn)行優(yōu)化,對(duì)生成器的損失函數(shù)LGA和LGB分別進(jìn)行優(yōu)化,并使用學(xué)習(xí)率衰減技術(shù)逐步降低學(xué)習(xí)率以避免過(guò)擬合.

3.3 評(píng)估實(shí)驗(yàn)結(jié)果

實(shí)驗(yàn)評(píng)估的關(guān)鍵指標(biāo)包括圖像質(zhì)量和安全性,實(shí)驗(yàn)結(jié)果與文獻(xiàn)[19]方法和文獻(xiàn)[20]方法2種方法進(jìn)行了比較.

1) 圖像質(zhì)量評(píng)估.

在圖像質(zhì)量方面,采用峰值信噪比PSNR(peak signal-to-noise ratio)和結(jié)構(gòu)相似性指數(shù)SSIM(structural similarity index)[25]等常用指標(biāo)來(lái)評(píng)估生成圖像與原始圖像之間的相似度.

PSNR用于衡量原始圖像和隱寫(xiě)圖像之間的相似度,計(jì)算公式為式(9):

(9)

其中,MSE(mean squared error)表示均方誤差,計(jì)算公式為式(10):

(10)

其中,IA和IB分別表示原始圖像和隱寫(xiě)圖像,m和n分別表示圖像的寬度和高度.

SSIM用于比較2個(gè)圖像的結(jié)構(gòu)相似性,計(jì)算公式為式(11):

SSIM(x,y)=
[I(x,y)]α[c(x,y)]β[s(x,y)]γ,

(11)

其中,I(x,y),c(x,y)和s(x,y)分別表示亮度、對(duì)比度和結(jié)構(gòu)相似度,α,β和γ是權(quán)重系數(shù).

實(shí)驗(yàn)結(jié)果表明,本文方法在圖像質(zhì)量方面表現(xiàn)出色,PSNR值平均為32.67dB,SSIM值平均為0.99,與其他先進(jìn)方法相比具有顯著優(yōu)勢(shì),對(duì)比結(jié)果如表1所示:

表1 圖像質(zhì)量評(píng)估表

2) 隱寫(xiě)魯棒性與安全性評(píng)估.

在魯棒性與安全性方面,采用攻擊成功率ASR(attack success rate)、隱寫(xiě)后圖像質(zhì)量和提取準(zhǔn)確度EA(extraction accuracy)等多個(gè)指標(biāo)來(lái)評(píng)估模型的安全性.

實(shí)驗(yàn)以最常見(jiàn)的攻擊方法之一直方圖攻擊進(jìn)行仿真攻擊實(shí)驗(yàn),通過(guò)計(jì)算攻擊成功次數(shù)與攻擊總次數(shù)的比值,計(jì)算攻擊成功率,以研究模型的抵抗攻擊能力.

EA是衡量隱寫(xiě)算法從隱寫(xiě)圖像中提取信息的精度指標(biāo),假設(shè)隱寫(xiě)算法從隱寫(xiě)圖像中提取的信息為S′,而原始信息為S,則圖像提取準(zhǔn)確度可以表示為式(12):

(12)

其中,∩表示2個(gè)集合的交集,|S′|和|S|分別表示提取的信息和原始信息的大小.

實(shí)驗(yàn)結(jié)果表明,本文方法在直方圖攻擊下保持較高的安全性,攻擊成功率只有2.8×1017%,與對(duì)比模型相比攻擊成功率較低;提取準(zhǔn)確度達(dá)到45.93%,相比現(xiàn)有模型高出1.3%.對(duì)比結(jié)果如表2所示:

表2 圖像安全性評(píng)估表

3) 視覺(jué)效果評(píng)估.

隱寫(xiě)后的圖像與提取的隱秘圖像視覺(jué)感知效果良好,與原始載體圖像和原始隱秘圖像相比不易分辨,對(duì)比結(jié)果如圖3所示:

圖3 DI-GAN模型在MNIST數(shù)據(jù)集上實(shí)現(xiàn)的效果

4 結(jié) 論

基于隱式對(duì)稱(chēng)生成對(duì)抗網(wǎng)絡(luò)的圖像隱寫(xiě)技術(shù)是一種非常有效的信息隱藏手段.該技術(shù)利用生成對(duì)抗網(wǎng)絡(luò)將秘密圖像嵌入到載體圖像中,并能夠在不影響圖像質(zhì)量和隱蔽性的情況下實(shí)現(xiàn)信息隱藏和提取.與先前的基于深度學(xué)習(xí)的圖像隱寫(xiě)技術(shù)相比,在基于隱式對(duì)稱(chēng)生成對(duì)抗網(wǎng)絡(luò)的圖像隱寫(xiě)方案中,訓(xùn)練方式更加科學(xué),數(shù)據(jù)隱藏更加隱秘,很難被攻擊者發(fā)現(xiàn)并破解,具有更好的魯棒性和安全性.下一步將繼續(xù)完善和優(yōu)化基于隱式對(duì)稱(chēng)生成對(duì)抗網(wǎng)絡(luò)的圖像隱寫(xiě)方案,同時(shí),對(duì)基于神經(jīng)網(wǎng)絡(luò)的隱寫(xiě)技術(shù)隱寫(xiě)與提取過(guò)程中如何減少信息損失進(jìn)行深入探究.

致謝本文的實(shí)驗(yàn)環(huán)境由中電長(zhǎng)城網(wǎng)際安全技術(shù)研究院(北京)有限公司提供,并提供技術(shù)支持.

猜你喜歡
魯棒性損失函數(shù)
少問(wèn)一句,損失千金
二次函數(shù)
第3講 “函數(shù)”復(fù)習(xí)精講
胖胖損失了多少元
二次函數(shù)
函數(shù)備考精講
荒漠綠洲區(qū)潛在生態(tài)網(wǎng)絡(luò)增邊優(yōu)化魯棒性分析
基于確定性指標(biāo)的弦支結(jié)構(gòu)魯棒性評(píng)價(jià)
玉米抽穗前倒伏怎么辦?怎么減少損失?
基于非支配解集的多模式裝備項(xiàng)目群調(diào)度魯棒性?xún)?yōu)化
祁阳县| 休宁县| 永济市| 义马市| 监利县| 惠东县| 嫩江县| 都兰县| 泸西县| 富源县| 陆良县| 顺义区| 秭归县| 澜沧| 十堰市| 南涧| 扬中市| 鄢陵县| 阳春市| 彭山县| 宾川县| 达尔| 锡林郭勒盟| 尉氏县| 青田县| 伽师县| 岗巴县| 柘城县| 夏津县| 永州市| 宁武县| 新竹市| 改则县| 连城县| 嘉兴市| 奇台县| 胶南市| 游戏| 如皋市| 昂仁县| 行唐县|